Da qualche tempo a questa parte TikTok e gli altri social media si stanno popolando rapidamente di video deepfake che sfruttano la celebrità di personaggi del mondo dello spettacolo per attirare gli utenti in truffe di ogni genere. La scorsa settimana, per esempio, l’immagine di Taylor Swift – accuratamente modificata dall’intelligenza artificiale – è stata utilizzata per convincere i suoi fan a lasciare i propri dati personali in cambio di una prestigiosa batteria di pentole Le Creuset in regalo. E ancora prima sono stati Tom Hanks, Nicki Minaj e MrBeast a vedere usurpata la propria immagine, clonata dall’AI e utilizzata in rete da truffatori e criminali.
Una situazione tutt’altro che piacevole, che ha fatto infastidire non poco le celebrità, tanto da convincere il Congresso degli Stati Uniti a lavorare a una legislazione che possa combattere la diffusione di deepfake creati dall’intelligenza artificiale, soprattutto quando questi hanno a che fare con personaggi noti e nudità non consensuali. Nasce così il No AI Fraud Act, la proposta di legge firmata dalle deputate María Elvira Salazar e Madeleine Dean, in cui si riconosce ufficialmente che “ogni individuo ha un diritto di proprietà sulla propria immagine e voce”, rendendo di fatto illegale l’uso dell’intelligenza artificiale per la clonazione di una persona, viva o scomparsa che sia. Ma non è tutto. La legislazione prende chiaramente di mira anche anche i porno deepfake, affermando che “qualsiasi rappresentazione digitale o replica vocale digitale che includa materiale pedopornografico, sia sessualmente esplicita o includa immagini intime” soddisfa la definizione di danno ai sensi della legge.
Ma nonostante il No AI Fraud Act rappresenti un passo importante nella regolamentazione dell’uso dell’intelligenza artificiale negli Usa, quello che preoccupa gli esperti di sicurezza è che si tratta di una proposta di legge che tende a proteggere soprattutto le celebrità, ignorando le persone comuni. “È stato redatto con un occhio ai diritti di proprietà che le celebrità e gli artisti hanno sulle loro sembianze e voci – ha dichiarato a Motherboard Carrie Goldberg, avvocato specializzato in deepfake -. Tuttavia, il nostro sistema legale tratta la proprietà intellettuale delle celebrità in modo diverso rispetto a quella delle persone non note al pubblico”. Un esempio perfettamente calzante riguarda i paparazzi: una legge statunitense sancisce che le celebrità possano essere risarcite nel caso in cui le foto che gli vengono scattate senza permesso siano utilizzate a scopo di lucro. Ma per le persone comuni, invece, i diritti sulle foto appartengono esclusivamente a chi le ha scattate. Un paradosso bello e buono, che ha però una sua valenza legale.
Al di là di tutto questo, è innegabile che gli Stati Uniti si stiano muovendo per limitare quanto più possibile la diffusione di deepfake. Anche se, secondo quanto sostenuto dagli esperti di sicurezza, il vero problema sarebbe da identificare piuttosto negli strumenti che ne rendono possibile la creazione. “Ciò di cui la nostra società ha veramente bisogno è attaccare l’intelligenza artificiale e i deepfake a livello sistemico e dare la caccia ai prodotti dannosi sui luoghi tradizionali come AppStore e GooglePlay, disponibili sul mercato esclusivamente per manipolare le immagini“, ha dichiarato Carrie Goldberg, ponendo l’attenzione su una questione già abbastanza importante per la nostra società: i rischi dell’AI generativa, per le persone note e per quelle che non lo sono affatto.
Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2024-01-17 11:13:45 ,