Deepfake porno, un problema fuori controllo

Deepfake porno, un problema fuori controllo

Deepfake porno, un problema fuori controllo


La porta d’accesso a molti siti e strumenti per creare video o immagini deepfake sono le ricerche online. Dei milioni di persone che vengono indirizzate verso i portali al centro dello studio, il 50-80 % ci arriva in questo modo. Si tratta di un problema è globale. Utilizzando una vpn, il ricercatore ha analizzato le ricerche su Google in Canada, Germania, Giappone, Stati Uniti, Brasile, Sudafrica e Australia. In tutti i test, i siti deepfake sono stati visualizzati in evidenza nei risultati di ricerca. Nei video a essere presi di mira sono spesso celebrità, streamer e content creator. Maddocks dichiara che la diffusione dei deepfake è ormia diventata “endemica”, esattamente quello che molti ricercatori temevano quando i primi deepfake sono saliti alla ribalta nel dicembre 2017.

E se a cinque anni dalla comparsa dei deepfake stanno arrivando le prime leggi che ne criminalizzano la condivisione, gli strumenti necessari per creare questi video sono diventati più facili da usare e anche la loro qualità è migliorata. Secondo Flynn, la proliferazione delle app di deepfake combinata con una maggiore dipendenza dalle comunicazioni digitali nell’era del Covid-19 e con “l’incapacità di leggi e politiche di tenere il passo“, ha creato la “tempesta perfetta”. Gli esperti affermano che è necessaria una migliore sensibilizzazione sulle nuove tecnologie unita a misure per fermare la diffusione degli strumenti dannosi, anche da parte delle aziende che ospitano i siti e i motori di ricerca, come Google e Bing.

Henry Ajder, un esperto di deepfake e di AI generativa che monitora la diffusione di queste tecnologie, sostiene che l’aggiunta di un maggiore “attrito” può ridurne la diffusione dei deepfake e delle app per spogliare le persone: “Il punto è cercare di rendere la ricerca il più difficile possibile – spiega Ajder –. È difficile essere ottimisti, visto il volume e la portata di queste operazioni e la necessità che le piattaforme che storicamente non hanno mai preso sul serio questi problemi inizino a farlo all’improvviso”.

Come ogni motore di ricerca, Google indicizza i contenuti che esistono sul web, ma progettiamo i nostri sistemi di ranking per evitare di scioccare le persone con contenuti dannosi o espliciti che non si aspettano e non vorrebbero vedere“, afferma il portavoce di Google Ned Adriance, che rimanda alla pagina del blog di Google in cui l’azienda spiega i casi i cui rimuove dei contenuti dai suoi risultati di ricerca. Nelle pagine di supporto di Google si legge che è possibile richiedere la rimozione della “falsa pornografia involontaria“. Il modulo per la rimozione chiede agli utenti di inserire manualmente gli url in questioni e i termini di ricerca utilizzati per trovare il contenuto. “Man mano che questo settore si evolve, stiamo lavorando attivamente per aggiungere ulteriori salvaguardie per aiutare a proteggere le persone, sulla base dei sistemi che abbiamo costruito per altri tipi di immagini esplicite non consensuali“, aggiunge Adriance.



Leggi tutto su www.wired.it
di Matt Burgess www.wired.it 2023-10-18 04:40:00 ,

Previous Wetaxi integra car sharing e auto bianche

Leave Your Comment