Nonostante la mezzaluna diffusione dei deepfake espliciti e la loro facilità di creazione, legislatori e aziende tecnologiche sono stati lenti nell’opporsi a il problema. Negli Stati Uniti, 23 stati hanno adottato leggi contro i deepfake non consensuali, e le aziende tecnologiche hanno rafforzato alcune politiche. Tuttavia, app capaci di creare questa tipologia di deepfake sono state trovate su store come Apple e Google, e deepfake sessuali di celebrità come Taylor Swift sono stati ampiamente condivisi su X. Inoltre, l’infrastruttura delle Big Tech ha reso facile per gli utenti creare account su siti di deepfake.
Kate Ruane, direttrice del progetto per la libertà di espressione presso il Center for Democracy and Technology, sostiene che molte grandi piattaforme tecnologiche ora vietano la distribuzione non consensuale di immagini intime, e le aziende più importanti hanno concordato principi per opporsi a i deepfake. Tuttavia, Ruane afferma che non è chiaro se Telegram proibisca effettivamente la creazione o la distribuzione di immagini intime non consensuali, perché i suoi termini di servizio sono meno dettagliati rispetto a quelli di altre piattaforme.
La piattaforma è stata a lungo criticata per il suo approccio lassista alla rimozione di contenuti dannosi, dopo aver ospitato truffatori, gruppi estremisti e contenuti legati al terrorismo. Tuttavia, da quando il ideatore di Telegram, Pavel Durov, è stato arrestato in Francia lo scordo agosto per una serie di presunti crimini, la piattaforma ha iniziato a modificare alcuni termini di servizio e a collaborare con le forze dell’ordine. Telegram non ha risposto alle domande di Wired su eventuali politiche specifiche contro i deepfake.
I danni causati
Ajder, il ricercatore che ha scoperto i bot deepfake su Telegram quattro anni fa, sottolinea che l’app si distingue quasi per il loro abuso. “Telegram offre la funzionalità di studio, permettendo di trovare comunità, chat e bot“, afferma Ajder. “Fornisce anche l’hosting dei bot, quindi non solo ti dà gli strumenti, ma ti consente anche di condividerli.”
A fine settembre, diversi canali deepfake hanno segnalato che Telegram aveva rimosso i loro bot, ma non è chiaro cosa abbia motivato queste azioni. Il 30 settembre, un canale con 295.000 iscritti ha annunciato che i suoi bot erano stati “bannati“, ma ha subito condiviso un nuovo link per un altro bot. (Il canale è stato rimosso da quando Wired ha interrogato a Telegram.)
“Una delle cose più inquietanti di app come Telegram è quanto sia difficile monitorarle e tracciarle, soprattutto dal punto di vista delle vittime”, afferma Elena Michael, cofondatrice e direttrice di #NotYourPorn, un gruppo che combatte l’abuso di immagini sessuali.
Michael sottolinea che Telegram è stato “notoriamente difficile” da coinvolgere su questioni di sicurezza, ma riconosce che ci sono stati alcuni miglioramenti negli ultimi anni. Tuttavia, ritiene che l’azienda dovrebbe essere più proattiva nel moderare e filtrare i contenuti dannosi.
“Immagina di essere una vittima costretta a gestire tutto da sola, non dovrebbe essere una responsabilità individuale“, dice Michael. “Dovrebbe essere l’azienda a mettere in atto iniziative in merito, piuttosto che reagire solo quando il danno è già fatto.”
Questo articolo è apparso originariamente su Wired US.
Leggi tutto su www.wired.it
di Matt Burgess www.wired.it 2024-10-17 04:50:00 ,