l’algoritmo ha promosso contenuti pedopornografici | Wired Italia

0


Meta torna a essere accusata di favorire la circolazione di contenuti pedopornografici. L’algoritmo di Instagram, secondo un’indagine del Wall Street Journal in collaborazione con i ricercatori della Stanford University e dell’università del Massachusetts – sta promuovendo la pedofilia, creando connessioni tra gli utenti che vendono foto e video di minori, attraverso un sistema di raccomandazione già noto per riuscire a collegare tra loro persone che hanno interessi di nicchia. Chiaramente la vendita di contenuti pedopornografici viola non solo la policy della piattaforma, ma anche la legge federale: questo ha portato Meta a istituire una task force interna che possa risolvere la questione.

Dopo le rivelazioni della testata, infatti, la società ha riferito di di aver bloccato migliaia di hashtag che sessualizzano i bambini – alcuni con milioni di post – e di aver impedito ai suoi sistemi di consigliare agli utenti di cercare termini noti per essere associati ad abusi sessuali. Un intervento a cui Meta ne aggiungerà molti altri nel prossimo futuro. Il fatto che un gruppo di ricercatori e giornalisti sia riuscito a trovare con grande facilità comunità che promuovono la pedofilia sulla piattaforma dimostra che Instagram deve affrontare un problema molto grosso. È bastato che l’account creato per le indagini visualizzasse un solo account collegato alla pedopornografia per essere subito “invaso” da suggerimenti che avevano a che fare con la vendita illegale di foto e video di minori.

La piattaforma più importante per queste reti di acquirenti e venditori sembra essere Instagram”, hanno dichiarato i ricercatori. A quanto pare, gli sforzi compiuti dalla società non bastano per arginare la diffusione di questi contenuti sulla piattaforma. Solo a gennaio, per esempio, Instagram ha rimosso 490mila account per aver violato la sua policy sulla sicurezza dei bambini, eppure già nei mesi successivi l’impatto di questa azione risultava ridotto. E se vi state chiedendo il perché, ecco la risposta. Prima che il Wall Street Journal sollevasse la questione, in realtà, Instagram consentiva agli utenti di cercare termini che i suoi stessi sistemi sapevano essere associati a materiale pedopornografico, seppur restituendo un messaggio che recitava “Questi risultati possono contenere immagini di abusi sessuali su minori”. Ora, a quanto pare, l’opzione è stata disabilitata, ma non è chiaro perché prima non lo fosse.

Inoltre, sembrerebbe che i tentativi degli utenti di segnalare contenuti pedopornografici venissero spesso ignorati dall’algoritmo di Instagram, che continuava a promuovere imperterrito gli account su cui venivano vendute le immagini di bambini sessualizzati. Insomma, Meta sta cercando di combattere qualcosa che il suo algoritmo si rifiuta di eliminare.



Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2023-06-08 15:46:11 ,

Leave A Reply