Mastodon, l’app decentralizzata che sta riscuotendo successo come alternativa a X/Twitter e Instagram, ha un serio problema di sicurezza. Secondo uno studio condotto dallo Stanford Internet Observatory, la piattaforma pullula di materiale pedopornografico, tanto che in soli due giorni i ricercatori sono riusciti a trovare “oltre 600 pezzi di materiale noto o sospetto di abusi sui minori”. Un numero alquanto notevole se consideriamo che l’Osservatorio ha scansionato le 25 istanze Mastodon più popolari per il materiale pedopornografico, avvalendosi anche del supporto dell’API SafeSearch di Google per identificare immagini esplicite
Durante la ricerca, il team di Stanford ha trovato 554 contenuti corrispondenti ad hashtag o parole chiave spesso utilizzate da gruppi legati agli abusi sui minori, tutti identificati come espliciti da Google SafeSearch. Inoltre, come se non bastasse, i ricercatori hanno rilevato un uso frequente degli hashtag legati al materiale pedopornografico, oltre ad aver identificato più di 1217 post di solo testo relativi al commercio di contenuti di questo tipo. Nel complesso, quindi, la ricerca ha portato alla luce una pubblicazione di materiale di abuso sui minori “prevalente in modo inquietante”. Una conclusione che fa riflettere sugli evidenti problemi di sicurezza che si trovano ad affrontare le piattaforme decentralizzate.
A differenza di Twitter e Instagram, che vantano policy pensate specificatamente per regolamentare i contenuti illegali e/o pericolosi, Mastodon affida la gestione della sicurezza agli amministratori delle istanze, che si dedicano alla moderazione come – e quando – meglio possono. E questo, oramai, sembrerebbe essere un problema evidente. Secondo David Thiel, uno dei ricercatori di Stanford, la circolazione di materiale pedopornografico sulla piattaforma sarebbe da ricollegare proprio alla “mancanza di strumenti che le piattaforme di social media centralizzate utilizzano per affrontare i problemi di sicurezza dei bambini”.
Ecco allora che mutuare alcuni strumenti dai social più noti potrebbe rivelarsi una buona soluzione per Mastodon. Così pure come riuscire a monitorare le comunità con linee guida più permissive, da cui i contenuti pericolosi rischiano di emergere con una frequenza maggiore. Insomma, lo studio di Stanford ha portato alla luce i problemi di una delle piattaforme di maggior successo del momento, mettendola di fronte all’esigenza di doverli risolvere nel più breve tempo possibile, considerando che l’intelligenza artificiale non farà altro che aumentare la diffusione di contenuti dannosi.
Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2023-07-25 10:13:50 ,