Il video della sezione ‘Per te’ di TikTok rischiano di spingere i giovani verso contenuti dannosi per la loro salute mentale. È quello che emerge da un report pubblicato da Amnesty International, realizzato con la collaborazione dell’Algorithmic Transparency Institute (National Conference on Citizenship) e di AI Forensics. Secondo l’organizzazione non governativa, il sistema di raccomandazione dei contenuti di TikTok e le sue pratiche invasive di raccolta dati rappresentano un pericolo per i giovani utenti della piattaforma. Amplificando i contenuti depressivi, rischiano di peggiorare le condizioni di salute mentale esistenti dei ragazzi.
Il feed ‘Per te’ di TikTok è una pagina personalizzata che ogni utente può scorrere virtualmente all’infinito, con contenuti raccomandati in modo algoritmico e selezionati per riflettere ciò che il sistema ha dedotto essere gli interessi del suo user. TikTok ha oltre un miliardo di utenti a livello globale e una parte consistente di questi sono giovani. Per gli autori del report, la ricerca della loro attenzione rischierebbe di esacerbare problemi di salute mentale, come depressione, ansia e autolesionismo.
Le piattaforme social più diffuse sono progettate per farci passare più tempo possibile online e per questo ci presentano contenuti simili a quelli che abbiamo già guardato. Funziona così su Instagram, Facebook, Twitter e TikTok. Il loro successo ha provocato un enorme aumento di utenti, che a sua volta ha imposto alle aziende la necessità di selezionare i contenuti in modo che il nostro feed ci mostri sempre qualcosa di interessante. Questo però può portare ad alcuni rischi, in particolare quando si tratta di contenuti sensibili, come quelli sulla salute mentale, e consumati dalle categorie più fragili, come i minorenni.
Il test
Immaginate un tredicenne che scrolla su TikTok e si ferma a guardare un video che parla di autolesionismo, o peggio di suicidio. Ci interagisce per curiosità, ma inconsapevolmente provoca una reazione a catena al di fuori del suo controllo. L’algoritmo di TikTok infatti, come quello di molte altre piattaforme social, è progettato per imparare dai comportamenti degli utenti e massimizzare l’engagement, di modo da trattenerli il più possibile sulla piattaforma. Gradualmente il ragazzo vede comparire altri video simili, o addirittura lo stesso di prima, pubblicati da altri utenti. Incuriosito, li guarda di nuovo. In questo modo, in un po’ di tempo, il suo feed si popola di filmati simili creando una camera dell’eco in cui questi contenuti diventano sempre più frequenti.
Per studiare il fenomeno i ricercatori hanno creato diversi profili TikTok fingendo di essere adolescenti di tredici anni – l’età minima per accedere alla piattaforma – localizzati negli Stati Uniti, in Kenya e nelle Filippine. Utilizzando account automatizzati, hanno dimostrato che dopo cinque o sei ore sulla piattaforma quasi un video su due era correlato alla salute mentale e potenzialmente dannoso, circa 10 volte il volume servito agli account di utenti che non avevano mostrato interesse per contenuti riguardanti la salute mentale.
Leggi tutto su www.wired.it
di Roberto Pizzato www.wired.it 2023-11-11 16:00:00 ,