Anche l’algoritmo di Facebook soffre di allucinazioni, o almeno così pare. Gli abitanti della cittadina di Coulsdon, in Inghilterra, sono vittime della censura della piattaforma a causa del nome del piccolo centro abitato. Secondo quanto riportato dal portale di informazione locale Inside Croydon, infatti, i proprietari di attività commerciali e le associazioni di quartiere hanno visto Facebook rimuovere una serie di post dalle loro pagine perché l’algoritmo di moderazione dei contenuti rileva il termine “LSD” in Coulsdon come un riferimento alla nota sostanza psichedelica. Una situazione paradossale che ha sollevato non poche lamentele tra gli abitanti della cittadina a sud di Londra.
Da Coulsdon a Hoe: tutti gli errori dell’algoritmo di moderazione
A rimanere vittima di questa censura infondata, a quanto pare, sono state tutte le pagine Facebook che contengono il nome del centro, come l’East Coulsdon Residents’ Association, il Coulsdon Oral History Project, il Theatre Workshop Coulsdon, il Coulsdon Mums and Dad e via dicendo. Insomma, “finché connivente Coulsdon nel titolo, si avrà un riferimento alla droga che non c’è modo di aggirare”, come ha fatto notare qualcuno vicino a una delle organizzazioni che hanno subito la rimozione dei contenuti. Il problema, però, non è solo questo. Moltissimi cittadini, infatti, si sono lamentati anche dello scarso supporto da parte della piattaforma, che non ha mai risposto alle lamentele degli amministratori delle pagine vittime di censura.
Eppure, secondo quanto riportato da Gizmodo, il portavoce di Meta Dave Arnold avrebbe affermato che “si è trattato di un errore che ora è stato risolto”. Non è la prima volta che Facebook commette errori imbarazzanti nella moderazione dei contenuti, finendo con il rimuovere quelli inoffensivi, e lasciando circolare quelli che contengono realmente insulti. Nel 2021, per esempio, la piattaforma si è scusata pubblicamente per aver rimosso i contenuti che menzionavano Hoe, il quartiere della cittadina inglese di Plymouth, perché l’algoritmo lo aveva rilevato come un termine misogino.
E secondo quanto riportato dal Washington Post, all’inizio di quest’anno Facebook ha erroneamente segnalato e rimosso decine di post di segnalazioni e avvertimenti sugli incendi che hanno devastato la West Coast, anche se pubblicati da comunità locali ufficialmente riconosciute, agenzie federali e statali. In quell’occasione, a quanto pare, l’algoritmo di moderazione ha rilevato i contenuti come spam, accusando gli amministratori delle pagine di voler incassare like e follower. Ancora una volta, quindi, una censura infondata, che avrebbe addirittura potuto rivelarsi pericolosa per la sicurezza delle comunità della zona.
A confermare l’incapacità dell’algoritmo di moderazione nel rilevare correttamente i contenuti che violano le linee guida di Facebook, poi, arrivano anche i dati di Meta. Secondo un report condiviso dalla società, infatti, sono state ben 1,7 milioni le azioni di controllo intraprese dalla piattaforma sui contenuti legati alla droga tra aprile e giugno 2024, e 182.000 i casi in cui le persone hanno presentato un ricorso contro la rimozione dei contenuti. In soli tre mesi, Facebook ha finito con il riproporre oltre 40.000 contenuti, dimostrando così l’alta percentuale di errore del suo algoritmo.