Meta interrompe ufficialmente il programma di fact checking per la moderazione di contenuti pubblicati su Facebook, Instagram e Threads. A comunicarlo è stato lo stesso ceo Mark Zuckerberg con un video pubblicato sul proprio canale ufficiale su Facebook, affermando anche come per il futuro ci si ispirerà a X con le ormai note note della collettività (Community Notes), partendo dagli Stati Uniti e poi estendendo il tutto al resto del mondo.
Nel video in cui si anticipa la mossa che riguarderà i tre social network della costellazione di Meta, ovvero Facebook, Instagram e Threads, Mark Zuckerberg afferma come “Torneremo alle nostre radici e ci concentreremo sulla riduzione degli errori, sulla semplificazione delle nostre policy e sul ripristino della libertà di espressione sulle nostre piattaforme”. Zuck cita la libertà d’espressione e non nasconde il riferimento a Donald Trump, prossimo a installarsi nuovamente alla Casa Bianca come nuovo Presidente Usa: “Le recenti elezioni sembrano anche un punto di svolta culturale verso la riconferma della priorità della parola”. Finora, infatti, l’azienda si affidava a fact-checker indipendenti che controllano e valutano l’accuratezza delle storie tramite le fonti originali: questo significa, per esempio, risalire alle fonti, consultare i dati pubblici e condurre analisi di contenuti multimediali, come foto e video.
Non stupisce quindi che l’approccio futuro sarà molto simile a quello di X (ex Twitter), il social network di proprietà di Elon Musk, ormai una delle colonne della nuova gerenza: “Ci libereremo dei fact-checker e li sostituiremo con una funzione simile alle note della collettività di X, partendo dagli Usa”. Le Community Notes sono basate sul crowdsourcing ovvero si basano su una soluzione collaborativa con gli interventi degli stessi utenti sotto a post considerati fuorvianti. Un sistema che ha già creato però diversi problemi, anche, paradossalmente, di disinformazione.
Facebook content
This content can also be viewed on the site it originates from.
Zuckerberg ha anche parlato di semplificazione del sistema di moderazione, dato che il fact-checking di terze parti sarebbe caduto esorbitante di frequentemente in errori, secondo quanto affermato dal ceo di Meta. Al contempo, viene promessa un’azione tempestiva e “aggressiva” nel trattamento di contenuti sensibili dalla droga al terrorismo fino ai crimini contro i minori.
Leggi tutto su www.wired.it
di Diego Barbera www.wired.it 2025-01-07 16:13:00 ,