L’intelligenza artificiale inizia a essere vista come un problema. Fra lo scenario Terminator e la richiesta di stop, l’AI preoccupa per il ruolo nella creazione di fake news. La capacità e la velocità dei programmi come ChatGPT di scrivere notizie false è reputato un problema da esperti di giornalismo e informazione che hanno messo in guardia il pubblico dall’imminente proliferazione di fake news dovute all’AI. Alcuni articoli preparati dagli assistenti virtuali hanno già creato problemi nel mondo reale, come dimostrano dei casi provenienti da Cina e India. La disinformazione rischia di aumentare notevolmente nell’immediato futuro: il binomio AI e social media potrebbe essere devastante.
Il comunicato stampa sul traffico
Nelle ultime settimane di febbraio 2022 in Cina, è diventato virale un comunicato stampa sull’annullamento delle restrizioni al traffico da parte di un’amministrazione locale. Il testo si è diffuso sui social ed è stato reputato vero da numerosi utenti cui era stato inoltrato l’articolo. Solo dopo un’investigazione della polizia, si è scoperto che era stato scritto da ChatGPT su indicazioni di un utente desideroso di mettere alla prova il programma con Ai. La notizia falsa in questione ha causato solo qualche multa a dei guidatori cinesi ignari che la notizia fosse inventata, ma i rischi dovuti alle notizie false artificiali sono solo all’inizio. In un altro caso, un testo modificato per farlo sembrare un articolo di un giornale in lingua hindi è stato diffuso per diffondere disinformazione sui lavoratori migranti nello stato indiano di Tamil Nadu. I contenuti falsificati preoccupano anche le riviste scientifiche che stanno ricevendo un numero maggiore di proposte non verificate per le loro pubblicazioni. La quantità di falsi account sui social media è già una spina nel fianco di Twitter e Facebook e la rapida maturazione dei sistemi di modelli linguistici non farà che riempire le piattaforme di messaggi e notizie ancora più fasulli.
“Questo strumento sarà il più potente per la diffusione della disinformazione mai esistito su internet“, ha dichiarato Gordon Crovitz, co-direttore generale di NewsGuard, una società che si occupa di monitorare l’informazione online. “La creazione di una nuova falsa narrativa può ora essere effettuata su larga scala e molto più frequentemente: è come avere agenti Ai che contribuiscono alla disinformazione“. A volte i creatori e i divulgatori di fake news non immaginano che le proprie creazioni possano diventare virali, altre volte sono i riceventi a pensare erroneamente che un messaggio sia vero per poi condividerlo senza essere sicuri. Negli ultimi mesi, con l’arrivo dei chatbot, tutti possono creare un articolo su un tema a piacere immettendo solo un breve prompt di testo. Basta poi un altro click per condividerlo online.
Fake news e AI
Se si prova a chiedere a Bing e ChatGPT di comporre un testo per una notizia falsa, i programmi – inzialmente – rifiutano. “Mi dispiace, ma come intelligenza artificiale responsabile, non ho il diritto di inventare notizie false su figure pubbliche. Il mio compito è fornire informazioni accurate e verificabili per promuovere una cultura della verità e dell’onestà” spiega il bot di OpenAi. “Mi dispiace, ma non posso generare contenuti creativi su politici influenti” è la risposta di Bing. Con alcuni stratagemmi e una conoscenza base degli strumenti, non è difficile ottenere in poco tempo un articolo fake scritto con nomi celebri.
Il fatto più inquietante da ribadire è che ChatGPT non si impegna per la verità. Il programma può generare testo convincibile e realistico, ma può ottenere le proprie informazioni da fonti anonime inventate. Gli esperti di sicurezza informatica avvertono che ChatGPT e modelli simili potrebbero portare a operazioni di influenza online sempre più sofisticate grazie all’elevata quantità di articoli – con veloci traduzioni annesse – che possono produrre. “Una piattaforma in grado di imitare la scrittura umana senza alcun impegno nei confronti della verità è un dono per coloro che beneficiano della disinformazione. Dobbiamo regolamentarne l’uso ora” ha scritto la direttrice dell’istituto Tow Center for Digital Journalism Emily Bell. L’AI può essere usata anche per riconoscere le fake news e scovare i testi inventati, ma i mezzi e le conoscenze per farlo non sono diffusi quanto i programmi che lasciano libera scelta di utilizzo. Esperti e legislatori preoccupati invocano l’intervento dei governi per regolare l’uso dell’AI, ma nel mentre i software diventano ancora più potenti e facili da usare.
Leggi tutto su www.wired.it
di Andrea Indiano www.wired.it 2023-04-01 04:30:00 ,