Come riferito dalla stessa OpenAI in un lungo rapporto di 54 pagine pubblicato ieri, in questo ultimo periodo sono cresciuti i tentativi da parte di utenti malintenzionati di usare ChatGpt per generare contenuti fake – articoli e commenti sui social media – al fine di influenzare le elezioni presidenziali statunitensi. Dall’inizio dell’anno fino a oggi, infatti, sono stati più di 20 i tentativi maggiori neutralizzati dalla compagnia, inclusi alcuni account ChatGpt sospesi ad agosto una volta che erano stati utilizzati per diffondere notizie false su temi di moda.
E ancora prima, a luglio, era stata la volta del Ruanda, dove OpenAI aveva vietato una serie di account che stavano utilizzando il suo chatbot proprietario per generare commenti sulle elezioni del paese pubblicati su X. E a maggio una società israeliana ha utilizzato ChatGpt per generare commenti sui social media riguardanti le elezioni in India. Fortunatamente, però, nessuno dei contenuti generati dall’intelligenza artificiale è diventato tanto virale da riuscire a influenzare il pubblico sul voto alle elezioni. E questo vale tanto per il Ruanda quanto per gli Stati Uniti. Nonostante questo, c’è un’enorme preoccupazione per la diffusione di fake news riguardo le elezioni presidenziali, sui social media e non solo. Il numero di deepfake creati utilizzando l’AI generativa è aumentato del 900% anno su anno, secondo i dati di Clarity, una società di apprendimento automatico. E questo non fa altro che aumentare la preoccupazione.
Inoltre, già da tempo, iL Dipartimento della Sicurezza Nazionale degli Usa ha fatto notare che Russia, Iran e Cina stanno cercando di influenzare le elezioni del 5 novembre già da moltissimo tempo, anche avvalendosi del supporto di strumenti come ChatGpt e simili. In questo panorama tanto pericoloso, però, OpenAI sembra volersi distinguere come l’azienda che sta combattendo la disinformazione generata dall’intelligenza artificiale. Anche se non ha ancora trovato una soluzione utile per contenere le azioni malevole tramite il suo chatbot.
Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2024-10-10 15:22:00 ,