Oltre ai vari problemi di privacy riscontrati in Italia, allo scenario “Terminator”, alla diffusione delle fake news e fare i compiti scolastici di studenti e studentesse, ChatGpt ha cominciato anche a diffamare alcune persone. Un problema che potrebbe inondare la dimora madre OpenAi di denunce, se non dovesse essere risolto al più presto.
A oggi i casi più eclatanti sono solo due, ma hanno colpito un funzionario pubblico e un professore di giurisprudenza, figure che per i loro ruoli hanno già minacciato quelle che potrebbero essere le prime azioni legali per diffamazione tramite intelligenza artificiale contro OpenAi.
Il sindaco accusato di corruzione
Si tratta di Brian Hood, sindaco di Hepburn Shire, un comune vicino a Melbourne, in Australia, e Jonathan Turley, professore di diritto alla George Washington University, un’università privata a Washington, negli Stati Uniti.
Il primo ha saputo, da alcuni elettori, di essere stato falsamente indicato da ChatGpt come colpevole di uno scandalo di corruzione all’estero che aveva coinvolto una filiale della Reserve bank of Australia nei primi anni del 2000.
In questo caso, l’errore dell’intelligenza artificiale è dovuto al fatto che Hood ha effettivamente lavorato per una filiale della banca, la Note printing Australia. Ma quello che non ha capito ChatGpt è che Hood è stata la persona ad aver denunciato alle autorità le tangenti effettuate a funzionari stranieri, per aggiudicarsi dei contratti per la stampa di valuta.
I suoi avvocati, che hanno confermato non sia mai stato accusato di alcun reato, hanno inviato una lettera a OpenAi per correggere l’errore lo scorso 21 marzo, dandogli 28 giorni di tempo prima di fare causa per diffamazione. Ma in base a quanto riporta Reuters, non sarebbe ancora arrivata alcuna risposta.
Il docente accusato di molestie
Il secondo, invece, ha scoperto della diffamazione grazie a un suo collega, che ha chiesto a ChatGpt di fornirgli un elenco di studiosi di diritto colpevoli di aver molestato sessualmente qualcuno. E nella lista ha trovato anche il nome di Turley.
Secondo l’intelligenza artificiale, il professore avrebbe molestato verbalmente e tentato di molestare sessualmente una studentessa, durante una gita di classe in Alaska, citando un articolo del Washington Post del 2018 come fonte. Il problema è che un articolo del genere non è mai esistito e Turley non è mai andato in gita in Alaska.
Al contrario di Hood, Turley, che ha dichiarato di non aver mai molestato nessuno come riporta il Washington Post, sembra non aver preso ancora nessun provvedimento contro OpenAi, ma potrebbe farlo nel caso in cui l’errore non dovesse essere corretto quanto prima.
Per giustificarsi dell’accaduto, Niko Felix, portavoce di OpenAi, ha dichiarato che “quando gli utenti si iscrivono a ChatGpt cerchiamo di essere il più trasparenti possibile sul fatto che potrebbe generare risposte non sempre accurate”, si legge sempre sul Washington Post.
Leggi tutto su www.wired.it
di Kevin Carboni www.wired.it 2023-04-08 11:00:00 ,