Come per l’energia nucleare, anche l’intelligenza artificiale ha bisogno di un quadro normativo riconosciuto e condiviso a livello internazionale. A sostenerlo è Samuel Altman, il trentottenne a capo di OpenAi, la società che ha sviluppato e lanciato ChatGpt, durante un’audizione davanti al Congresso degli Stati Uniti per discutere dei potenziali rischi di queste tecnologie.
Cosa ha detto Altman:
Scrivere le regole
Allo sviluppo di una nuova tecnologia deve corrispondere la nascita di una nuova regolamentazione. È in questo modo che si può riassumere l’intervento di Altman e l’obiettivo dei legislatori statunitensi, determinati a non commettere gli stessi errori compiuti agli albori dei social media, quando i governi sono rimasti immobili e incapaci di agire mentre leggi e diritti umani venivano scavalcati nel far west delle piattaforme.
Molti dei rischi universalmente riconosciuti rispetto all’uso dell’intelligenza artificiale ricordano infatti i danni causati dai social media, prima dell’ondata di interventi per la moderazione dei contenuti e il contrasto alle fake news. Tra questi i principali sono l’aumento della disinformazione online e uso di tecniche subliminali o manipolative in grado di influenzare le persone, in modo particolare durante le competizioni elettorali.
Un’agenzia internazionale per l’Ai
Pericoli su cui concordano all’unanimità sia i legislatori che gli esperti di intelligenza artificiale come Altman, il quale ha definito “fondamentale” l’intervento coordinato dei governi per regolare lo sviluppo e l’uso di queste tecnologie. Come nel caso dell’energia nucleare, Altman ha sottolineato le “conseguenze imprevedibili” che potrebbero derivare da un utilizzo “sbagliato” dell’intelligenza artificiale, per poi ipotizzare la creazione di un organismo di controllo simile all’Agenzia internazionale per l’energia atomica.
Una proposta unica nel suo genere, in grado di cambiare potenzialmente l’approccio globale alla regolamentazione di tecnologie sempre più potenti e pervasive, che Altman ha però accompagnato alla convinzione che “i benefici derivati dall’intelligenza artificiale superino di gran lunga i suoi rischi”. Idea probabilmente condivisa anche dai membri del Congresso statunitense, che hanno avuto con Altman un approccio molto più conciliante e di dialogo rispetto a quello già visto durante audizioni precedenti con i numeri uno di altri giganti tecnologici, come nel caso di Mark Zuckerberg.
Domande inevase
Tuttavia, nonostante o forse proprio per il clima amichevole, Altman è riuscito a non rispondere ad alcune domande fondamentali sull’impatto che l’intelligenza artificiale sta già avendo sulle persone e sulla società umana. Per esempio, rispetto a quali tutele legali abbiano diritto artisti, scrittori e altri creatori di contenuti quando il loro lavoro viene usato in opere generate dall’intelligenza artificiale o ai pericoli derivati dal dominio assoluto di pochi attori privati in questo settore chiave.
Leggi tutto su www.wired.it
di Kevin Carboni www.wired.it 2023-05-17 13:04:18 ,