“Le minacce esistenziali sono senza dubbio profonde e richiedono un’azione globale”, ha dichiarato il primo novembre la vicepresidente degli Stati Uniti Kamala Harris. Di che cosa stava parlando? Forse della crisi climatica che si sta rapidamente avvicinando al punto di non ritorno? Oppure faceva riferimento ai timori che le guerre attualmente in corso e la complessiva instabilità geopolitica portino il pianeta sull’orlo di un conflitto atomico?
Ebbene, no: Kamala Harris stava parlando dei “rischi esistenziali” che l’intelligenza artificiale porrebbe nei confronti dell’umanità e che sono stati al centro dell’AI Safety Summit, che si è tenuto a Londra tra l’1 e il 2 novembre. Al vertice londinese hanno partecipato i rappresentanti politici di 28 nazioni, tra cui la presidente del Consiglio italiana Giorgia Meloni, portando alla stesura di una vaga lettera di intenti e al proposito di “lavorare insieme per contenere i potenziali rischi catastrofici posti dalla galoppante avanzata dell’intelligenza artificiale”. Ulteriori dettagli dovrebbero giungere nei prossimi due appuntamenti, previsti per il 2024 in Corea del Sud e in Francia, mentre l’Italia, che avrà la presidenza del G7, intende ospitare un vertice sull’AI e il lavoro a Roma.
La posizione di Londra
Il summit è stato fortemente voluto dal premier britannico Rishi Sunak (noto appassionato di tecnologia), che nei giorni immediatamente precedenti al grande convegno internazionale aveva affermato che “solo i governi, non le aziende, possono proteggere le persone dai pericoli dell’intelligenza artificiale”. Per quanto bisognerebbe capire – come proveremo a fare più avanti – quali siano questi pericoli, non si può che dar ragione a Sunak: i governi devono muoversi in questo settore con maggiore autonomia, senza cedere al lobbying dei colossi del settore.
Ma se le cose stanno così, perché l’evento di punta del summit è una conversazione tra il premier britannico ed Elon Musk, trasmessa in streaming nella serata di giovedì 2 novembre? Se i governi devono muoversi con maggiore autonomia, che senso ha prestare orecchio a quanto ha da dire un imprenditore come Musk, che non solo è ormai screditato a livello internazionale, schierato all’estrema destra dello spettro politico, imbevuto di fantasie distopiche (è tra le altre cose convinto che l’umanità viva in una simulazione digitale della realtà) e che continua a lanciare allarmi sul rischio esistenziale posto dall’intelligenza artificiale mentre fa affermazioni false sulla crisi climatica?
Gli allarmisti
Elon Musk, come noto, teme che l’intelligenza artificiale possa evolvere in una forma di superintelligenza in grado di superare quella umana di vari ordini di grandezza, conquistando autonomia crescente, perseguendo i propri obiettivi e magari ribellandosi al nostro controllo (uno scenario che, al momento e per il tempo a venire, è pura fantascienza). Non è però il solo a prefigurare questo scenario: tra le altre personalità che spesso si spendono sul tema troviamo infatti anche Sam Altman (ideatore di OpenAI, la società che produce ChatGPT), Demi Hassabis (ideatore di DeepMind, società di ricerca sulla AI di proprietà di Google), Dario Amodei (ideatore della società Anthropic AI, la sfidante di OpenAI) e altri.
Con l’eccezione di qualche scienziato informatico (tra cui però, va detto, ci sono anche nomi di peso come Geoff Hinton e Yoshua Bengio), gli allarmi sui rischi esistenziali provengono da persone che hanno tutte una cosa in comune: sono imprenditori che si occupano di sviluppare sistemi avanzati di intelligenza artificiale, compresi i Large language model, i grandi modelli linguistici per addestrare sistemi come ChatGPT che tanto stupore hanno generato negli ultimi 12 mesi.
Operazione di marketing
Pur nascendo dalle teorie del filosofo Nick Bostrom (che ha fatto di questo tipo di narrazione emergenziale la sua cifra distintiva, essendo anche l’ideatore della già citata teoria della simulazione e non solo) e pur venendo abbracciata dall’inquietante mondo del lungotermismo (una scuola di pensiero che impone di abbandonare i pericoli immediati per concentrarci solo su quelli di lunghissimo termine, indipendentemente da quanto improbabili), ad accogliere la tesi del rischio esistenziale dell’intelligenza artificiale sono quindi gli stessi imprenditori che quella stessa intelligenza artificiale stanno sviluppando.
Leggi tutto su www.wired.it
di Andrea Daniele Signorelli www.wired.it 2023-11-03 10:19:41 ,