Da allora, Elon Musk è diventato il capofila dei doomers e della teoria del “rischio esistenziale”, secondo la quale lo sviluppo dell’intelligenza artificiale porterà inevitabilmente a una superintelligenza, che a sua volta potrebbe sfuggire al controllo dell’essere umano e ribellarsi a esso. Una visione che portò comunque Musk a fondare l’allora no-profit OpenAI, nata proprio allo scopo di sviluppare l’intelligenza artificiale in modo “sicuro e responsabile”. Con gli anni, la teoria del “rischio esistenziale” posto dall’intelligenza artificiale si è fatta largo tra i membri più radicali di numerosi think tank, tra cui il Future of life institute, che qualche mese fa ha lanciato la lettera aperta per interrompere lo sviluppo di questi strumenti.
Visioni fantascientifiche, estreme e a tratti molto pericolose, ma che si stanno facendo largo nel mondo delle istituzioni. Infatti, la teoria del “rischio esistenziale” è stata anche alla base del recente AI summit voluto dal premier britannico Rishi Sunak.
AI Safety: i cauti dell’intelligenza artificiale
È il gruppo che, prima di ogni altra considerazione, desidera che lo sviluppo dell’intelligenza artificiale avvenga in sicurezza. È il cosiddetto “AI Alignment”, che viene considerata la strada più promettente per evitare che un’intelligenza artificiale sfugga al nostro controllo e si ribelli all’essere umano, anche senza rendersene conto. Immaginate il seguente, e ormai noto, scenario (che dobbiamo sempre a Bostrom): un’intelligenza artificiale particolarmente evoluta riceve il comando di massimizzare la produzione di graffette. Interpretando alla lettera l’obiettivo che le è stato dato, questa intelligenza artificiale consuma tutte le risorse del pianeta Terra al fine di produrre quante più graffette possibili, causando involontariamente anche l’estinzione dell’essere umano.
Come ha scritto Melanie Mitchell, docente di Complessità all’Università di Santa Fe, “vogliamo che le macchine facciano ciò che intendiamo, non necessariamente ciò che abbiamo detto”. È possibile raggiungere questo obiettivo e fare in modo che le intelligenze artificiali siano in grado di contestualizzare e bilanciare i nostri comandi, interpretandoli come faremmo noi umani?Secondo questa tesi, fornire i nostri valori alle macchine permetterebbe loro di interpretare i comandi correttamente, non limitandosi a “massimizzare la funzione obiettivo” (ovvero portare a termine il compito che gli è stato dato nel modo più efficiente possibile), ma comprendendo autonomamente cosa davvero vogliamo e quali sono i limiti e i vincoli da rispettare (per esempio, evitare di distruggere il pianeta per produrre un numero esorbitante di graffette). Resta comunque aperto, e assai lontano da essere risolto, il problema di come trasmettere effettivamente i nostri valori alle macchine. Attualmente sono in corso alcuni esperimenti, che non hanno ancora portato a risultati rilevanti.
Leggi tutto su www.wired.it
di Andrea Daniele Signorelli www.wired.it 2023-11-26 06:00:00 ,