Recentemente, l’amministratore delegato di OpenAi Sam Altman ha dichiarato che la Cina dovrebbe ricoprire un ruolo di primo piano nella definizione delle barriere di sicurezza da porre attorno all’intelligenza artificiale.
“La Cina ha alcuni dei migliori talenti al mondo nell’Ai – ha detto Altman durante un discorso all’Accademia di Pechino per l’intelligenza artificiale (Baai) la scorsa settimana –. Risolvere la questione dell’allineamento dei sistemi di Ai avanzata richiede alcune delle migliori menti da tutto il mondo, e quindi spero davvero che i ricercatori cinesi di Ai diano un grande contributo“.
Altman è nella posizione giusta per parlare di questi temi. È il capo dell’azienda che ha sviluppato ChatGpt, il chatbot che ha mostrato al mondo la rapidità con cui stanno avanzando le capacità dell’Ai. Proprio questi progressi hanno spinto scienziati e tecnologi a chiedere di imporre limiti alla tecnologia. A marzo diversi esperti hanno firmato una lettera aperta che chiedeva una sospensione di sei mesi allo sviluppo degli algoritmi di intelligenza artificiale più potenti di quelli alla base di ChatGpt. Il mese scorso, alcuni dirigenti nel settore – tra cui lo stesso Altman e Demis Hassabis, amministratore delegato di Google DeepMind – hanno sottoscritto una dichiarazione in cui si avvertiva che l’Ai un giorno potrebbe rappresentare un rischio esistenziale per l’umanità, paragonabile a una guerra nucleare o alle pandemie.
Queste dichiarazioni, spesso firmate da dirigenti che lavorano proprio sulla tecnologia che temono possa un giorno ucciderci, potrebbero sembrare vuote. Per alcuni, inoltre, non centrano il punto del problema. Molti esperti di Ai sostengono che sarebbe più importante concentrarsi sui danni che l’intelligenza potrebbe causare già oggi, per esempio amplificando i pregiudizi della società e facilitando la diffusione della disinformazione.
Il presidente della Baai, Zhang Hongjiang, mi ha detto che anche i ricercatori cinesi che si occupano di Ai sono molto preoccupati per le nuove capacità che stanno emergendo nel settore: “Penso davvero che [Altman, ndr] stia rendendo un servizio all’umanità con questo tour, parlando con vari governi e istituzioni”.
Zhang ha aggiunto che alcuni scienziati cinesi, tra cui il direttore della Baai, hanno firmato la lettera che chiede una pausa allo sviluppo dei sistemi Ai, sottolineando però che la Baai è da tempo focalizzata sui rischi più immediati. Zhang ha detto che i nuovi sviluppi nell’intelligenza artificiale faranno sì che ci siano “sicuramente più sforzi per l’allineamento dell’Ai”, ma che si tratta di una questione spinosa dal momento che “modelli più intelligenti possono effettivamente rendere le cose più sicure“.
Leggi tutto su www.wired.it
di Will Knight www.wired.it 2023-06-19 04:40:00 ,