OpenAI è stata fondata con la promessa di costruire un’intelligenza artificiale che porti benefici a tutta l’umanità, anche nel caso in cui questa AI diventi sensibilmente più intelligente dei suoi creatori. Dal lancio di ChatGPT l’anno scorso e in occasione della recente crisi interna, sono però emerse in modo più evidente le ambizioni commerciali dell’azienda. Ora, OpenAI riporto che un nuovo gruppo di ricerca che ha il compito di tenere a bada le AI super-intelligenti del futuro sta iniziando a dare i suoi frutti.
“L’Agi [intelligenza artificiale generale, ndr] si sta avvicinando molto rapidamente – afferma Leopold Aschenbrenner, ricercatore di OpenAI coinvolto nel gruppo di ricerca Superalignment, istituito a luglio –. Vedremo modelli sovrumani, che avranno ampie capacità e potrebbero essere molto, molto pericolosi, e non abbiamo ancora i metodi per controllarli“. OpenAI ha dichiarato che dedicherà il 20 % della sua potenza di calcolo al progetto Superalignment.
Un documento di ricerca pubblicato dalla società il 14 dicembre illustra i risultati di alcuni esperimenti progettati per testare un metodo che dovrebbe consentire a un modello di intelligenza artificiale di guidare il comportamento di uno molto più potente senza intaccarne le capacità. E anche se tecnologia alla base della tecnica è ancora ben lontana dal superare la flessibilità degli esseri umani, lo scenario è stato progettato per rappresentare un futuro in cui l’umanità dovrà lavorare con sistemi di AI più intelligenti delle persone.
I ricercatori di OpenAI hanno esaminato il processo, ribattezzato “supervisione”, che viene utilizzato per far sì che i sistemi come GPT-4, il grande modello linguistico alla base di ChatGPT, in siano più utili e meno dannosi. Attualmente questo processo prevede che gli esseri umani forniscano dei feedback all’AI, indicando quali risposte sono utili e quali invece dannose. Con il progredire della tecnologia, i ricercatori stanno cercando di capire come automatizzare questo processo: non solo per risparmiare tempo, ma anche perché sono convinti che con l’aumentare della potenza dell’AI fornire dei feedback utile potrebbe diventare impossibile per l’uomo.
In un esperimento in cui GPT-2 – il generatore di testo di OpenAI distribuito per la prima volta nel 2019 – è stato utilizzato per addestrare GPT-4, l’ultimo modello dell’azienda è diventato meno capace e più simile al sistema precedente. Per risolvere il problema, i ricercatori hanno quindi testato due differenti idee. Il primo metodo prevedeva di addestrare di modelli progressivamente più grandi per ridurre la perdita in termini di prestazioni in modo graduale. Nel secondo, il team ha aggiunto una modifica algoritmica al GPT-4 che ha permesso al modello di farsi “guidare” dalla versione più debole senza ridurre le sue prestazioni. Questa strategia si è rivelata più efficace, anche se i ricercatori la descrivono come un punto di partenza per ulteriori ricerche, ammettendo che i metodi come questi non garantiscono che il modello più forte si comporti in modo perfetto.
Leggi tutto su www.wired.it
di Will Knight www.wired.it 2023-12-18 05:40:00 ,