Quando la scorsa settimana OpenAI ha reintegrato il suo amministratore delegato Sam Altman dopo averlo licenziato a sorpresa qualche giorno prima, due diverse ricostruzioni hanno riportato che un progetto top-secret dell’azienda di intelligenza artificiale, ribattezzato Q*, aveva sconvolto alcuni ricercatori.
“Grazie ad ampie risorse di calcolo, il nuovo modello è stato in grado di risolvere alcuni problemi matematici“, ha riferito Reuters, citando un’unica fonte anonima e aggiungendo che “anche se è in grado di eseguire solo calcoli al livello di studenti delle elementari, il fatto che abbia superato questi test ha reso i ricercatori molto ottimisti sul successo di Q*“. Il sito The Information – sempre citando una fonte anonima – invece ha scritto che il progetto è stato accolto come una svolta che avrebbe portato a “modelli di intelligenza artificiale molto più potenti“, e che “la velocità nello sviluppo ha allarmato alcuni ricercatori che si occupano di sicurezza dell’AI”..
Reuters ha anche parlato di una lettera scritta da alcuni ricercatori al cda di OpenAI, che avrebbe poi licenziato Altman, in cui si esprimevano preoccupazioni sul potenziale di Q* (una fonte di Wired US a conoscenza delle riflessioni del cda però smentisce la tesi). Le speculazioni su Q* sono via via aumentate, creando un’atmosfera di timore attorno a un progetto di cui non si sa quasi nulla. Lo stesso Altman è sembrato confermarne in una recente intervista a The Verge, in cui ha detto di non avere “nessun commento particolare sulla sfortunata fuga di notizie“.
Le teorie su Q*
Ma in cosa consiste Q*? Leggendo attentamente le prime ricostruzioni e considerando i problemi più scottanti nel campo dell’AI in questo momento, si potrebbe pensare che sia collegato a un progetto che OpenAI ha annunciato a maggio, quando l’azienda ha fatto sapere di aver ottenuto nuovi e impressionanti risultati grazie a una tecnica chiamata “supervisione dei processi“.
Nell’iniziativa era coinvolto Ilya Sutskever, capo della ricerca e co-ideatore di OpenAI, che inizialmente ha avuto un ruolo nell’estromissione di Altman salvo poi fare marcia indietro, e che stando a The Information era a capo anche del lavoro su Q*. Il progetto di maggio era incentrato sulla riduzione degli errori logici commessi dai modelli linguistici di grandi dimensioni (Llm). La supervisione dei processi – che prevede di allenare un modello di intelligenza artificiale a scomporre i passaggi necessari per risolvere un problema – può aumentare le probabilità che un algoritmo ottenga la risposta giusta. Il progetto ha mostrato come la tecnica potrebbe aiutare gli Llm, che spesso commettono errori banali in risposta a domande elementari di matematica, ad affrontare questi problemi in modo più efficace.
Leggi tutto su www.wired.it
di Will Knight www.wired.it 2023-12-01 16:48:42 ,