Con la sua straordinaria capacità di sostenere una conversazione, rispondere a domande e scrivere prosa, poesia e codice di programmazione in modo coerente, ChatGpt ha costretto molte persone a ripensare al potenziale dell’intelligenza artificiale (Ai).
Il 14 marzo, la startup che ha creato ChatGpt, OpenAi, ha annunciato la nuova e attesissima versione del modello di Ai alla base del suo chatbot. Il nuovo algoritmo, chiamato Gpt-4 succede a Gpt-3, l’innovativo modello di generazione del testo che OpenAi ha annunciato nel 2020 e che l’anno scorso è stato poi adattato per sviluppare ChatGpt.
Secondo l’azienda, il nuovo modello è in grado di ottenere punteggi più alti in una serie di test pensati per misurare l’intelligenza e le conoscenze di esseri umani e macchine. Inoltre, commette meno errori e può rispondere a richieste basate sia sulle immagini che sul testo.
Nuove capacità e vecchi problemi
Gpt-4 tuttavia soffre degli stessi problemi che affliggono ChatGpt e che hanno portato alcuni esperti di Ai a essere scettici sull’utilità del chatbot, come la tendenza ad “avere le allucinazioni” e produrre informazioni errate, a mostrare pregiudizi sociali problematici e a comportarsi male o ad assumere personalità inquietanti.
“Anche se hanno fatto molti progressi, è chiaro che non è affidabile– afferma Oren Etzioni, professore emerito della University of Washington oltre che amministratore delegato e inventore dell’Allen institute for AI –. Passerà molto tempo prima che vogliate affidare a qualsiasi versione di Gpt la gestione della vostra centrale nucleare“.
Per mostrare le capacità di Gpt-4, OpenAi ha mostrato diverse dimostrazioni e dati provenienti da test di benchmarking. Il nuovo modello è riuscito a superare l’esame per diventare avvocato utilizzato in molti stati americani, ottenendo peraltro un punteggio che lo colloca nel 10 % più alto dei risultati raggiunti dagli esseri umani.
Gpt-4 ha ottenuto risultati più elevati rispetto al suo predecessore anche in altri esami pensati per valutare le conoscenze e la capacità di ragionamento, in materie come la biologia, la storia dell’arte e il calcolo. E ottiene punteggi migliori di qualsiasi altro modello linguistico di intelligenza artificiale nei test progettati dagli scienziati informatici per valutare i progressi degli algoritmi. “Per certi versi è la stessa cosa – dice Etzioni –, ma con una serie di progressi assolutamente sbalorditivi“.
Leggi tutto su www.wired.it
di Will Knight www.wired.it 2023-03-15 13:38:51 ,