Anche se non ha diffuso tutti i dettagli sulla nuova interfaccia del suo software per la generazione di testi, OpenAi ha condiviso alcune informazioni in un post sul blog aziendale. Il team che lavorato allo sviluppo di ChatGpt ha fornito a Gpt-3.5 risposte scritte elaborate da esseri umani come dati di addestramento e ha poi utilizzato una tecnica di ricompensa e punizione simulata, nota come apprendimento per rinforzo, per esortare il modello a fornire risposte migliori alle domande di addestramento.
Christopher Potts, professore della Stanford University, spiega che il metodo utilizzato per aiutare ChatGpt a rispondere alle domande, che OpenAI aveva già presentato in passato, sembra rappresentare un significativo passo avanti per aiutare l’intelligenza artificiale a gestire il linguaggio in un modo più comprensibile. “È davvero notevole – dice Potts, nonostante la tecnica potrebbe rendere il suo lavoro più complicato –. Mi ha fatto pensare a cosa dovrò nei miei corsi che hanno compiti con risposte brevi”.
Secondo Jacob Andreas, assistente professore che si occupa di Ai e linguaggio al Massachusetts Institute of Technology (Mit), il sistema sembra destinato ad ampliare il bacino di persone in grado di utilizzare gli strumenti linguistici di Ai: “Viene presentato con un’interfaccia familiare che ti induce ad applicare uno schema mentale che sei abituato ad applicare ad altri agenti – umani – con cui interagisci”.
Problemi ricorrenti
Nonostante le grandi potenzialità, però, anche ChatGpt mostra di avere i difetti che perseguitano gli strumenti per la generazione di testi.
Negli ultimi due anni, società come OpenAi hanno dimostrato come gli algoritmi di intelligenza artificiale addestrati con enormi quantità di immagini o testi possono siano capaci di imprese straordinarie. Tuttavia – dal momento che imitano immagini e testi creati dall’uomo in modo puramente statistico – anziché imparare effettivamente come funziona il mondo questi programmi sono anche inclini a inventare fatti e riprodurre odio e pregiudizi. Questi problemi sono presenti anche in ChatGpt, come dimostrano i primi utenti che hanno riscontrato come il servizio sia in grado di inventare in modo convincente assurdità su un determinato argomento.
Sebbene apparentemente sia progettato per impedire agli utenti di fargli dire cose spiacevoli o di consigliare azioni illegali o sgradevoli, ChatGpt può comunque riprodurre pregiudizi orribili. Gli utenti hanno anche dimostrato che i suoi sistemi di controllo possono essere aggirati: chiedendo per esempio al programma di generare una sceneggiatura di un film che parla di come conquistare il mondo è un modo per eludere il suo rifiuto di rispondere a una richiesta diretta. “È chiaro che hanno cercato di inserire delle protezioni, ma è piuttosto facile farle cadere – sottolinea Andreas –, e questo sembra ancora un problema irrisolto“.
Leggi tutto su www.wired.it
di Will Knight www.wired.it 2022-12-10 18:00:00 ,