La loro teoria è fondata sull’assunto che i Large Language Model si basano su algoritmi e operino come “funzioni computabili”, il che significa che possono elaborare informazioni solo in un numero finito di passaggi. Questa caratteristica fondamentale limiterebbe la loro capacità di generare risultati esatti in modo coerente in determinate condizioni. Esistono funzioni di verità di base – in termini di risposte ideali e affatto accurate a tutte le richieste possibili – che non possono essere calcolate all’interno dei vincoli di un algoritmo. Queste funzioni non calcolabili sono al di fuori della portata di qualsiasi processo algoritmico, compresi quelli impiegati dai LLM. Se un LLM non è in grado di calcolare una particolare funzione di verità terrena, produrrà inevitabilmente allucinazioni (errori o imprecisioni) di fronte a richieste relative a quella funzione. Questa limitazione sarebbe intrinseca alla progettazione e alla capacità di calcolo del modello.
Il mondo reale è molto più complesso del mondo formale semplificato utilizzato per l’analisi teorica. Questa complessità renderebbe praticamente impossibile addestrare i LLM su tutte le conoscenze possibili, aumentando il potenziale verificarsi di allucinazioni.
Un difetto di progettazione
“Gli LLM avranno sempre delle allucinazioni; è un difetto di progettazione. Prevedono sequenze di testi plausibili, ma non seguono il mondo e non sanno come verificare i fatti. Ogni singolo LLM è stato lo stesso. Avremo bisogno di nuovi progressi scientifici per risolvere questo problema”, ha commentato Gary Marcus, una delle voci più autorevoli e critiche nel campo dell’IA, raggiunto da Wired Italia.
Esistono strumenti, metodi e classificazioni della probabilità che si verifichino allucinazioni quando si utilizza un LLM per riassumere documenti. I risultati sembrano gradatamente migliorare, tuttavia, come sostenuto dagli autori della osservazione, il problema non è mai stato del tutto risolto. Un chatbot è fatto per chattare, ça va sans dire. Per quanto possa sembrare tautologico peró, la ragione stessa per cui è stato creato sembra essere uno dei suoi limiti principali. Deve rispondere, e farlo in modo convincente e veloce.
Nella narrazione dei produttori di LLM, il problema sembra sempre essere vicino a una soluzione, ma quando ascoltiamo le loro dichiarazioni non possiamo ignorare gli interessi in gioco. L’idea stessa di agenti autonomi a cui delegare funzioni tipicamente umane è messa a repentaglio dall’idea che le allucinazioni, per quanto mitigate, possano continuare a ripresentarsi, e questo potrebbe avere un impatto sugli enormi finanziamenti di cui queste aziende hanno bisogno per sviluppare i loro modelli. Nell’ultimo periodo sono emersi con più politezza i limiti dell’attuale modello di business dell’intelligenza artificiale generativa, e la posta in gioco è molto alta.
Questo non significa che gli LLM non siano utili, ma elementarmente che potrebbero non essere l’unica strada verso una Artificial General Intelligence, concetto del resto su cui ancora si fatica a trovare una definizione condivisa. Il futuro sembra prospettare ancora un ruolo decisivo alle persone, il cui controllo sugli output delle macchine è ancora fondamentale. Come già avvenuto con altre forme di AI, come per esempio gli algoritmi di machine learning dei social media, solo un approccio critico e vigile potrà limitare le storture generate dagli LLM.
Leggi tutto su www.wired.it
di Roberto Pizzato www.wired.it 2024-10-14 04:50:00 ,