I ricercatori dell’Università di Standord e quelli di Google Deepmind sono convinti di poter sviluppare un’intelligenza artificiale in grado di replicare il comportamento di una persona con un’accuratezza pari all’85%, dopo averla ascoltata raccontare la storia della sua vita. A dimostrarlo è lo studio Generative Agent Simulations of 1000 People, che spiega che lo sviluppo di modelli AI basati su persone reali possa aiutare i politici e gli imprenditori a comprendere in modo migliore il pubblico, senza la necessità di dover ricorrere a sondaggi o simili, ma unicamente interrogando i bot – “Questo lavoro fornisce le basi per nuovi strumenti che possono aiutare a studiare il comportamento individuale e collettivo”, si legge nell’abstract del prova -.
Per riuscire a mettere a punto un modello simile, sono state coinvolte 1052 persone che, dopo aver creato un avatar 2D, sono state intervistate da un’intelligenza artificiale che ha cercato di conoscerle il più possibile. Quello che risulta divertente è che ogni intervista, durata circa due ore, è cominciata con la lettura delle prime due righe de Il Grande Gatsby, così da poterne calibrare l’audio. Una volta superata questa prima fase, i partecipanti si sono trovati a rispondere a domande su razza, sesso, politica, reddito, uso dei social media, stress sul lavoro e composizione della famiglia. Insomma, tutte le informazioni di cui i ricercatori hanno avuto bisogno per chiedere a un modello linguistico di grandi dimensioni di sviluppare un’intelligenza artificiale simile agli intervistati.
Poi, una volta che i modelli erano pronti, i ricercatori li hanno messi a confronto con le persone intervistate, così da portare alla luce i dati più interessanti di questo studio: come anticipato, l’AI ha risposto alle domande che le sono state fatte con una percentuale di accuratezza pari all’85%, ma non è stata in grado di partecipare ad altre attività come quiz a risposta multipla e giochi a premi. Insomma, i ricercatori dell’Università di Standford hanno dimostrato che, sì, i grandi modelli linguistici possono sostituire i gruppi di osservazione per sondaggi e simili, ma che questi non possono certo agire in toto come un essere umano, soprattutto solo averlo conosciuto solo per due ore.
Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2025-01-09 16:56:00 ,