Nel 2000 veniva pubblicato uno dei videogiochi più fortunati e longevi di sempre: The Sims, il famosissimo simulatore di vita in cui si controllano una serie di personaggi e li si segue nelle loro azioni e interazioni, dalla nascita alla morte. Divertente, ma estremamente meccanico – sostanzialmente, le dinamiche della vita dei sims erano governate da una (complessa) serie di disposizioni fissate, in cui a un input del giocatore, fissato un certo set di condizioni ambientali, corrispondeva un preciso output dell’avatar. Con l’arrivo e il perfezionamento degli strumenti di intelligenza artificiale, naturalmente, si può fare molto di più: ed era solo questione di tempo perché qualcuno non ci provasse. A farlo è stato un gruppo di scienziati della Stanford University e di Google DeepMind, che ha faticosamente messo a punto un sistema basato su GPT-4o, uno dei modelli di ChatGPT, per “simulare” la personalità e il comportamento di oltre mille persone, basandosi su una serie di questionari e interviste somministrati alla loro versione “reale”. L’esperimento è raccontato in un paper caricato su arXiv, il server che ospita gli articoli in attesa di revisione dei pari.
La raccolta dei dati e la creazione degli avatar
Come ricostruisce Mit Technology Review, il lavoro è cominciato con il reclutamento di 1052 persone, stratificate per età, genere, etnia, regione di provenienza, livello di istruzione e orientamento politico. Ciascun volontario, rimborsato 100 dollari per la partecipazione all’esperimento, è stato intervistato per un paio d’ore da GPT-4o, l’ultima versione di ChatGPT. Gli sperimentatori avevano istruito l’intelligenza artificiale a seguire un copione di massima per le domande da fare agli esseri umani, ma anche ad ascoltare le risposte e riadattare la conversazione di conseguenza. Dopo l’intervista, l’intelligenza artificiale ne ha studiato la trascrizione e, sempre sotto richiesta degli sperimentatori, ha provato a “replicare” il comportamento e la personalità di ciascuno dei volontari.
La valutazione della verosimiglianza
Per valutare la somiglianza tra persone reali e avatar, gli scienziati hanno sottoposto gli uni e gli altri a una lunga batteria di prove, che comprendeva dei test di personalità, volti alla valutazione dei cosiddetti big five (il gruppo di cinque caratteristiche solitamente usate per studiare la personalità: apertura alle novità, diligenza, estroversione, affabilità, nevroticità), un test per la valutazione delle attitudini sociali (il cosiddetto General Social Survey, o Gss, che indaga sulle preoccupazioni, sulle esperienze e sulle abitudini), oltre a diversi test e problemi di logica. Gli agenti creati dall’intelligenza si sono sottoposti al test una sola volta; gli esseri umani lo hanno fatto due volte, a due settimane di distanza l’una dall’altra.
I risultati? Sorprendenti. Anzitutto, gli esseri umani non hanno dato esattamente le stesse risposte ai due test svolti a distanza di quindici giorni – la percentuale di “somiglianza” si attestava intorno all’81%. Tenendo conto del risultato “combinato” dei due test, gli avatar si sono dimostrati accurati all’85% nel riprodurre il comportamento degli esseri umani. “Non sapevamo neanche noi cosa aspettarci – ha commentato Joon Sung Park, scienziato di Stanford e co-autore del lavoro – ma abbiamo ottenuto una validazione scientifica della nostra ipotesi”.
Qualche dubbio etico
Secondo Park, riuscire a creare repliche fedeli degli esseri umani potrebbe fornire strumenti utili ai decisori politici per testare in modo più realistico l’impatto delle loro proposte sulla cittadinanza. Ma, ovviamente, ci sono scenari più inquietanti, legati per esempio a uno sfruttamento commerciale della cosa: poter simulare le reazioni delle persone a un particolare prodotto o a una particolare campagna di marketing potrebbe rappresentare una miniera d’oro per i venditori. Al momento (fortunatamente) non sarà possibile: gli sperimentatori hanno sottoscritto un contratto con i partecipanti allo studio che vincola l’uso dei loro dati a “scopi strettamente accademici”. In futuro, chissà.
Leggi tutto su www.wired.it
di Sandro Iannaccone www.wired.it 2024-12-01 06:00:00 ,