Hanson Robotics, l’azienda che produce Sophia e altri androidi realistici, è estremamente abile nel costruire macchine in grado di imitare le espressioni umane. Alcuni anni fa ho visitato la sede centrale dell’azienda a Hong Kong e ho incontrato il ideatore David Hanson, che in passato aveva lavorato a Disney. Il laboratorio dell’azienda sembrava uscito da Westworld o Blade Runner, con robot scollegati che guardano con aria triste in lontananza, facce raggrinzite appoggiate sugli scaffali e prototipi che balbettano sempre le stesse parole in un loop infinito.
Hanson e io abbiamo parlato dell’idea di aggiungere una vera intelligenza a queste macchine evocative. Ben Goertzel, noto ricercatore di intelligenza artificiale e amministratore delegato di SingularityNET, è a capo di un progetto per applicare i progressi dell’apprendimento automatico al software dei robot di Hanson, che consentirebbe agli androidi di rispondere al linguaggio umano.
A volte l’intelligenza artificiale alla base Sophia può fornire risposte passabili, ma la tecnologia non è così avanzata quanto GPT-4, il sistema che alimenta la versione più avanzata di ChatGPT e la cui creazione è costata più di 100 milioni di dollari. Naturalmente, anche ChatGPT e altri programmi di Ai all’avanguardia non sono capaci di rispondere in modo sensato alle domande sul futuro dell’intelligenza artificiale. Forse è meglio considerarli come imitatori dotati di conoscenze preternaturali che, per quanto capaci di ragionamenti sorprendentemente sofisticati, sono profondamente imperfetti e hanno solo una “conoscenza” limitata del mondo.
Le fuorvianti “interviste” a Sophia e compagnia a Ginevra ci ricordano come l’antropomorfizzazione dei sistemi di AI possa portarci fuori strada. La storia dell’intelligenza artificiale è costellata di esempi in cui gli esseri umani hanno fatto un uso eccessivo dei nuovi progressi nel campo.
Tendenza che viene da lontano
Nel 1958, agli albori del settore, il New York Times scrisse di uno dei primi sistemi di apprendimento automatico, una rudimentale rete neurale artificiale sviluppata per la Marina degli Stati Uniti da Frank Rosenblatt, uno psicologo della Cornell. “La Marina ha svelato oggi l’embrione di un computer elettronico che si aspetta sia in grado di camminare, parlare, vedere, scrivere, riprodursi ed essere cosciente della propria esistenza“, riportava il Times, un’affermazione audace riferita a un circuito in grado di imparare a individuare schemi in 400 pixel.
Guardando indietro alla copertura di Deep Blue – il supercomputer di Ibm capace di giocare a scacchi – di AlphaGo di DeepMind, e di molti dei progressi del deep learning nell’ultimo decennio – che discendono tutti direttamente dalla macchina di Rosenblatt – ci si trova sempre davanti allo stesso fenomeno: persone che prendono ogni avanzamento come un segno di un’intelligenza più profonda e simile a quella umana.
Questo non vuol dire che questi progetti – o anche la creazione di Sophia – non siano imprese notevoli, o potenzialmente passi avanti verso macchine più intelligenti. Ma per valutare i progressi di questa potente tecnologia è importante avere le idee chiare sulle capacità dei sistemi di AI. Per dare un senso ai progressi nel campo, il minimo che possiamo fare è smettere di fare domande stupide ai pupazzi animati.
Leggi tutto su www.wired.it
di Will Knight www.wired.it 2023-07-22 16:00:00 ,