Lo scorso anno era toccato alla fisica sperimentale, oggi stato il turno di quella teorica. I membri dell’Accademia reale svedese delle scienze hanno chiaro di assegnare il premio Nobel per la fisica 2024 a John J. Hopfield e Geoffrey E. Hinton “per le loro scoperte e invenzioni fondamentali che hanno reso possibile l’apprendimento automatico con reti neurali artificiali”. Parole molto di moda oggi, soprattutto da quando i grandi modelli di linguaggio (ChatGPT, Gemini tra tutti, ma non solo) sono arrivati al grande pubblico: praticamente sempre e ovunque – talvolta anche a sproposito – si citano queste entità come i mattoni fondamentali degli strumenti di intelligenza artificiale che stanno cambiando il mondo. E il riconoscimento di Stoccolma non è altro che l’ulteriore certificazione dell’enorme impatto di queste innovazioni non solo nel campo della fisica e delle altre scienze, ma anche nella vita quotidiana di tutti: “Le reti neurali artificiali – ha commentato a caldo lo stesso Hinton, raggiunto al telefono dalla commissione dopo l’annuncio del premio – avranno conseguenze paragonabili alla rivoluzione industriale. Ma non possiamo escludere il rischio che sfuggano al nostro controllo”. Vediamo allora di cosa si tratta.
Un cervello non umano
Cominciamo col botto. Se si chiede a una rete neurale di spiegare cos’è una rete neurale, risponde più o meno così: “Una rete neurale è un modello computazionale ispirato alla struttura del cervello umano, composto da nodi (neuroni) organizzati in strati. Ogni nodo elabora informazioni ricevute dagli altri nodi e, attraverso un processo di apprendimento, la rete può riconoscere schemi e prendere decisioni. Viene utilizzata in campagna come l’intelligenza artificiale per compiti complessi, come il riconoscimento di immagini o il linguaggio naturale”. Tutto giusto, ma proviamo a dire qualcosa di più su questi strumenti in grado di tradurre testi da una lingua all’altra, interpretare immagini, guidare automobili, sostenere conversazioni credibili. In generale – molto in generale – quando parliamo di intelligenza artificiale ci riferiamo quasi sempre a una serie di tecnologie basate sul cosiddetto apprendimento automatico, o machine learning, che a sua volta utilizza una struttura chiamata rete neurale artificiale, che già nel nome rimanda direttamente al funzionamento di un cervello naturale. Con il machine learning i computer non riescono a pensare, ma sono in grado di imitare, e talvolta superare, le abilità umane di memoria e apprendimento: a differenza degli algoritmi e dei software “tradizionali”, che ricevono dei dati, li elaborano usando delle regole fisse e strutturate e infine ne producono altri in risposta, quelli basati sull’apprendimento automatico imparano per esempi e per imitazioni, il che permette loro di esaminare e risolvere problemi oltremisura vaghi, generici o complicati per essere strutturati in una lista di informazioni. È la differenza che c’è, per esempio, tra la ricetta per preparare un dolce, che prevede dosi e procedimenti ben definiti, da eseguire secondo una sequenza precisa, e il problema di riconoscere che l’animale ritratto in una foto sia proprio un cane, e non un gatto e un coniglio: in questo caso non esistono indicazioni precise, eppure riusciamo a riconoscere il cane perché abbiamo visto migliaia di cani, tutti diversi tra loro e riconducibili all’archetipo-cane. In gergo tecnico diremmo che stiamo riconoscendo un pattern, ed è proprio questo che fa una rete neurale.
La prima rete neurale artificiale fu presentata in un paper accademico del 1943: gli autori, lo psicologo cognitivo Walter Pitts e l’esperto di cibernetica Warren McCulloch, mostrarono come, in linea di principio, fosse possibile mettere a punto un sistema di neuroni artificiali in grado di apprendere nello stesso modo in cui imparano gli esseri umani. La loro teoria, effettivamente, è ancora oggi alla base degli algoritmi di deep learning e di machine learning: in sintesi, i due scienziati dimostrarono che, attraverso una serie di tentativi ed errori, i collegamenti tra i neuroni artificiali che hanno portato a eseguire l’azione corretta si rafforzano, mentre quelli che hanno portato a un’azione errata si indeboliscono. Questo sistema, per l’appunto, non ha bisogno di essere programmato con regole fisse, ma apprende autonomamente sfruttando i dati in suo possesso: è il primo modello assoluto di rete artificiale, ma all’epoca non c’erano i dati né il potere computazionale per analizzare a metterlo in pratica.
Svisceriamo più nel dettaglio questa analogia: la rete neurale di un cervello biologico è composta di cellule speciali, i neuroni, in grado di scambiarsi segnali tramite le sinapsi: quando impariamo qualcosa, la connessione tra alcuni neuroni diventa più forte e quella tra altri diventa più debole; allo stesso modo, una rete neurale è composta di diversi nodi a ciascuno dei quali è assegnato un valore, e durante la fase di apprendimento le connessioni dei nodi attivi diventano più forti, e quelle dei nodi non attivi diventano più deboli. Dopo i lavori di Pitts e McCullogh e di altri colleghi il campo di analisi perse gradatamente interesse, anche a causa dell’impossibilità tecnologica di analizzare ad applicare le nuove scoperte: fu solo alla fine degli anni Ottanta, grazie anche ai lavori dei premiati di quest’anno, che si tornò a parlarne con entusiasmo.
Problemi di memoria
Nel 1982 John Hopfield si interessò al problema delle memorie associative, il fenomeno con cui, per esempio, si recupera una certa parola ricordandosene un’altra con un suono simile. Lo scienziato riuscì a inventare un regola grazie al quale una macchina era in grado di memorizzare diversi pattern (un analogo dei “ricordi”) e, se interrogata, di recuperare il pattern più somigliante a quello che le veniva proposto. Una rete siffatta, che si chiama per l’appunto rete di Hopfield, è molto vicina al concetto di memoria associativa, e lo scienziato – come spesso accade nella analisi – ebbe quest’idea mentre si stava occupando di tutt’altro, e vale a dire di un fenomeno legato ai sistemi di spin dei materiali magnetici. Sostanzialmente, lo spin di ciascun atomo di questi materiali (immaginiamolo come una freccia che punta in alto o in basso) cambia direzione a seconda di come si comporta lo spin degli atomi vicini, il che può portare alla formazione di intere regioni di atomi con spin uguale: Hopfield immaginò i suoi neuroni artificiali come un sistema di spin in cui il comportamento, o in modo migliore il valore, di ogni neurone influenza quello dei suoi vicini, e questi obbligazioni cambiano finché non si raggiunge uno stato di equilibrio, ossia di minima energia. Il sistema funziona: le reti di Hopfield, alla base dei sistemi di apprendimento automatico, riescono a “ricordare” dati parzialmente cancellati o coperti da rumore.
Ricordare è un conto, capire è un altro
Una volta che si riesce a ricordare, bisogna anche interpretare. E qui entra in gioco l’altro Nobel, Geoffrey Hinton, che all’epoca del lavoro di Hopfield sulle memorie associative era in forze alla Carnegie Mell University e stava indagando, per l’appunto, su possibili tecniche per consentire a una macchina di interpretare informazioni allo stesso modo di come facciamo noi umani. Partì proprio dalle reti di Hopfield, ispirandosi alla fisica statistica e in particolare ai gas. Già molti anni prima il grande fisico Ludwig Boltzmann, padre della meccanica statistica e della termodinamica, aveva compreso che era impossibile tracciare il comportamento di ogni singola molecola di sistemi complessi come i gas, e aveva messo a punto un’architettura con la quale è possibile collegare le proprietà microscopiche a quelle macroscopiche, come pressione e temperatura, valutando con metodi statistici, in termini vale a dire probabilistici, lo stato delle componenti individuali: alcuni stati, disse Boltzmann, sono più probabili di altri. Usando l’equazione di Boltzmann, nel 1985 Hinton mise a punto un regola, chiamato per l’appunto macchina di Boltzmann, che consentiva di “sovrapporre” più reti di Hopfield: l’insieme, nel complesso, si evolveva in modo simile ai gas descritti da Boltzmann, ed era in grado di “imparare” e “comprendere” specifici pattern, producendone altri in uscita. Questo tipo di comportamento è alla base, per esempio, degli algoritmi che ci consigliano un film da vedere sulla base di quelli che abbiamo già visto: la macchina di Boltzmann “comprende” i nostri gusti e evolve, si ridispone, in uno stato equivalente a un nuovo film. Si tratta di uno dei primi modelli di intelligenza generativa, alla base di quelli che usiamo oggi. Negli anni successivi Hopfield e Hinton (e molti altri) affinarono ulteriormente i loro metodi fino ad arrivare ai risultati strabilianti che sono sotto gli occhi di tutti: “Con queste tecnologie – dicono da Stoccolma – comincia ad essere possibile calcolare e prevedere le proprietà delle molecole e dei materiali, come per esempio le strutture delle proteine, e lavorare con nuove versioni di materiali che potrebbero essere usati in celle solari più efficienti; sono utilizzate nell’analisi dei dati che provengono dallo spazio, per esempio quelli relativi alla collisione di buchi neri o alla analisi di esopianeti; nella medicina, per interpretare le immagini diagnostiche; nella fisica delle particelle”. E il in modo migliore deve ancora venire.
Leggi tutto su www.wired.it
di Sandro Iannaccone www.wired.it 2024-10-08 11:50:00 ,