Dall’esplosione del deep learning (avvenuta attorno al 2013) a oggi, l’intelligenza artificiale è diventata una tecnologia fondativa e in continua evoluzione, che si è gradualmente integrata in un numero esorbitante di servizi, dispositivi e strumenti. Ne fanno uso le macchine fotografiche digitali per migliorare le vostre foto, la usano i social network per determinare quali post vedrete, i termostati per gestire autonomamente la temperatura di abitazione nostra, le aziende per selezionare i curriculum; viene inoltre usata a scopi di sorveglianza, per suggerirvi cosa comprare, per aiutare i magazzini a gestire la logistica e in una quantità tale di altri ambiti che sarebbe impossibile completare l’elenco.
A differenza di altre innovazioni che hanno ricevuto enorme attenzione mediatica senza mai risultare all’altezza delle aspettative (pensate al metaverso o alle criptovalute), l’intelligenza artificiale si è gradualmente insinuata in ogni ambito delle nostre esistenze private e professionali, al punto da svanire sullo sfondo e diventare quasi invisibile (da questo punto di vista, la sua evoluzione ricorda un po’ internet, che oggi alimenta praticamente tutto senza che nemmeno ci si faccia più caso).
Lo stesso probabilmente avverrà con ChatGPT e le nuove forme di intelligenza artificiale generativa, che – vale la pena ricordarlo – non rappresentano una novità assoluta ma un ulteriore passo avanti lungo la strada già battuta dai tanti sistemi simili che le hanno precedute. Oggi però – mentre siamo per la prima volta alle prese con strumenti in grado di conversare in maniera coerente o di creare immagini a partire dai nostri comandi testuali – è facile restare stupefatti dalle loro imprese e pensare di essere di fronte a qualcosa di intelligente o di magico.
In effetti, come ha affermato Arthur C. Clarke, autore di 2001 Odissea nello spazio, “ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia”. Con il passare del tempo, però, questo effetto magico svanisce, mano a mano che la nostra consapevolezza sul suo vero funzionamento aumenta. Più il loro uso diventa quotidiano e più questi strumenti diventano triviali. Ricordate quando Facebook aveva iniziato a individuare l’identità dei nostri amici presenti nelle foto? Sembrava una tecnologia quasi fantascientifica: oggi, però, nessuno si stupisce più per l’esistenza del riconoscimento facciale e men che meno lo considera una forma di intelligenza.
Lo stesso probabilmente avverrà con le intelligenze artificiali generative: gradualmente smetteremo di stupirci e – imparando a conoscerne funzionamento e limiti – di confondere il loro comportamento per qualcosa di intelligente dal punto di vista umano. Non solo: col passare del tempo, forse capiremo che non c’è bisogno di valutare i progressi di questi strumenti su una scala che, al suo apice, deve portare alla vera intelligenza. D’altra parte, gli algoritmi di deep learning sono stati in grado di migliorare costantemente pur senza mai fare un passo avanti nella direzione della “senzienza”.
In questo processo di normalizzazione potremmo anche seguire il percorso immaginato più di settant’anni fa proprio da Alan Turing, secondo cui a un certo punto avremmo smesso di chiederci se una macchina avesse conquistato l’intelligenza umana. E avremmo invece iniziato a considerare anche quella delle macchine una forma di intelligenza. Semplicemente, una forma d’intelligenza molto diversa dalla nostra.
Leggi tutto su www.wired.it
di Andrea Daniele Signorelli www.wired.it 2023-03-26 04:50:00 ,