Quello di LeCun è un chiaro riferimento alle teorie promosse dal filosofo Nick Bostrom nel suo saggio del 2014 Superintelligenza e che hanno massicciamente indirizzato la narrazione sui presunti, colossali, rischi posti dall’intelligenza artificiale. Ma perché LeCun, su questo tema, ha un’opinione così netta? “Non è così che andranno le cose. Ciò che faremo sarà, prima di tutto, progettare un’architettura che renda la Ai controllabile. Inoltre non la costruiremo subito così intelligente: inizialmente la doteremo magari di un’intelligenza pari a quella di un topo, capendo quali obiettivi dobbiamo dargli e quali salvaguardie mettere in campo. A quel punto, possiamo gradualmente aumentare le sue capacità tenendolo sotto controllo. Siccome oggi non siamo comunque in alcun modo in grado di creare un sistema di questo tipo, è anche assurdo preoccuparsi di come renderlo sicuro. Sarebbe come se, negli anni Trenta, ci fossimo chiesti come rendere sicuri i turbojet prima ancora che fossero inventati”.
Non troppe regole
Anche per questa ragione, LeCun si oppone a un’eccessiva regolamentazione. Attenzione, non a una regolamentazione sugli usi (su cui torneremo tra poco), ma a una regolamentazione che ostacoli lo sviluppo di nuovi sistemi di intelligenza artificiale, come invece esplicitamente chiesto dal già citato appello del Future of Life Institute, che sosteneva la necessità di “stoppare lo sviluppo di intelligenze artificiali più potenti di GPT-4”.
Rendere sicuri questi sistemi, per LeCun, significa soprattutto una cosa: renderli open source e accessibili a tutti. “Immagina un futuro in cui tutte le nostre azioni saranno mediate dall’intelligenza artificiale – prosegue lo scienziato -. Se questi sistemi saranno chiusi e controllati da un piccolo numero di aziende tecnologiche californiane, allora ci esponiamo a rischi enormi. Potrebbero per esempio usare la loro influenza per modificare la cultura o le opinioni politiche delle persone. Di conseguenza abbiamo bisogno di un sistema aperto e open source che permetta di creare applicazioni specifiche basate su di esso. Esattamente com’è avvenuto con internet”.
Peccato che, al momento, le cose stiano andando in direzione opposta, come dimostra il fatto che una società nata “open” come OpenAI abbia poi fatto retromarcia. Un cambio di direzione che, probabilmente, si può spiegare proprio con la volontà – mascherata con il desiderio di proteggere l’umanità dai “rischi esistenziali” – di mantenere il controllo di questa tecnologia in poche mani e di massimizzare la loro influenza.
Peggio ancora, il fatto che la classe politica dia tanto credito a queste minacce e agli appelli di personalità come Elon Musk, rischia di far diventare realtà i loro desideri, motivati probabilmente da obiettivi economici e di potere: “Dobbiamo stare attenti a evitare che queste minacce facciano pensare alla politica che sia un pericolo mettere l’intelligenza artificiale nelle mani di tutti e che quindi si impedisca, tramite regolamentazioni, che lo sviluppo di questa tecnologia sia open source”.
E per quanto invece riguarda le regolamentazioni che stanno per essere definitivamente varate dall’Unione Europea? “Penso che abbia senso regolamentare le applicazioni e le situazioni in cui la tecnologia in generale, e l’intelligenza artificiale in particolare, può invadere la privacy delle persone, normando anche il modo in cui questi sistemi vengono impiegati, per esempio, nelle automobili o nel sistema medico. Da questo punto di vista, sì: sono assolutamente a favore”.
Leggi tutto su www.wired.it
di Andrea Daniele Signorelli www.wired.it 2023-07-06 05:00:00 ,