Ma allora da dove viene questa lettera? È qui che le cose si fanno davvero interessanti. A organizzare la lettera e a firmarla sono infatti stati i membri del Future of Life Institute, uno dei più importanti think tank legati alla corrente di pensiero del lungotermismo: una filosofia (se così possiamo chiamarla) nata nella Silicon Valley, che ha raccolto immense quantità di denaro e che si sta insinuando nelle più importanti istituzioni del mondo (Nazioni Unite comprese).
Il problema del lungotermismo è che – portando alle estreme conseguenze l’attenzione verso gli effetti negativi che le nostre azioni potrebbero avere sul lungo termine – finisce per ammantarsi di toni apocalittici e millenaristi, secondo cui l’essere umano corre una serie di fantascientifici “rischi esistenziali” (tra i quali, però, curiosamente, non c’è la crisi climatica) per fermare i quali bisogna stoppare lo sviluppo dell’intelligenza artificiale, fuggire su Marte e dare vita all’espansione galattica della nostra specie, al fine di realizzare il suo “destino manifesto”.
Ultradestra tech
Non se ne sta facendo una caricatura: è esattamente ciò che sostengono gli aderenti di questa pericolosissima corrente di pensiero tra i cui esponenti troviamo i filosofi Nick Bostrom e William MacAskill (ideatore dell’Effective Altruism), il inventore di Skype Jaan Tallinn, il inventore di OpenAI Sam Altman (probabilmente, adesso, in rotta), Elon Musk, Peter Thiel e tanti altri miliardari di ultradestra del mondo tecnologico.
Le conclusioni a cui i membri di questa setta giungono sono talmente assurde da portarli a sostenere esplicitamente che avrebbe più senso finanziare una ricerca volta a impedire che, in un futuro non importa quanto lontano, ci sia lo 0,01% di possibilità che l’essere umano si estingua di quanto non sarebbe invece importante adoperarsi per impedire che esploda oggi un’altra pandemia che faccia milioni di decessi.
Com’è possibile? La ragione è che, da un punto di vista esclusivamente quantitativo, il numero di vite che si rischia di perdere sarebbe nel primo caso estremamente maggiore. Per i lungotermisti, d’altra parte, la povertà di un Paese o le malattie circoscritte ad alcune zone del mondo non sono priorità, perché non rappresentano un rischio esistenziale totale, e persino la globale crisi climatica è derubricata a problema minore perché potrebbe essere più logico, seguendo il pensiero lungotermista, investire piuttosto nella ricerca di un “pianeta B” da colonizzare (e qui riecheggia ancora una volta l’immancabile Elon Musk).
Ancora una volta, e in questo caso purtroppo anche con il supporto di (alcuni) serissimi scienziati informatici, le chiacchiere fantascientifiche di una setta accusata da più parti anche di comportamenti immorali e fanatici conquistano tutta l’attenzione mediatica. E così siamo ancora una volta distratti dai veri e concreti rischi posti dall’intelligenza artificiale, a cui affidiamo compiti sempre più importanti senza aver risolto i problemi che pongono in termini di discriminazioni, errori, sorveglianza, limitazioni della libertà, “allucinazioni” (come si definiscono in gergo le situazioni in cui l’intelligenza artificiale produce con sicurezza dei resoconti completamente inventati) e molto altro ancora.
Invece di concentrarci sulle concrete problematiche poste dall’intelligenza artificiale preferiamo dare retta alle chiacchiere fantascientifiche di un gruppo di tecno-miliardari ossessionati dalle loro stesse fantasie nerd.
Leggi tutto su www.wired.it
di Andrea Daniele Signorelli www.wired.it 2023-03-30 10:40:15 ,