È anche da queste attività online, vissute all’interno di ambienti estremamente nerd, bianchi e maschili, che si capisce l’origine non solo dei suoi interessi per gli scenari più futuristici ed estremi, ma anche il suo approccio filosofico, che – in nome di un processo logico portato ai suoi limiti estremi – sfida qualunque forma di buon senso.
La teoria della simulazione
Nessuna teoria di Bostrom illustra meglio il suo modus operandi delle celeberrima e già citata Teoria della Simulazione, esposta nel 2003 in un paper e che, partendo da premesse non necessariamente condivisibili, porta a una conclusione che definire azzardata è poco, ovvero che sia molto più probabile che tutti noi, oggi, stiamo vivendo in una simulazione digitale del mondo invece che in quello reale.
Un discorso simile vale anche per la super intelligenza artificiale e la teoria secondo cui l’avvento di un algoritmo senziente potrebbe rappresentare una catastrofe per l’essere umano, mettendo a rischio la sua stessa esistenza. È il tema al centro del saggio più noto di Bostrom, ovvero Super intelligenza, in cui, tra le altre cose, spiega come non sia necessario che questa intelligenza artificiale sia “cattiva” per essere pericolosa. Il filosofo, da parecchi anni docente a Oxford, fa l’esempio di un algoritmo incaricato di produrre il maggior numero di graffette, che per massimizzare la sua funzione obiettivo potrebbe decidere di ricoprire l’intero pianeta Terra di macchinari necessari alla produzione di graffette.
Una teoria che ha poche fondamenta nel mondo reale, visto che un algoritmo da solo non è in grado di produrre assolutamente nulla. Ancor prima, però, un aspetto problematico di Nick Bostrom è che sembra considerare inevitabile – in un futuro prossimo – l’avvento della super intelligenza artificiale, qualcosa che invece non è nemmeno ancora in vista (gli algoritmi di deep learning si limitano a fare calcoli statistici estremamente evoluti) e non è affatto chiaro se sarà mai possibile creare.
Un allarme per il futuro
Forse, però, l’aspetto più problematico del lavoro di Bostrom è che considera – come lui stesso ha affermato – questo fantascientifico avvento di una super intelligenza artificiale un’emergenza molto più pressante del cambiamento climatico o delle pandemie. Da una parte, quindi, un rischio che ancora non si è palesato e nemmeno sappiamo se mai avverrà; dall’altra, invece, rischi concreti le cui conseguenze abbiamo già iniziato ad affrontare in tutta la loro gravità. E allora come fa Bostrom a ritenere la superintelligenza un’emergenza ancora più grave del cambiamento climatico o delle pandemie? La ragione, è che, secondo Bostrom, solo la prima potrebbe potenzialmente spazzare via del tutto la specie umana.
D’altra parte, Bostrom – uno dei padri del “lungotermismo”, una corrente di pensiero secondo cui l’unica cosa che conta è assicurarsi che in un futuro non importa quanto distante sia presente il maggior numero di vite umane – è un filosofo che ha addirittura teorizzato come sia auspicabile la creazione di una capillare rete di sorveglianza di massa di stampo totalitario, se questa può servire a salvare vite.
Considerando l’influenza che Bostrom ha sui massimi esponenti della Silicon Valley (che hanno un ruolo spesso molto importante nel plasmare il nostro futuro), si capisce perché l’ampia circolazione dei suoi controversi pensieri, in un curioso cortocircuito, venga considerata da molti filosofi suoi rivali un vero e proprio “rischio esistenziale”.
Leggi tutto su www.wired.it
di Andrea Daniele Signorelli www.wired.it 2023-05-26 07:30:00 ,