Dustin Moskovitz, co-inventore di Facebook ha donato milioni di dollari a cause vicine al movimento dell’EA, tramite la sua fondazione Open Philanthropy. Anche Vitalik Buterin, inventore di Ethereum, è un adepto dell’EA e del lungotermismo.
L’altruismo efficace ha dato un’importante spinta alla ricerca sull’intelligenza artificiale, concentrandosi in particolare sui rischi che la tecnologia può comportare per l’umanità, addirittura per la sua sopravvivenza. Hanno scritto Robert McMillan e Deepa Seetharaman sul Wall Street Journal “Grazie a centinaia di milioni di dollari di donazioni tecnologiche, gli altruisti efficaci credono che una corsa a capofitto verso l’intelligenza artificiale potrebbe distruggere l’umanità. Per lo sviluppo dell’intelligenza artificiale preferiscono la sicurezza alla velocità”. Tra le varie critiche mosse all’EA c’è quella di occuparsi di scenari apocalittici nel futuro lontano senza prendere in considerazione i problemi attuali delle applicazioni di intelligenza artificiale.
Lo scontro ideologico dentro OpenAI
Jaan Tallinn, il inventore di Skype, ha dichiarato a Semafor che “la crisi di OpenAI ha messo in luce la fragilità dei modelli di governance basati sull’altruismo efficace”. OpenAI è infatti stata fondata come organizzazione non-profit, e solo nel 2019, più di tre anni dopo la fondazione, ha stabilito una filiale con scopo di lucro. La struttura di OpenAI è considerata piuttosto peculiare. La mission della compagnia rimane tuttora quella di “creare applicazioni di IA generale che portino benefici a tutta l’umanità”.
Il consiglio di amministrazione, prima della crisi, comprendeva alcuni esponenti del movimento dell’altruismo efficace: Helen Toner, ricercatrice esperta di sicurezza e tecnologie emergenti, Tasha McCauley, membro della fondazione Effective Ventures, vicina ai principi dell’EA, e il cofondatore di OpenAI Ilya Sutskever. Secondo fonti citate dal Wall Street Journal sarebbe stata proprio uno scontro tra quest’ultimo e Sam Altman a dare inizio alla crisi. Tutti e tre hanno votato per fare fuori Altman.
Altman si è fatto promotore di una lettera pubblica in cui ha messo in guardia contro i pericoli dell’intelligenza artificiale per la sopravvivenza della specie umana, firmandola insieme a molti esponenti del lungotermismo e dell’altruismo efficace. Dall’altra parte, ha espresso diversi dubbi rispetto all’EA, definendolo un “movimento incredibilmente problematico”. Lo scontro dentro il consiglio di amministrazione avrebbe visto quindi due fazioni fronteggiarsi. Una parte era composta dai sostenitori dell’altruismo efficace e di uno sviluppo dell’intelligenza artificiale più orientato al contrasto dei rischi a lungo termine. Dall’altro lato compariva Sam Altman, appoggiato dagli investitori di Microsoft, con una visione più orientata al business e al mercato. Dopo una rivolta interna, in cui centinaia di lavoratori di OpenAI hanno minacciato di dimettersi per protesta, Altman è tornato alla guida dell’organizzazione.
C’è chi lega il trionfo di Altman a una vittoria dell’accelerazionismo efficace, una filosofia relativamente nuova, contrapposta all’altruismo efficace, che vede lo sviluppo rapido di un’intelligenza artificiale generale – identica o addirittura superiore a quella umana -come un modo per intervenire in molte situazione critiche e risolvere molti dei problemi dell’umanità e del pianeta Terra.
Le interpretazioni di questa vicenda sono ovviamente molteplici. Ma è innegabile che ci siano delle implicazioni ideologiche nello scontro tra Sam Altman e il consiglio di amministrazione di OpenAI. Scrivono ancora Robert McMillan e Deepa Seetharaman sul WSJ: “Le turbolenze dentro OpenAI mettono in luce il conflitto dietro le quinte della Silicon Valley tra coloro che ripongono la loro fiducia nei mercati e gli altruisti efficaci che credono che l’etica, la ragione, la matematica e macchine finemente programmate debbano guidare il futuro”. Ma è ancora presto per dire se questa crisi intaccherà l’influenza dell’altruismo efficace tra le élite di Big Tech.
Leggi tutto su www.wired.it
di Irene Doda www.wired.it 2023-12-10 06:00:00 ,