C’è una netta differenza tra la spiegazione che viene data nel primo e nel secondo Terminator. Nella prima versione, quella di Reeves, Skynet vede l’umanità come una minaccia e decide di annientarla. Nella seconda, quella del T-800, agisce invece per autodifesa, per proteggersi dagli umani che vogliono spegnerlo. Come che sia, è attraverso questi racconti che – tra il 1984 e il 1991 – James Cameron ha segnato per sempre la nostra immaginazione e dato forma ai nostri peggiori incubi tecnologici e apocalittici.
Skynet e le armi autonome
In tutta questa visione fantascientifica c’è però anche qualche aggancio con la realtà. Certo, le intelligenze artificiali di oggi non stanno per diventare senzienti e non possono ribellarsi all’essere umano. E men che meno rappresentano un’unica entità quasi sovrannaturale come Skynet.
Eppure, negli ultimi anni abbiamo visto come i sistemi di deep learning stiano venendo integrati proprio in ambito militare. Non solo nelle “armi autonome” che abbiamo già visto all’opera – soprattutto sotto forma di drone – in Libia, Ucraina e Gaza, ma sempre di più anche a livello strategico. Sempre nel conflitto attualmente in corso a Gaza, Israele sta per esempio impiegando una piattaforma tecnologica nota come “The Gospel” per ottenere automaticamente indicazioni su quali obiettivi danneggiare.
Questo sistema analizza grandi quantità di informazioni provenienti da diverse fonti, tra cui le riprese ricevute dai droni, le comunicazioni intercettate e i dati ottenuti attraverso la classica sorveglianza. Sulla base di tutto ciò, The Gospel individua bersagli a grandissima velocità e li segnala all’esercito. Secondo l’ex capo dell’Idf Aviv Kochavi, questo sistema è in grado di individuare fino a 100 bersagli al giorno: “Per dare una prospettiva”, ha spiegato Kochavi al Guardian, “in passato ottenevamo 50 obiettivi all’anno”.
Nonostante l’esercito israeliano assicuri l’accuratezza di questo sistema e garantisca di prestare grande attenzione nei confronti dei civili, molti esperti hanno suonato l’allarme sull’utilizzo di strumenti che prediligono la quantità rispetto alla qualità degli obiettivi e che rischiano di causare il cosiddetto automation bias: la tendenza degli esseri umani ad accettare le indicazioni della macchina anche in circostanze in cui avrebbero altrimenti agito in modo diverso (per esempio, evitando di danneggiare un obiettivo vicino a un ospedale o a una scuola o riconoscendo un segnale di resa non convenzionale).
Per tutte queste ragioni, The Gospel è stato definito dai critici una “fabbrica di omicidi di massa”, a cui l’esercito si affida senza sapere come gli obiettivi sono stati individuati, quali sono i possibili errori a cui il sistema è soggetto e quale sia il tasso reale di accuratezza. Insomma, senza bisogno di arrivare a Skynet, già oggi, nel nostro mondo, la decisione di appaltare decisioni militari strategiche all’intelligenza artificiale ha fatto salire il numero di vittime, come dimostra il drammatico aumento di bersagli colpiti dall’Idf a causa dell’utilizzo di The Gospel.
È questo il vero rischio dell’intelligenza artificiale: non che diventi senziente e si ribelli all’umanità, ma che l’essere umano decida spontaneamente di cedere a questi sistemi sempre più potere e responsabilità, in ambito militare e non solo. È questo anche l’unico monito di Terminator che trascende la fantascienza e che riguarda la nostra realtà. E a cui dovremmo dare ascolto.