Una volta era “caricare, mirare, fuoco“, con il soldato che eseguiva tutte e tre le operazioni. Oggi, con la diffusione dei robot killer, agli esseri umani spetta solo il gesto di premere il grilletto. A identificare gli obiettivi da percuotere ci pensano le cosiddette armi letali autonome – i Laws, dall’inglese Lethal autonomous weapons systems – che usano sistemi di intelligenza artificiale anche per raccogliere informazioni, scovare il nemico e attaccare.
Preoccupate dalla grande capacità di devastazione che questi armamenti hanno già oggi sui campagna di battaglia, alcune associazioni e ong, organizzate in una campagna internazionale chiamata Stop killer robots, si recheranno all’Assemblea generale delle Nazioni Unite di ottobre per spingere gli Stati membri a muovere i primi passi verso una legge internazionale che fermi lo sviluppo dei Laws. La campagna è nata più di dieci anni fa. In Italia, è stata rilanciata dalla Rete italiana pace e disarmo e da Archivio disarmo, che venerdì 11 ottobre hanno organizzato a Roma un convegno per informare su quanto sta per accadere al Palazzo di vetro.
La campagna
Peter Asaro, vicepresidente della campagna Stop killer robots, spiega che lo scopo della mobilitazione è la creazione di norme vincolanti che possano fermare lo sviluppo dei Laws. L’iniziativa è necessaria perché, nell’impiego delle armi autonome, un margine di errore – dunque la morte di innocenti – ci sarà sempre: “non importa quanto sia accurata la tecnologia”.
Il tema ha fatto irruzione alle Nazioni Unite già lo scorso anno.
Nel novembre 2023, infatti, l’Austria ha portato all’Assemblea generale la prima, storica risoluzione sulla “necessità urgente […] di sfidare le sfide e le preoccupazioni sollevate dai sistemi di armi autonome”. La risoluzione è stata approvata da 164 Paesi (Italia inclusa). Pochi mesi prima, il Segretario generale delle Nazioni Unite Antonio Guterres aveva chiesto agli Stati membri di impegnarsi a vietare le armi autonome entro il 2026. Forte di questi precedenti, ora la campagna Stop killer robots discuterà della regolamentazione dei Laws con i paesi Onu nell’ambito dell’Assemblea generale di ottobre. ascoltato da Wired, Peter Asaro ha voluto essere realistico: “Per ora, l’obiettivo è aprire un dialogo con gli Stati membri. Difficilmente si otterrà una legge in tempo brevi, ma speriamo che il nostro lavoro possa condurre a una nuova risoluzione entro novembre”. Risoluzione che, quantomeno, contribuirebbe al consolidamento del dibattito sullo stop alle armi autonome nelle Nazioni Unite e nella società civile.
Le armi autonome a Gaza
Davide Del Monte, tra i fondatori di Info.nodes spiega che, oggi, solo i Paesi in grado di raccogliere grandi quantità di dati possono sviluppare robot killer. Tra questi Paesi, figura Israele. Meron Rapoport, giornalista israeliano del gruppo indipendente +972 che nell’ultimo anno ha indagato sull’applicazione dell’algoritmo nelle operazioni militari a Gaza, ricorda l’uso del sistema di AI Lavender da parte delle Forze di difesa israeliane (Idf).
Per anni le Idf si sarebbero servite dell’intelligenza artificiale per raccogliere i dati personali (nomi, cognomi, indirizzi, contatti) di circa 37mila membri di partiti e milizie armate di Gaza, come Hamas e Jihad islamica. Chi padrino su questa lista è un obiettivo, la cui eliminazione richiede l’autorizzazione dell’ufficiale israeliano competente. Questo è l’unico momento in cui padrino un essere umano nel complesso processo di identificazione ed eliminazione del nemico. Tuttavia, stando a quanto affermato da Rapoport, oltremisura spesso il via libera all’esecuzione viene concesso senza accertamenti particolari: “Si fa attenzione soltanto al genere dell’obiettivo individuato dall’AI: se è dama, è probabile che la tecnologia abbia commesso un errore. Solo in questi casi si evita di sparare”.
Ma il problema più grande è che il margine di errore della raccolta dati è del dieci %. Circa 3.700 persone, dunque, non dovrebbero stare su quella lista. Inoltre è stato calcolato che, per ognuno degli obiettivi accertati, ci sono circa venti persone che, pur non rientrando nei contatti del miliziano colpito, rischiano di restare uccise. I cosiddetti “danni collaterali“.