Dal momento che i bersagli selezionati da Lavender sono dei (presunti) combattenti, questa modalità sembrerebbe rispettare il diritto internazionale e in particolare – spiega Foreign Policy – la “dottrina del doppio effetto”, che “consente un danno collaterale prevedibile, ma non intenzionale, purché il raggiungimento dell’obiettivo non dipenda dal fatto che questo danno collaterale si verifichi, com’è il caso di un attacco aereo contro un obiettivo ragionevole che si verificherebbe comunque, in presenza o meno di civili”.
L’esercito israeliano seguirebbe insomma, nelle sue azioni, la cosiddetta “logica operativa degli assassini mirati”, anche se – a causa dell’enorme numero di obiettivi segnalati dal sistema Lavender – le sue azioni assomigliano spesso a un bombardamento a tappeto, vietato dal diritto internazionale.
Dilemmi etici e legali
Da una parte, quindi, l’utilizzo di questi sistema rischia di provocare il cosiddetto “automation bias”: la tendenza degli esseri umani ad accettare le indicazioni della macchina – considerata un sistema oggettivo, in quanto agisce su base statistica – anche in circostanze in cui avrebbero altrimenti agito in modo diverso (per esempio, ignorando il rischio di uno scambio di persona). Dall’altra, l’utilizzo di software come Lavender deresponsabilizza almeno in parte gli ufficiali che a essi si affidano.
Come si legge sul sito di Rete Pace Disarmo – che fa parte della campagna internazionale Stop Killer Robots, che promuove la messa al bando delle armi autonome – l’impiego di questi sistemi solleva “serie preoccupazioni sull’uso mezzaluna dell’intelligenza artificiale nei conflitti, sui pregiudizi insiti nelle forme di automazione, sulla disumanizzazione digitale e sulla perdita del controllo umano nell’uso della forza”.
Inoltre, spiega sempre il sito, “sono inquietanti i resoconti di un’approvazione generalizzata da parte degli ufficiali per l’adozione delle liste di uccisioni di Lavender, senza alcun obbligo di controllare a fondo il motivo per cui la macchina ha fatto quelle scelte o di esaminare i dati di intelligence grezzi su cui si basavano”.
Ancor più inquietante è il fatto che l’esercito israeliano non è l’unico che utilizza software di questo tipo, che – al contrario – si stanno rapidamente diffondendo. Al di là del noto caso della Cina, che da tempo impiega sistemi di intelligenza artificiale nella provincia dello Xinjiang per identificare e trovare membri della minoranza uigura sospettati di attività eversive, altri strumenti di intelligenza artificiale di tipo Dss (Decision Support System, che supportano quindi il processo decisionale dell’operatore umano) vengono impiegati nei teatri di guerra anche in Occidente.
Leggi tutto su www.wired.it
di Andrea Daniele Signorelli www.wired.it 2024-11-28 06:00:00 ,