La presidente del Consiglio Giorgia Meloni è stata pizzicata da un fotografo sudafricano, mentre
era in posa di fianco al cadavere di una giraffa appena abbattuta durante una caccia grossa nel
Kruger National Park. La notizia è passata in secondo piano quando l’ufficio stampa di Viktor Orbàn ha fatto circolare la foto in cui il presidente ungherese ha assistito al lancio di prova di un razzo con testata atomica ai confini con la Bielorussia. E che dire poi del ministro della giustizia Carlo Nordio, fotografato in Donbass durante una visita non ufficiale in cui ha voluto portare il suo sostegno alle truppe del presidente russo Vladimir Putin? Tutte queste notizie sono ovviamente false. Lo si capisce facilmente perché il contesto del “falso” è talmente estremo da lasciare poco spazio alla credulità dei lettori.
Immaginiamoci però cosa potrebbe succedere se i volti di politici di primo piano fossero inseriti
in contesti discutibili per il loro elettorato, ma pur sempre realistici, il giorno prima di una tornata elettorale. Siamo certi che qualche effetto nelle cabine di voto lo sortirebbero. Queste storie deepfake sono state elaborate non per divertire e raccogliere like sui social, ma per provocare una reazione da parte dei politici europei che si troveranno a brevissimo a dover
decidere le sorti dell’AI Act, il regolamento europeo sull’intelligenza artificiale. Lanciata dalle associazioni Hermes Center, The Good Lobby e info.nodes, la campagna Don’t Spy EU propone infatti diversi deepfake di ministri europei e permette agli utenti di caricarne altri, nel tentativo di sensibilizzare l’opinione pubblica, ma soprattutto chi ha il potere di intervenire sul testo dell’AI Act, sui rischi e le conseguenze derivanti dalla proliferazione di strumenti di riconoscimento biometrico negli spazi pubblici.
Durante l’ultimo trilogo sul regolamento europeo sull’intelligenza artificiale, alcuni governi dell’Unione hanno esercitato pressioni per indebolire significativamente il divieto all’utilizzo di sistemi per l’identificazione biometrica in tempo reale e per il riconoscimento delle emozioni, in nome della sicurezza nazionale e della “difesa delle frontiere”. Il tema delle frontiere è e sarà ovviamente centrale nella battaglia per l’approvazione del testo finale dell’AI Act. Come ricorda infatti Edri, la rete europea delle organizzazioni per la tutela dei diritti digitali, l’intelligenza artificiale viene già utilizzata per produrre analisi predittive e valutazioni nel contesto migratorio, nonostante sia largamente riconosciuto come questi sistemi siano intrinsecamente discriminatori.
Per rendere ancora più evidenti i pericoli insiti in queste tecnologie della sorveglianza, le tre
organizzazioni hanno inoltre predisposto sul sito della campagna un sistema che simula il
riconoscimento facciale di tutti i ministri europei coinvolti nei triloghi, e che anticipa ciò che
potrebbe succedere a tutti i cittadini europei se l’AI Act non porrà essere un divieto totale a
questi strumenti. La provocazione nei confronti dei decisori europei è evidente, come spiega Martina Turola di The Good Lobby: “Vogliamo sensibilizzarli in prima persona e far comprendere ai cittadini europei i problemi connessi alle tecnologie di sorveglianza negli spazi pubblici. Il riconoscimento facciale e altre forme di sorveglianza biometrica hanno il potenziale per minare i nostri diritti e le nostre libertà negli spazi pubblici. Dal monitoraggio delle emozioni e dei presunti comportamenti sospetti in Europa, alla repressione dei manifestanti a Hong Kong, fino ai violenti ed erronei arresti di uomini di colore negli Stati Uniti, il riconoscimento facciale ci trasforma in codici a
barre ambulanti in tutto il mondo”.
La finestra di tempo a disposizione degli attivisti europei per convincere i propri ministri si sta
rapidamente chiudendo: il prossimo trilogo è previsto per il 6 dicembre e secondo un funzionario della Commissione, interrogato durante un briefing il 24 ottobre sulle prospettive di approvazione dell’AI Act, ci sono buone possibilità che il testo venga approvato entro fine anno, anche se permangono diverse perplessità relative all’uso dell’intelligenza artificiale da parte delle forze dell’ordine.
Le richieste delle tre associazioni e di molte altre organizzazioni europee che si battono per la
tutela dei diritti digitali sono molte, ma tra queste spiccano il divieto totale di identificazione
biometrica in spazi pubblici accessibili, il divieto di utilizzare sistemi predittivi e di profilazione da parte delle forze dell’ordine e il divieto di utilizzo dell’intelligenza artificiale in contesti di
migrazione, per effettuare valutazioni e profili di rischio individuali basati su dati personali
sensibili e per interdire, ridurre e prevenire la migrazione attraverso sistemi di analisi predittiva.
Leggi tutto su www.wired.it
di Davide Del Monte www.wired.it 2023-11-15 05:20:00 ,