Giove è il nuovo sistema di polizia predittiva che il ministero dell’Interno vorrebbe dare in dotazione alle questure di tutta Italia. Secondo le autorità, il software sarebbe in grado di indicare dove e quando è probabile si verifichino determinati tipi di reato, in base ai dati del passato, così da “prevenire e reprimere” i reati di maggior impatto sociale. Tuttavia, molte ricerche hanno dimostrato come questi sistemi non funzionino, non siano in grado di trovare corrispondenze con la realtà e operino sulla base di forti pregiudizi.
Tecnicamente, Giove è descritto come “un sistema di elaborazione e analisi automatizzata per l’ausilio delle attività di polizia”, si legge sul Sole 24 ore. In termini più diretti, non è altro che un software basato su un algoritmo di intelligenza artificiale, che utilizza le banche dati delle forze dell’ordine relative ai reati, per provare a predire dove e quando reati simili potrebbero verificarsi nuovamente.
Il sistema Giove nasce nel Dipartimento di pubblica sicurezza del ministero dell’Interno nel 2020, sulla base delle sperimentazioni portate avanti dalla questura di Milano, a partire dal 2008, con il software KeyCrime, ideato dall’ex assistente capo dello stesso comando, Mario Venturi. E il suo meccanismo sembra essere più o meno lo stesso.
Come funziona Giove
I due sistemi dovrebbero essere in grado di analizzare migliaia di dati come dove sono stati compiuti i reati, a che ora, in che modo, il comportamento e i mezzi usati dai responsabili e altro ancora, per mettere in correlazione diversi crimini e determinare quali sono stati compiuti dagli stessi soggetti o dallo stesso soggetto.
Questo funzionamento è chiamato crime linking, cioè collegamento di crimini. Diversamente dalla cosiddetta hotspot analysis, non va a segnalare aree con alta incidenza di reati andando a criminalizzare le zone stesse senza risolvere il problema, ma punta alla ricerca di comportamenti ripetuti che possano condurre ai responsabili.
Tuttavia, il sistema KeyCrime era stato ideato per rispondere alle rapine in ambito commerciale, mentre a quanto si legge nelle dichiarazioni di Francesco Messina direttore centrale Anticrimine della polizia di Stato intervistato da Il Giornale, Giove sarebbe usato anche per molestie e violenze sessuali, furti in abitazione, truffe e raggiri.
I rischi e i dubbi
Ambiti in cui risulta più difficile individuare con certezza modus operandi che possano effettivamente collegare un reato a un altro senza il rischio di cadere in errori dovuti ai pregiudizi algoritmici legati in particolare all’etnia e alla provenienza geografica delle persone. Inoltre, l’uso di un sistema del genere potrebbe comportare una violazione del rispetto alla privacy e alle libertà personali degli individui. Per questo il Garante della privacy è al lavoro per esprimere il suo parere sul tema, senza il quale Giove non potrà essere usato.
Infine, non risultano essere stati diffusi comunicati stampa ufficiali dal Dipartimento di pubblica sicurezza che chiariscano quali banche dati e dati vengono usati per addestrare l’algoritmo, se le vittime di reato saranno obbligate o meno a rispondere ai set di domande usati per l’addestramento e chi è il responsabile del trattamento dei dati.
Non si sa nemmeno se Giove dialogherà con il sistema di riconoscimento facciale Sari, quali siano le misure di sicurezza informatica implementate per proteggere dati e sistema, se saranno create unità operative speciali per l’utilizzo del sistema e la verifica dei risultati e se l’uso del sistema comporterà o meno arresti preventivi o solo azioni dissuasive da parte delle forze dell’ordine.
Leggi tutto su www.wired.it
di Kevin Carboni www.wired.it 2023-06-06 12:03:18 ,