Essere arrestati prima di aver commesso un crimine? La polizia predittiva potrebbe diventare realtà
Un software italiano basato su un algoritmo di intelligenza artificiale, che utilizza le banche dati per provare a predire dove e quando reati simili potrebbero verificarsi
Si può arrestare una persona prima che abbia commesso un crimine sulla base di calcoli e algoritmi che assicurano che lo compirà? Una domanda che fino a 20 anni fa, per la precisione quando uscì il film di Steven Spielberg – ispirato al romanzo del grande Philip K. Dick – “Minority Report” era considerata pura fantascienza. Oggi è una realtà (potenzialmente) assai prossima. Il tema ha un nome preciso: “polizia predittiva”, l’applicazione è più tangibile di quanto si possa credere. Il ministero dell’Interno, infatti, vorrebbe dotare tutte le questure d’Italia di Giove: un software che sarebbe in grado di indicare dove e quando è probabile si verifichino determinati tipi di reato, in base ai dati del passato, così da “prevenire e reprimere” i reati di maggior impatto sociale. Sul tema si dovrà esprimere anche il Garante della Privacy.
Giove: il sistema di polizia predittiva in arrivo in Italia?
Si chiama Giove, viene descritto come “un sistema di elaborazione e analisi automatizzata per l’ausilio delle attività di polizia”. Parliamo di un software basato su un algoritmo di intelligenza artificiale, che utilizza le banche dati delle forze dell’ordine relative ai reati, per provare a predire dove e quando reati simili potrebbero verificarsi nuovamente. Giove nasce nel Dipartimento di pubblica sicurezza del ministero dell’Interno nel 2020, sulla base delle sperimentazioni portate avanti dalla questura di Milano, a partire dal 2008, con il software KeyCrime, ideato dall’ex assistente capo dello stesso comando, Mario Venturi. Era stato ideato per rispondere alle rapine in ambito commerciale, mentre Giove potrebbe essere declinato anche per molestie e violenze sessuali, furti in abitazione, truffe e raggiri.
Il sistema dovrebbe essere in grado di analizzare migliaia di dati come dove sono stati compiuti i reati, a che ora, in che modo, il comportamento e i mezzi usati dai responsabili e altro ancora, per mettere in correlazione diversi crimini e determinare quali sono stati compiuti dagli stessi soggetti o dallo stesso soggetto. Questa tecnica si chiama crime linking, cioè collegamento di crimini.
Le tante questioni irrisolte
Le domande, davanti a mezzi così potenti, sono molte e non tutte hanno risposta. Per esempio, da dove attinge Giove? Quali banche dati e dati vengono usati per addestrare l’algoritmo? Chi è il responsabile del trattamento dei dati? Ma sopra ogni cosa: l’uso del sistema comporterà arresti preventivi o solo azioni dissuasive da parte delle forze dell’ordine?
Una bella gatta da pelare per il Garante della Privacy, chiamato ad esprimersi sulla questione.
I rischi
I rischi connessi a questa applicazione sono numerosi: dai pregiudizi algoritmici legati in particolare all’etnia e alla provenienza geografica delle persone al tema della privacy violata e di potenziali limitazioni della libertà personale degli individui. Tutto dipende dalla maniera in cui, se dovesse ricevere l’ok, questo software verrà utilizzato. Di una Cassandra, non c’è decisamente necessità in una società democratica, ma potrebbe essere un utile strumento sotto il profilo della precisione e della velocizzazione dell’attività investigativa.
Interrogazione parlamentare in Senato
A dimostrazione che il tema è concreto è stata depositata stamattina, mercoledì 7 giugno 2023, in Senato un'interrogazione parlamentare sul sistema Giove. Il testo, che vede come primo firmatario il senatore dem Filippo Sensi, chiede al ministero dell'Interno delucidazioni in merito alla “capacità di previsione di una serie di reati in base allo sviluppo di un algoritmo di intelligenza artificiale - sulla carta controllato e gestito da operatori della Polizia di Stato - come supporto alle indagini preliminari” e di chiarire “quali interventi intenda mettere in atto per introdurre il sistema Giove in Italia, se esistono altri software di questo tipo già in uso o dei quali si prospetta l'utilizzo, quali aziende siano state coinvolte nella definizione di questa tecnologia, della sua implementazione e del suo sviluppo”.
Risultati controversi e l'Europa dice "No"
“Tutto questo, tuttavia, a fronte del fatto che i sistemi predittivi in questo ambito hanno portato a risultati controversi e discutibili sotto vari punti di vista, con bias cognitivi e operazionali, scambi di persona e una grave violazione del diritto alla privacy dei cittadini” si legge nell'interrogazione depositata in Senato. I parlamentari si riferiscono soprattutto al dibattito europeo in atto per la definizione di un regolamento sull'intelligenza artificiale - che dovrà essere approvato a metà giugno - e che mette in guardia esplicitamente dall'uso di sistemi di polizia predittiva simili. La proposta europea prevede al momento una sola eccezione a questo strumento: la sicurezza nazionale.
Nel testo i parlamentari chiedono al ministro Piantedosi anche conto sugli “effetti sull'urbanistica delle città alla prova di una capacità così penetrante e intrusiva di profilazione delle persone e dei comportamenti, alla luce di un dibattito europeo ed internazionale molto negativo verso l'utilizzo di simili tecnologie così invasive e lesive dei diritti delle persone e nelle more di una decisione europea che regolerà in maniera cogente il suddetto utilizzo, vietando esplicitamente la possibilità di una ”polizia predittiva".