169 CONDIVISIONI
video suggerito
video suggerito
Intelligenza artificiale (IA)

Tutti i dubbi che abbiamo su Giove, l’algoritmo di “polizia predittiva” per anticipare i reati

Secondo le anticipazioni emerse fino a questo momento, Giove dovrebbe essere un software in grado di studiare i dati dei commissariati di polizia e definire quando e dove concentrare il numero di agenti in servizio.
Intervista a Giovanni Battista Gallus
Avvocato esperto di privacy e di diritto legato alla tecnologia
A cura di Valerio Berra
169 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Giove. Il pianeta con la massa più grande del sistema solare. Il padre degli Dei nel Pantheon della Roma Antica. Il software di polizia predittiva nell’era del governo guidato da Giorgia Meloni. Negli ultimi giorni è stata diffusa la notizia che il Ministero dell’Interno avrebbe intenzione di portare questo software in tutte le stazioni di polizia in Italia. I dettagli sul programma, sui dati che può gestire e soprattutto sull’impatto che può avere sul lavoro della polizia non sono chiari. Dalle prime informazioni è emerso che si tratta di un sistema in grado di analizzare i dati in possesso delle forze dell’ordine e poi fornire suggerimenti su come distribuire il lavoro degli agenti a disposizione. Dove prevederne di più, in quali giorni, in quali orari o in quali eventi.

Siamo in una zona grigia. Le capacità di Giove non sono ancora chiare e quindi nemmeno i suoi rischi. Il 6 giugno il senatore del Filippo Sensi (PD) ha sottoposto un’interrogazione parlamentare al Ministero dell’Interno. Non solo. Prima di essere disponibile il software dovrà comunque passare dall’approvazione del Garante della Privacy, un’Autorità che in passato aveva già bloccato tentativi di introdurre tecnologie del genere. Un esempio su tutti è stato quello della videosorveglianza nella stazione di Como. Un sistema di videocamere collegato a un software per il riconoscimento facciale che nel febbraio del 2020 il Garante ha chiesto di togliere.

Dove vengono usati i sistemi di polizia predittiva

Giovanni Battista Gallus è un avvocato esperto di privacy e di diritto legato alla tecnologia. A Fanpage.it ha spiegato che fuori dall’Italia ci sono già stati casi in cui sistemi del genere sono stati utilizzati: “Molti di questi esempi arrivano dagli Stati Uniti. In diverse città i software di polizia predittiva sono stati introdotti e poi eliminati. Il problema principale è che creavano troppe discriminazioni, indirizzando i controlli degli agenti solo verso certe etnie o certi quartieri”.

La discriminazione algoritmica

Nel Blueprint for an AI Bill of Rights pubblicato sul sito della Casa Bianca si può anche leggere un neologismo legato a questo tipo di rischi: Algorithmic Discrimination. Una formula che potremmo tradurre in italiano con Discriminazione Algoritmica. Questo avviene quando i software “contribuiscono a un trattamento diverso ingiustificato o hanno un impatto sfavorevole sulle persone in base all’etnia, al sesso (inclusi stati di gravidanza, parto e condizioni mediche correlate, identità di genere e orientamento sessuale), religione, età, origine, disabilità, informazioni genetiche o qualsiasi altra classificazione protetta dalla legge”.

La privacy e il ruolo del Garante

Un’altra classe di problemi legati a questa tipologia di software è quella della privacy. Un tema su cui dovrà intervenire direttamente il Garante. Spiega sempre Gallus: “Per dei provvedimenti del genere il Garante ha un periodo di otto settimane in cui esprimere il suo parere. Ci sono vari punti che dovranno essere presi in considerazione, a partire dal trattamento dei dati utilizzati per sviluppare questo software”. Senza contare che come spiegato dall’eurodeputato Brando Benifei (PD) a Fanpage.it, la prossima settimana verrà discusso nel Parlamento Europeo un Regolamento che definisce gli ambiti di utilizzo dell’intelligenza artificiale, compresi quelli dedicati alla sicurezza.

I punti su cui analizzare il trattamento dei dati sono due. Il primo riguarda i dati che vengono utilizzati per allenare gli algoritmi a fornire delle risposte alle domande poste dalle forze dell’ordine Qui i dubbi da risolvere sono parecchi. Da dove arrivano questi dati? Quanto tempo vengono conservati sui server? Dove si trovano i server? In Italia, nell’Unione europea o ancora fuori?

Il secondo punto riguarda la gestione della libertà personale dei soggetti. Ancora Gallus: “Se io, su indicazione di questo algoritmo, continuo ed essere fermato dalla polizia per reati che non sto commentando allora questo può incidere sulla mia libertà personale. In ogni caso, prima di qualsiasi applicazione, sarebbe meglio aspettare la decisione del Parlamento Europeo sull’Ai Act”.

169 CONDIVISIONI
361 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views