Menu

Il riconoscimento facciale e il rischio della violazione dei diritti umani

L’allarme lanciato dall’associazione Hermes Center for Transparency and Digital Human Rights. Quello che Foucault chiamava biopotere, ovvero l’insieme di tecnologie, pratiche e metodi per il controllo dei corpi e della vita della popolazione, è ora un’interpretazione sempre più precisa del modello di società odierna. Parliamo dell’applicazione dell’intelligenza artificiale (IA) nel campo della prevenzione del crimine, la selezione del lavoro e, nel futuro, nel campo della giustizia penale.

Di fatto, è già realtà in numerosi Paesi. Ma senza una regolamentazione c’è il rischio di una deriva dove si accentuano le discriminazioni, così come in alcuni Stati si rafforza l’autoritarismo. L’esempio pratico è la Cina, che ne è all’avanguardia. Quest’ultima ha avviato una politica di controllo digitale, sfruttando l’IA nella sorveglianza, il machine learning in strumenti che controllano, identificano e prevedono i comportamenti della popolazione, e creando il cosiddetto “sistema di credito sociale”.

In Italia, in parte, è già realtà l’utilizzo della IA nel campo del controllo. Parliamo del riconoscimento facciale. È una tecnica che si basa sull’elaborazione digitale di immagini (video o immagini statiche) all’interno delle quali si richiede all’intelligenza artificiale di riconoscere il volto di una persona. In biometria è utilizzato per verificare l’identità di una persona a partire da una o più immagini che la ritraggono. Attraverso il riconoscimento facciale, ad esempio, le forze dell’ordine possono trovare una corrispondenza tra l’immagine di un individuo sospetto e il database al quale fanno riferimento, contenente i pregiudicati.

Ebbene, nel 2017, il ministero dell’Interno ha comprato il Sistema Automatico Riconoscimento Immagini (SARI): è il nome dato al sistema di riconoscimento facciale dall’azienda Parsec 3.26. È disponibile in due versioni: SARI Enterprise (ad oggi in uso) e SARI Real-Time.

Il SARI Enterprise è un sistema di riconoscimento facciale in grado di confrontare l’immagine di un volto, presa ad esempio dalle registrazioni di una videocamera a circuito chiuso, con i volti inclusi nel database AFIS. La polizia italiana usa questo software per automatizzare la ricerca dei sospetti durante le indagini. Il garante privacy ha formalmente approvato il suo utilizzo nel 2018. Il SARI Real-Time, invece, è un sistema di riconoscimento facciale in tempo reale. La polizia italiana ha dichiarato di voler utilizzarlo utilizzare durante manifestazioni o eventi pubblici, anche se ciò non è mai successo perché il ministero dell’Interno ha atteso un parere positivo del Garante per la protezione dei dati personali dal 2018 al 2021.

Nell’aprile 2021 il Garante ha dichiarato che la polizia italiana non avrebbe nessuna base legale per utilizzare il sistema SARI Real-Time. Ancor prima di ricevere il parere del Garante, però, il ministero ha pubblicato un appalto per il potenziamento del sistema, da utilizzare per monitorare lo sbarco di migranti e richiedenti asilo sulle coste italiane.

Ed è su questo che l’associazione Hermes Center for Transparency and Digital Human Rights ha puntato il dito, tanto da indirizzare delle raccomandazioni al governo, al ministero dell’Interno e alle associazioni che si occupano dei diritti umani. Il primo punto riguarda la criminalizzazione della persona migrante, rifugiata o richiedente asilo che è iscritta nell’infrastruttura tecnologica italiana. I dati biometrici raccolti al momento dello sbarco o dell’arrivo sul territorio nazionale sono inclusi in un database (Afis) che contiene potenziali sospetti ed è utilizzato per ritrovare corrispondenze di volti e identità attraverso il sistema di riconoscimento facciale in uso alla polizia italiana, SARI.

Questa criminalizzazione, secondo l’associazione, avverrebbe senza la possibilità che la società civile possa conoscere esattamente il numero di persone fotosegnalate per ogni categoria prevista dalla legge, e quindi in modo incontrollabile e opaco. L’altro aspetto è che la gestione e il controllo dei flussi migratori in Europa non passa più solo attraverso le politiche dei flussi o il mero controllo delle frontiere. Le procedure di identificazione allo sbarco o all’arrivo su suolo italiano sono sempre più automatizzate e invasive.

I database che conservano dati personali e biometrici unici di migranti, richiedenti asilo e rifugiati sono popolati quotidianamente da ogni stato membro europeo, informazioni alle quali attingono varie autorità europee e forze dell’ordine nel corso delle loro indagini. Ulteriore preoccupazione nasce poi dai finanziamenti che l’Europa garantisce a paesi come Grecia, Spagna e Italia per il controllo e la gestione delle frontiere. In questa ricerca l’associazione ha quindi cercato anche di chiarire il percorso che questi soldi fanno, e di verificare l’impatto che le tecnologie (anche biometriche) hanno o potrebbero avere in campo migratorio.

C’è infine una denuncia tutta rivolta al nostro Paese. Il riconoscimento facciale usato in Italia nelle attività di indagine rischia di avere già conseguenze più gravi su migranti e richiedenti asilo. Ciò avviene perché non vi sono attualmente valutazioni pubbliche sull’accuratezza degli algoritmi impiegati nel sistema di riconoscimento facciale in dotazione alla polizia. “Senza la corretta supervisione degli algoritmi impiegati, potrebbero prodursi casi di falso positivo che porterebbero alla violazione dei diritti umani di gruppi vulnerabili”, denuncia l’associazione Hermes Center for Transparency and Digital Human Rights.

Damiano Aliprandi

da il dubbio

Leave a Comment

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>