Menu

In cosa la videosorveglianza algoritmica è illegale?

Associazione di giuristi e militanti francesi che promuove e difende le libertà fondamentali nel mondo informatizzato, lotta contro la censura e la sorveglianza, pubblica e privata: https://www.laquadrature.net/nous/

di La Quadrature du Net

La videosorveglianza algoritmica (VSA) s’installa nelle nostre città, in piena opacità e soprattutto, in tutta illegalità. Da molti anni, tentiamo di lottare contro questi dispositivi, in particolare attaccandoli nei tribunali.

La videosorveglianza algoritmica (VSA) è installata nelle nostre città, in totale opacità e soprattutto, in totale illegalità. Da diversi anni cerchiamo di combattere questi dispositivi, in particolare attaccandoli in tribunale. Riteniamo che le norme vigenti consentano di opporsi all’impiego di queste tecnologie a tutela delle violazioni delle libertà che esse comportano. Tuttavia, la Commissione Europea sta spingendo per l’adozione di nuove regole, a favore dei produttori, per regolamentare i dispositivi di “intelligenza artificiale”, tra cui la VSA. Sulla sua scia, la CNIL (l’autorità della Privacy in Francia) chiede un nuovo quadro normativo specifico. Nella nostra risposta alla sua consultazione, abbiamo spiegato perché le attuali norme di protezione non dovrebbero essere abbandonate per le nuove norme settoriali. Ecco un riassunto delle nostre argomentazioni (vedi qui la nostra posizione completa).

I dati biometrici, il cuore della protezione

La legge sui dati personali prevede una protezione speciale per i cosiddetti dati “sensibili” in considerazione delle informazioni particolarmente intime che rivelano (come l’orientamento politico o sessuale). Tra questi dati sensibili troviamo la categoria dei dati cosiddetti “biometrici”, che sono “dati personali risultanti da specifici trattamenti tecnici, relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica, che ne consentono o confermano l’identificazione univoca[1].

Questa definizione può essere scomposta in tre elementi che si trovano sistematicamente quando si parla di VSA.

In primo luogo, i dati devono essere oggetto di specifici trattamenti tecnici.

Ciò consente di inserire i sistemi VSA come supplemento al trattamento generale che consiste nel filmare lo spazio pubblico e perseguire un obiettivo particolare (vedi dopo). Inoltre, il trattamento tecnico è specifico in quanto consiste nell’implementazione di un algoritmo o programma informatico applicato a flussi video al fine di isolare, caratterizzare, segmentare o anche rendere evidenti informazioni relative a una persona fisica ripresa o estrarre dal flusso video, anche a posteriori, dati riguardanti tale soggetto.

Quindi, i dati devono riferirsi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona.

Tutti questi dati sono quelli acquisiti da VSA:

– le informazioni fisiche o fisiologiche possono riguardare il corpo di una persona ripresa in senso lato, come volti, sagome o qualsiasi caratteristica isolata del corpo, come colore dei capelli, colore della pelle, tatuaggi, colore degli occhi, forma del viso, altezza, peso, età;

– i dati comportamentali si riferiscono a qualsiasi informazione relativa all’azione del corpo nell’ambiente e nello spazio. Un indumento o un accessorio indossato dalla persona alla volta T, un gesto, un’espressione di emozione, una direzione di movimento, una posizione nello spazio e nel tempo (seduta, in piedi, statica, andare al passo…).

Infine, la finalità del trattamento deve essere l’identificazione univoca della persona. Secondo l’European Data Protection Board (GEPD, l’autorità che riunisce le Privacy dei paesi europei), questa funzione non si limita a rivelare lo stato civile della persona ma a individuarlo all’interno di un ambiente per riconoscerlo su più immagini[2].

Per quanto riguarda il VSA, ogni sistema è programmato per riunire elementi specifici (sagoma, colore dei vestiti, posizione, direzione, comportamento) per:

– riconoscere una persona su più immagini o più flussi video, sia nel tempo che nello spazio, assegnandole un’impronta digitale che consentirà di caratterizzarne gli attributi o il comportamento, e isolarla sulle immagini. L’esempio più tipico è l’inseguimento di una persona nello spazio pubblico ripreso da più telecamere;

– compiere un’azione mirata sulla persona grazie alle informazioni sulle caratteristiche fisiche o comportamentali ottenute dal VSA. Questa informazione può essere trasmessa agli agenti sul campo, consentirà loro di “riconoscere” la persona in un modo unico e di compiere un’azione su di essa (“l’uomo con il cappello blu è nella strada principale, controllalo”).

In entrambi i casi, la persona è identificata in modo univoco rispetto al suo ambiente, un gruppo di persone o una scena.

In conclusione, le funzionalità dei sistemi VSA relativi alle persone comporteranno sistematicamente l’elaborazione di dati biometrici.

Il VSA è sempre sproporzionato

Una volta dimostrato che si tratta del trattamento di dati biometrici, può applicarsi la maggiore protezione concessa ai dati sensibili. Grazie a questo specifico framework, i dati sensibili possono essere trattati solo se è soddisfatto un requisito di “assoluta necessità”[3].

Tale obbligo comporta, in pratica, che il trattamento sarà considerato lecito solo se non esiste altro mezzo meno lesivo delle libertà che consenta il raggiungimento dell’obiettivo perseguito. Questa esigenza di assoluta necessità non costituisce una novità normativa e ha già consentito di limitare o vietare le tecnologie più invadenti.

Ad esempio, quando la regione PACA (regione di Marsiglia-Nizza) ha tentato di allestire un esperimento di riconoscimento facciale all’ingresso di due scuole superiori, la CNIL ha ritenuto che lo scopo di garantire e razionalizzare gli ingressi alle scuole superiori “può essere incontestabilmente ragionevolmente raggiunto con altri mezzi”, concludendo che il dispositivo era sproporzionato.

Allo stesso modo, in una diffida alla città di Valenciennes rivelata da Médiapart, la CNIL aveva giudicato sproporzionato il sistema VSA messo in atto dalla città, in particolare perché non era stata provata la necessità e non era stata documentata l’assenza di alternative.

Lo stesso ragionamento ha fatto il Consiglio di Stato quando abbiamo attaccato, insieme all’LDH (Lega Diritti Umani), l’uso di droni da parte della polizia durante le manifestazioni. Per i giudici, il ministero non ha fornito “alcun elemento idoneo per stabilire che l’obiettivo di garantire la sicurezza pubblica durante gli assembramenti di persone sulla pubblica autostrada non potesse essere pienamente raggiunto, nelle attuali circostanze, per il “mancato utilizzo di droni”[4].

Infine, questo meccanismo è stato efficacemente adottato anche contro la videosorveglianza cosiddetta “classica” – e non biometrica – nel comune di Ploërmel, poiché il comune non giustificava, secondo la Corte d’Appello, statistiche o prove di rischi particolari che spiegassero la necessità di questo dispositivo.

In questo caso, quando si tratta di VSA di polizia, ci sono sempre altri mezzi per fornire sicurezza diversi dalla tecnologia automatizzata che monitora il comportamento delle persone per strada. Ne abbiamo parlato in particolare nel nostro articolo spiegando le ragioni politiche per opporsi al VSA, la sicurezza delle persone si trova solo nell’azione umana e sociale, nell’attenzione agli altri, nella cura.

Il bilanciamento richiesto dal controllo di proporzionalità consente quindi di limitare ed escludere qualsiasi dispositivo abusivo di VSA poiché l’invasione della privacy causata dal trattamento dei dati biometrici può solo molto raramente, se non mai, essere valutata come strettamente necessaria al raggiungimento dell’obiettivo perseguito. Questo criterio di assoluta necessità è quindi oggi un meccanismo giuridico documentato ed efficace nel vietare l’uso improprio delle tecnologie da parte della polizia negli spazi pubblici.

Non cambiare il paradigma

Attraverso il progetto di regolamento sull’intelligenza artificiale e le intenzioni dichiarate dei leader di modificare l’attuale quadro per promuovere gli interessi industriali ed economici del settore, si sta attuando una distruzione del fondamento protettivo dei nostri diritti.

Questi attori stanno cercando di difendere un approccio basato non più sulla necessità come sopra descritto, ma ora sui rischi: il quadro normativo non sarebbe unico come avviene attualmente, ma diverso a seconda degli obiettivi e delle finalità delle tecnologie. In altre parole, si tratterebbe di autorizzare più o meno ampiamente l’uso di determinate tecnologie a seconda dei rischi effettivi che comporterebbe per i diritti e le libertà della popolazione.

Ad esempio, nel suo progetto di regolamento, la Commissione propone una classificazione degli usi del riconoscimento facciale e VSA in base alle circostanze della loro applicazione (nello spazio pubblico, in tempo reale, a fini di contrasto, ecc.), poco se sono necessari o meno. È un capovolgimento totale del modo in cui i nostri diritti e libertà sono tutelati, come abbiamo spiegato qualche mese fa. Spetterebbe alle persone interessate dimostrare il danno loro arrecato e non più alle autorità pubbliche che implementano queste tecnologie dimostrare sistematicamente che l’uso non è sproporzionato. L’onere della prova verrebbe invertito, a scapito delle nostre libertà.

Tuttavia, non è sufficiente che una tecnologia sia “a basso rischio” perché diventi “necessaria” o addirittura desiderabile. Soprattutto, questi attori cercano di giustificare questa logica sostenendo che le garanzie permetterebbero di limitare questi rischi. Tali meccanismi sono illusori e non potrebbero mai essere sufficienti a compensare trattamenti non necessari.

Lo vediamo da diversi anni, le garanzie non bastano mai a limitare tecnologie il più delle volte già implementate, a volte su larga scala, anche se non legali. Anche se contestati, avranno già prodotto i loro effetti illeciti e nocivi. Le analisi d’impatto, i poteri di controllo della CNIL, i cosiddetti contrappesi locali, i diritti all’informazione del pubblico, nessuna di queste garanzie impedisce alle autorità di violare la legge.

Se l’approccio basato sul rischio dovesse finire per essere adottato, darebbe il segnale atteso da tutti i fautori della VSA di implementare in modo massiccio tutti i loro sistemi a piena velocità. Domani come oggi, solo misure di divieto, basate in particolare sulla necessità, potranno proteggerci. Questo è anche il parere delle autorità europee per la protezione dei dati (European Data Protection Board e European Data Protection Supervisor – GEPD in italiano) sulla bozza di regolamento sull’intelligenza artificiale, che richiedono entrambe il divieto totale delle tecnologie VSA.

In conclusione, sostituire il cambiamento di paradigma con la sostituzione dell’attuale approccio basato sulla necessità con uno nuovo basato sui rischi, porterà a legittimare trattamenti di dati e informazioni potenzialmente leciti mentre la loro illegalità oggi è indubbia. Questo cambio di comporterebbe il massiccio dispiegamento di sistemi VSA illeciti senza alcuna garanzia in grado di limitare gli effetti dannosi per la popolazione. Per questo difendiamo il mantenimento dell’attuale quadro normativo, che consente il divieto di tali pratiche ed è in grado di tutelare la popolazione dagli abusi delle autorità in termini di sorveglianza.

Articolo pubblicato qui: https://blogs.mediapart.fr/la-quadrature-du-net/blog/070422/en-quoi-la-videosurveillance-algorithmique-est-elle-illegale

traduzione a cura di Turi Palidda

Note:

[1] Definizioni previste dagli articoli 4§14 del GDPR e 3§13 della Direttiva Polizia/Giustizia.

[2] Vedi linee guida sui video contenenti dati personali 3/201, versione 2.0, punto 82 p. 19 https://edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-32019-processing-personal-data-through-video_fr

[3] Vedi articolo 10 della Direttiva Polizia/Giustizia.

[4] Consiglio di Stato, 446155, lettura del 22 dicembre 2020, §11.

Leave a Comment

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>