Menu

UE: Il pericoloso aggiramento della legge sull’AI. Deve essere corretto per proteggere i diritti

Quasi 120 organizzazioni della società civile, tra cui Statewatch, chiedono agli eurodeputati di colmare un’enorme lacuna nella proposta di legge sull’intelligenza artificiale, introdotta sotto la pressione dei grandi lobbisti tecnologici.

Senza modifiche, la legge consentirà agli sviluppatori di sistemi di intelligenza artificiale di decidere se i sistemi che producono debbano essere considerati “ad alto rischio” o meno – un ovvio invito per loro a decidere che non lo sono, al fine di evitare ulteriori tutele che la legge dovrebbe imporre. I legislatori dell’UE devono colmare la pericolosa lacuna nella legge sull’IA. L’Unione Europea sta entrando nella fase finale dei negoziati sulla sua legge sull’intelligenza artificiale (AI Act), ma Big Tech e altri attori del settore hanno esercitato pressioni per introdurre un’importante scappatoia nel processo di classificazione ad alto rischio, minando l’intera legislazione.

Chiediamo ai legislatori dell’UE di eliminare questa lacuna e di mantenere un elevato livello di protezione nella legge sull’IA. L’UE AI Act ha il potenziale per migliorare la protezione delle persone colpite dai sistemi di IA. Nella sua forma originale, delineava un elenco di “usi ad alto rischio” dell’intelligenza artificiale, compresi i sistemi di intelligenza artificiale utilizzati per monitorare gli studenti, valutare l’affidabilità creditizia dei consumatori, valutare le persone in cerca di lavoro e determinare chi ha accesso alle prestazioni sociali.

La legislazione impone agli sviluppatori e agli utilizzatori di tale IA “ad alto rischio” di garantire che i loro sistemi siano sicuri, esenti da pregiudizi discriminatori e di fornire informazioni accessibili al pubblico su come funzionano i loro sistemi. Tuttavia, questi benefici saranno compromessi da una pericolosa lacuna introdotta nel processo di classificazione ad alto rischio di cui all’articolo 6. Nella bozza originale della Commissione europea, un sistema di IA era considerato “ad alto rischio” se doveva essere utilizzato per uno degli scopi ad alto rischio elencati nell’allegato III. Tuttavia, il Consiglio e il Parlamento europeo hanno introdotto una scappatoia che consentirebbe agli sviluppatori di questi sistemi di decidere autonomamente se ritengono che il sistema sia “ad alto rischio”.

La stessa società che sarebbe soggetta alla legge ha il potere di decidere se applicarlo o meno a loro. Queste modifiche all’articolo 6 devono essere respinte e il processo originale di classificazione dei rischi della Commissione europea deve essere ripristinato. Deve esistere un processo obiettivo, coerente e giuridicamente certo per determinare quali sistemi di IA sono “ad alto rischio” nella legge sull’IA. Se le modifiche all’articolo 6 non verranno annullate, la legge sull’IA consentirà agli sviluppatori di intelligenza artificiale di decidere di esentarsi da tutte le norme sostanziali per i sistemi ad alto rischio.

La legge sull’intelligenza artificiale:

– Introdurre un’elevata incertezza giuridica su quali sistemi siano considerati “ad alto rischio”;

– Portare alla frammentazione del mercato unico dell’UE, con diverse interpretazioni di ciò che costituisce “ad alto rischio” nei vari Stati membri;

– Il risultato è che le autorità degli Stati membri si trovano ad affrontare gravi sfide per far rispettare la legislazione, senza risorse sufficienti per monitorare sufficientemente l’autovalutazione degli sviluppatori;

– Consentire agli sviluppatori senza scrupoli di eludere i requisiti di base della legge che hanno lo scopo di rendere i loro sistemi più sicuri e più sicuri.

Ciò metterebbe in svantaggio gli sviluppatori di intelligenza artificiale responsabili.

Esortiamo i legislatori a invertire questi cambiamenti e a ripristinare il testo originale della Commissione nell’articolo 6. La legge sull’intelligenza artificiale deve dare priorità ai diritti delle persone colpite dai sistemi di intelligenza artificiale e garantire che lo sviluppo e l’uso dell’intelligenza artificiale siano responsabili e trasparenti.

Firmato da 120 ONG

vedi: https://www.statewatch.org/media/4034/23-14-statewatch-news.pdf

traduzione a cura di Salvatore Palidda

da Statewatch

 

Osservatorio Repressione è un sito indipendente totalmente autofinanziato. Puoi sostenerci donando il tuo 5×1000 e darci una mano a diffondere il nostro lavoro ad un pubblico più vasto e supportarci iscrivendoti al nostro canale telegram

Leave a Comment

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>