Legge sull’intelligenza artificiale: Il Parlamento europeo si muove su una linea sottile per quanto riguarda le pratiche vietate

Legge sull’intelligenza artificiale: Il Parlamento europeo si muove su una linea sottile per quanto riguarda le pratiche vietate

Legge sull’intelligenza artificiale: Il Parlamento europeo si muove su una linea sottile per quanto riguarda le pratiche vietate, venerdì 14 aprile 2023

Euractiv. I membri del Parlamento europeo hanno chiuso diverse parti critiche del regolamento sull’IA in una riunione politica giovedì (13 aprile), ma gli usi vietati dell’IA potrebbero potenzialmente dividere l’Assemblea.

La legge sull’IA è una normativa storica che regolamenta l’intelligenza artificiale in base alla sua capacità di causare danni e, mentre gli eurodeputati si stanno avvicinando a un accordo politico sul dossier con un voto chiave in commissione previsto per il 26 aprile, l’adozione in plenaria sarà impegnativa.

La parte politicamente più delicata discussa durante l’incontro politico con tutti i gruppi giovedì è stata quella delle pratiche proibite, ovvero le applicazioni considerate a rischio inaccettabile. La categorizzazione ad alto rischio, l’applicazione e la governance sono in gran parte definite.

Pratiche vietate

I liberali tedeschi hanno proposto di introdurre una disposizione che vieti “l’uso di un sistema di intelligenza artificiale per il monitoraggio generale, il rilevamento e l’interpretazione di contenuti privati ​​nei servizi di comunicazione interpersonale, comprese tutte le misure che minerebbero la crittografia end-to-end”.

Il testo proposto, visto da EURACTIV, ha lo scopo di escludere qualsiasi strumento basato sull’intelligenza artificiale per rilevare contenuti sospetti illegali, come quelli richiesti dalla proposta dell’UE per combattere il materiale pedopornografico.

Tuttavia, la disposizione incontra l’opposizione del Partito popolare europeo conservatore (PPE), che ha una forte fazione indulgente nei confronti delle forze dell’ordine.

In cambio dell’eliminazione di ciò, i deputati più progressisti otterrebbero il divieto delle tecnologie di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative, ad eccezione dell’IA utilizzata per scopi medici o di ricerca dove i soggetti hanno acconsentito.

Inoltre, parte dell’accordo vieta l’identificazione biometrica in tempo reale consentendola ex post . Tuttavia, sebbene le ombre del PPE siano d’accordo con questo accordo, non sono sicure che la leadership del gruppo non chiederà un voto chiave durante la plenaria.

Una votazione chiave significa che verrà presentato un emendamento alternativo e, se non dovesse passare, il gruppo dovrebbe votare contro l’intero testo.

Secondo un funzionario parlamentare, le discussioni politiche tra i capigruppo cercheranno di neutralizzare lo scenario in cui il gruppo politico più numeroso non sostiene il testo, indebolendo la posizione negoziale del Parlamento.

Classificazione ad alto rischio

La legge sull’IA introduce un regime rigoroso per i sistemi ad alto rischio, per i quali è stato individuato un elenco di aree e casi d’uso nell’allegato III. Sebbene non vi sia stato tempo per discutere l’allegato III, questa parte è stata ampiamente concordata.

Mentre nella proposta originale la classificazione ad alto rischio sarebbe stata automatica, i deputati hanno introdotto il livello aggiuntivo secondo cui i modelli di IA coperti dall’allegato III sono ad alto rischio solo se presentano un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali.

Se i fornitori di IA ritengono che il loro sistema non presenti un rischio significativo, con una notifica motivata, devono informare l’autorità nazionale competente o l’Ufficio AI dell’UE se operano in più paesi europei.

L’autorità nazionale avrebbe tre mesi per mettere in discussione la classificazione, un’obiezione che i fornitori di AI avrebbero il diritto di presentare ricorso. Tuttavia, durante questo periodo, i fornitori di IA potrebbero ancora lanciare le loro soluzioni di IA sul mercato dell’UE dopo l’invio della notifica.

La questione cruciale è se l’autorità può o deve rispondere a ogni notifica, con la misura obbligatoria promossa dai Verdi, che temono che l’arretrato sarebbe così opprimente per alcune autorità da non filtrare i sistemi pericolosi.

Secondo il compromesso, la Commissione ha il compito di sviluppare, in consultazione con l’Ufficio AI e le parti interessate, linee guida che specifichino i criteri in base ai quali le aziende dovrebbero effettuare tale autovalutazione sei mesi prima dell’entrata in vigore del regolamento.

I componenti di sicurezza per i trasporti o le reti digitali contemplati dalla normativa di settore sono stati esclusi dall’allegato III.

Nell’istruzione, le applicazioni di intelligenza artificiale per valutare il livello di istruzione appropriato o rilevare imbrogli durante gli esami sono state aggiunte all’elenco ad alto rischio.

Per l’intelligenza artificiale sul posto di lavoro, l’allegato III ora specifica i sistemi di intelligenza artificiale destinati al reclutamento di persone, in particolare per inserire annunci di lavoro mirati, filtrare le domande e valutare i candidati.

Governance e applicazione

Il correlatore, Dragoș Tudorache, ha inizialmente spinto a centralizzare l’applicazione tramite un ufficio AI, un nuovo organismo dell’UE che sarebbe leggermente inferiore a un’agenzia.

Tuttavia, il ruolo dell’Ufficio AI è stato notevolmente ridimensionato a un ruolo di supporto a causa di vincoli di bilancio, sebbene abbia mantenuto il proprio segretariato e direttore esecutivo.

I poteri di indagine sono stati principalmente rimessi nelle mani delle autorità nazionali. La Commissione europea deve intervenire solo nei casi più gravi, vale a dire esaminare quando un’autorità nazionale vieta un sistema che presenta seri rischi nonostante il rispetto del regolamento sull’IA.

Nei casi che interessano due o più Stati membri, l’autorità principale sarà quella del luogo in cui si è verificata la violazione. Tuttavia, sono previste indagini congiunte se la violazione è diffusa o riguarda 45 milioni di persone in almeno due paesi.

L’infrazione diffusa riguarda almeno tre paesi dell’UE. Può acquisire una dimensione europea se colpisce gli interessi collettivi di almeno due terzi dei paesi o della popolazione dell’UE.

Cos’è rimasto

Oltre all’allegato III, i legislatori devono ancora finalizzare le disposizioni sull’IA per uso generale, le catene del valore dell’IA, gli articoli autonomi, gli obblighi degli utenti e il preambolo del regolamento. Pertanto, il voto in commissione del 26 aprile potrebbe essere ancora soggetto a ritardi.