EU AI ACT: la nuova normativa Europea sull’Intelligenza Artificiale


L’approvazione della proposta di legge dell’UE sull’intelligenza artificiale è stato un processo complesso che ha comportato intensi negoziati, disaccordi e maratone di discussioni durate fino a 36 ore. Ora che l’accordo politico è stato raggiunto, la palla passa al Parlamento Europeo per rendere ufficialmente quest’atto un unicum mondiale.
L’accordo, raggiunto nel trilogo tra Commissione europea, Consiglio e Parlamento, svoltosi tra il 6 e l’8 dicembre, porterà finalmente alla prima regolamentazione per l’IA nel mondo.
La maratona di negoziati ha visto, nella prima fase, un accordo comune tra le principali istituzioni europee su aspetti chiave, come l’open source e la governance della proposta.
La discussione si è poi infiammata su tematiche sensibili legate alla tutela dei diritti fondamentali dei cittadini.
La presidente della Commissione europea, von der Leyen ha espresso estrema soddisfazione per l’obiettivo raggiunto dopo un’attesa di oltre due anni e mezzo, mettendo in risalto soprattutto come, ora che l’AI è adeguatamente regolamentata, essa costituisce una tecnologia sicura e rispettosa dei diritti fondamentali delle persone e delle imprese.

Ovviamente, il testo non è definitivo e verrà definito nelle prossime settimane, poiché va tradotto ed adattato alle varie lingue degli stati membri. Difatti, nonostante l’accordo politico provvisorio raggiunto, il Parlamento Ue dovrà votare l’atto nel 2024, ma prima che entri del tutto in vigore ci vorranno 2 anni: 6 mesi per proibire gli usi specifici di tale tecnologia, 12 mesi per l’adattamento della normativa sui modelli di fondazione (ovvero dei modelli su cui si basano le IA generative, in grado di eseguire un’ampia varietà di attività generali come la comprensione del linguaggio, la generazione di testo e immagini e la conversazione in linguaggio naturale), 24 mesi dopo dall’approvazione ufficiale il suo totale dispiegamento di funzioni.

Il suo contenuto
L’AI Act affronta la sfida di trovare un equilibrio delicato tra la promozione dell’innovazione e l’adozione responsabile dell’IA.

Come definito dal sito ufficiale del Parlamento europeo, tra i principali elementi dell’accordo, si prevedono regole più severe per i modelli di IA ad alto rischio, una governance a livello europeo e nuovi divieti su pratiche dannose come la manipolazione cognitiva e il social scoring.
Tutto ciò per dare attenzione alla protezione dei diritti fondamentali, attraverso una piramide che definisce i livelli di rischio dell’IA, e un’architettura di governance che coinvolge un Ufficio per l’IA e un panel scientifico di esperti indipendenti.

Per quanto concerne il rischio, vi sarà una classificazione orizzontale di protezione, con particolare attenzione ai sistemi di IA ad alto rischio. Viene chiarito il rapporto delle responsabilità tra vari attori, come fornitori e utenti di sistemi di IA, e si introducono esenzioni per le forze dell’ordine, consentendo loro di utilizzare sistemi di IA ad alto rischio in situazioni di emergenza.

Grazie alla posizione di alcuni stati, si è arrivati all’implementazione di due livelli di obblighi: il primo, valido per tutti, richiede che vengano pubblicati i materiali usati per l’addestramento degli algoritmi; mentre il secondo livello, per i sistemi con rischi maggiori, obbliga le imprese AI a soddisfare requisiti di trasparenza e comunicazione di eventuali incidenti all’ufficio apposito della Commissione.
Una trattativa non priva di colpi di scena
Le trattative politiche che si sono svolte nel trilogo interistituzionale, come già accennato, sono durate un totale di circa 36 ore, molte delle quali dedicate a trovare un punto d’incontro tra le posizioni del Consiglio Ue, composto dai rappresentati dei governi nazionali, ed il Parlamento Ue.

L’accordo infine è stato trovato, ma 2 temi principali hanno portato più volte la trattativa ad un momentaneo stallo:

Al centro del primo dibattito, vi era la questione se le autorità statali dovessero essere autorizzate a distribuire sistemi biometrici alimentati dall’intelligenza artificiale in grado di identificare e classificare le persone in base a caratteristiche sensibili come: genere, razza o etnia (biosorveglianza). Si utilizzerebbero per la profilazione anche religione, affiliazione politica e sistemi di riconoscimento delle emozioni, sino ad arrivare alla cosiddetta polizia predittiva. Quest’ultima metodologia si baserebbe sull’utilizzo di tali tecnologie per predire dove potrebbe avvenire un futuro reato.

I deputati del Parlamento hanno affermato a più riprese, nel corso del loro mandato, che queste pratiche erano “invadenti e discriminatorie”, oltre che violative dei diritti di privacy e dei diritti fondamentali dei cittadini europei, e pertanto da proibire in tutto il territorio dell’Ue. Gli Stati membri, tuttavia, avevano un’opinione piuttosto differente e sostenevano che erano necessarie esenzioni per le forze dell’ordine al fine di rintracciare i criminali e contrastare le minacce contro la sicurezza nazionale.

Tra le nazioni sostenitrici dell’esenzione per le forze dell’ordine si sono particolarmente distinte l’Italia, l’Ungheria, ma soprattutto la Francia. Quest’ultima, infatti, ha approvato all’inizio di quest’anno una legislazione per consentire l’uso della sorveglianza biometrica durante le Olimpiadi di Parigi del 2024.

Tale conflitto ha quasi portato i negoziati ad un punto di non ritorno ma, si è giunti infine al far accettare al Parlamento una serie di “condizioni rigorose” che consentiranno alle autorità di utilizzare biometria in tempo reale per cercare vittime di rapimento, traffico e sfruttamento sessuale; prevenire minacce terroristiche; e individuare persone sospettate di aver commesso gravi crimini, come terrorismo, omicidio, stupro e rapina a mano armata.

Al contrario, la categorizzazione biometrica basata su caratteristiche sensibili, punteggi sociali, polizia predittiva, sfruttamento delle vulnerabilità e riconoscimento delle emozioni nel luogo di lavoro e le istituzioni educative saranno vietate.

Per ciò che concerne invece la seconda tematica, quella delle IA generative, in questo caso la discussione è sorta ben dopo la diffusione della proposta originale di legge della Commissione, risalente al 2021. Infatti, solo verso la fine del 2022, quando Openai ha lanciato Chatgpt, si è aperta la discussione nelle istituzioni europee legata alle IA generative, alimentate dai modelli di fondazione.

La proposta originale della Commissione, come detto, non prevedeva alcuna disposizione per i modelli di fondazione, costringendo i legislatori ad aggiungere un articolo completamente nuovo sul “fair use”, con un ampio elenco di obblighi per garantire che questi sistemi rispettino i diritti fondamentali, siano efficienti dal punto di vista energetico e rispettino i requisiti di trasparenza, divulgando il proprio contenuto e quali dati stiano utilizzando.

La proposta si è dovuta scontrare non solo con gli interessi politici in gioco, ma anche con quelli economici portati nel dibattito: infatti, le grandi aziende tecnologiche degli Stati Uniti (OpenAI, Microsoft e Google sono stati inseriti tra i “5 principali lobbisti” identificati dall’Osservatorio Corporate Europe) ed alcuni paesi europei, come Germania, Francia e Italia, oltre alle startup europee ben collegate con le big tech, hanno tutte cercato di utilizzare la loro notevole influenza e il loro capitale politico per alterare drasticamente le regole europee sull’intelligenza artificiale attraverso ampie attività di lobbying.

Il loro obiettivo? Rimuovere i “modelli di fondazione” dal testo della proposta, e sostituirla con “un’autoregolamentazione obbligatoria attraverso codici di condotta” per i modelli di fondazione, imponendo così gli oneri della regolamentazione esclusivamente sugli sviluppatori di applicazioni, che hanno il minimo controllo su queste IA. In ogni caso, quest’ultima proposta di modifica non ha prevalso nel trilogo.

Ma perché questo cambio di fronte repentino in sede di trattative politiche?

Si potrebbe ipotizzare anche un conflitto d’interessi.

Basti pensare che la Francia è stata, a un certo punto, uno dei sostenitori più accesi della necessità di regolamentare modelli di base. Fino a quando lo scorso novembre, non si è arrivati ad una rottura, per via dell’ex ministro francese per l’economia digitale, Cédric O, membro cofondatore e azionista dell’influente startup francese Mistral, che si è espresso contro le normative che potrebbero “uccidere” la società di O, coinvolgendo così Italia e Germania, oltre che la stessa Francia.
Assisteremo ad un nuovo “Brussels Effect” globale?
Occorre infine sottolineare come, dato l’incessante sviluppo di queste tecnologie, l’implementazione della normativa europea dovrà tenersi al passo con i tempi al fine di non rendere obsoleto in breve tempo uno sforzo così gravoso e lodevole come quello che ha condotto all’AI Act dell’Unione Europea.

È presumibile a questo punto che tale atto contribuirà a dare una spinta decisiva nella regolamentazione dell’IA in tutto il mondo e che assisteremo ad un nuovo “Brussels effect”, come già avvenuto diverse volte nell’ultimo decennio (anche se, grandi potenze come Stati Uniti o Cina potrebbero intraprendere dei percorsi ad hoc nella loro regolamentazione per non svantaggiare economicamente le proprie imprese).

Ovviamente una governance globale coordinata avrebbe portato un risultato più solido, in un ambito come quello tecnologico, che viene sviluppato specialmente in Cina o negli Stati Uniti.

Tuttavia, se non si fosse trovato l’accordo sull’AI Act, l’UE si sarebbe trovata a correre il rischio non solo di essere dietro agli Stati Uniti e al Regno Unito nella corsa alla regolamentazione, dal momento che essi hanno prodotto rispettivamente un ordine esecutivo sull’intelligenza artificiale e il primo vertice mondiale sulla sicurezza dell’intelligenza artificiale, ma di correre la corsa sbagliata cedendo alle volontà di coloro i quali non erano a favore di una normativa in materia.

Va detto che da un lato, l’amministrazione del presidente degli Stati Uniti, Joe Biden, ha adottato una governance di soft law, emettendo il suo ordine esecutivo in materia di intelligenza artificiale sicura e affidabile lo scorso 30 ottobre, al fine di introdurre regolamenti legalmente vincolanti, sviluppare linee guida per nuovi standard di valutazione della sicurezza e equità avanzata e diritti civili.

Dall’altro, la Cina ha portato avanti un rapido sviluppo dell’intelligenza artificiale nel paese a partire dagli anni ‘10. Nel luglio 2017, Pechino ha pubblicato un piano di sviluppo dell’intelligenza artificiale di nuova generazione che presentava obiettivi strategici per il 2020 e il 2025, presiedendo inoltre al vertice mondiale sulla sicurezza tenuto nel Regno Unito.

E’ curioso che la Cina abbia deciso di tenere il passo con il quadro di cooperazione internazionale nonostante le accuse di utilizzare l’IA come “un mezzo di controllo statale e uno strumento per la sicurezza nazionale”. Nel prevedere la futura strategia di governance IA della Cina, è imperativo considerare la Global AI Governance Initiative (GAI) presentata al Terzo Belt and Road Forum per la cooperazione internazionale tenutosi a Pechino in ottobre.

Guardando ad altri principali attori globali: ulteriori proposte di regolamento sono state promosse dal Giappone nel 2019, con l’obiettivo di massimizzare l’impatto positivo dell’IA sulla società, piuttosto che sopprimerlo dai rischi sopravvalutati. In Brasile invece, è attualmente in discussione un progetto di legge sull’IA che si ispira all’approccio basato sul rischio dell’AI Act. In Canada si sta lavorando all’approvazione dell’“AI and Data Act”, complesso di norme incentrato sui sistemi di intelligenza artificiale ad alto impatto e che, ancora una volta, segue la strada tracciata dal legislatore europeo. In Australia è ancora forte il dibattito su come regolamentare l’IA e, perciò è stata aperta una consultazione pubblica.

Articolo a cura di Gaia Barbarino e Alessandro Ermini – Orizzonti politici