La normativa, senza precedenti a livello globale, intende garantire che i sistemi immessi sul mercato europeo siano sicuri e rispettino i diritti fondamentali e i valori dell’Unione Europea. Quali sono le applicazioni inammissibili
AGI – Dopo una maratona di negoziati durata tre giorni, il Consiglio Ue e il Parlamento europeo hanno raggiunto un accordo sulla proposta di norme armonizzate sull’intelligenza artificiale (Ia). Il regolamento – il primo del genere al mondo – vuole garantire che i sistemi di intelligenza artificiale immessi sul mercato europeo e utilizzati nell’Ue siano sicuri e rispettino i diritti fondamentali e i valori dell’Ue. E, allo stesso tempo, stimolare gli investimenti e l’innovazione nell’Ia in Europa.
Un approccio basato sul rischio
L’idea principale è di regolamentare l’intelligenza artificiale in base alla capacità di quest’ultima di causare danni alla società seguendo un approccio “basato sul rischio”: si va dal rischio minimo a quello inaccettabile; maggiore è il rischio, più severe sono le regole.
La stragrande maggioranza dei sistemi di intelligenza artificiale rientra nella categoria del rischio minimo e beneficeranno di un free-pass.
I sistemi di intelligenza artificiale identificati come ad alto rischio saranno tenuti invece a rispettare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di robustezza, accuratezza e sicurezza informatica. Le sandbox normative faciliteranno l’innovazione responsabile e lo sviluppo di sistemi aI conformi.
Esempi di sistemi di intelligenza artificiale ad alto rischio includono alcune infrastrutture critiche, ad esempio nei settori dell’acqua, del gas e dell’elettricità; dispositivi medici; sistemi per determinare l’accesso alle istituzioni educative o per reclutare persone; o alcuni sistemi utilizzati nei settori delle forze dell’ordine, del controllo delle frontiere, dell’amministrazione della giustizia e dei processi democratici. Inoltre, anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni sono considerati ad alto rischio.
Le linee rosse
l rischio inaccettabile riguarda i sistemi di intelligenza artificiale considerati una chiara minaccia ai diritti fondamentali delle persone e saranno vietati. Questa blacklist include sistemi o applicazioni di intelligenza artificiale che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti, come giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi dei minori o sistemi che consentono il “punteggio sociale” da parte di governi o aziende e alcune applicazioni di polizia predittiva.
Inoltre, alcuni usi dei sistemi biometrici saranno vietati, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o il riconoscimento facciale in tempo reale ai fini delle forze dell’ordine in spazi accessibili al pubblico (con eccezioni ristrette). L’accordo raggiunto chiarisce gli obiettivi in cui tale uso è strettamente necessario ai fini dell’applicazione della legge e per i quali le autorità incaricate dell’applicazione della legge dovrebbero quindi essere eccezionalmente autorizzate a utilizzare tali sistemi. L’accordo prevede ulteriori garanzie e limita queste eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce reali, presenti o prevedibili, come gli attacchi terroristici e alla ricerca di persone sospettate dei crimini più gravi.
Vi è poi la categoria dei rischi specifici, quali le ormai famose chatbot. Quando le utilizzano, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina. I deepfake e altri contenuti generati dall’Ia dovranno essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo che i contenuti audio, video, testo e immagini sintetici siano contrassegnati in un formato leggibile dalla macchina e rilevabili come generati o manipolati artificialmente.
Il regolamento non si applica a settori al di fuori del campo di applicazione del diritto dell’Ue e non dovrebbe, in ogni caso, pregiudicare le competenze degli Stati membri in materia di sicurezza nazionale o qualsiasi entità incaricata di compiti in questo settore. Inoltre, la legge sull’Ia non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Allo stesso modo, l’accordo prevede che il regolamento non si applichi ai sistemi di intelligenza artificiale utilizzati al solo scopo di ricerca e innovazione, o alle persone che utilizzano l’intelligenza artificiale per motivi non professionali.
di Brahim Maarad