Regole Ue per ChatGPT in azienda


Oltre a suscitare curiosità, allarmi e dibattiti, l’ intelligenza artificiale generativa a fini generali come ChatGpt o Bard (per citare i più famosi) sta cominciando a entrare nella vita delle aziende. Queste applicazioni possono, infatti, essere integrate in altri sistemi digitali permettendo, così, anche a piccole e medie imprese di beneficiare di una tecnologia che non sarebbero in grado di sviluppare in proprio.

A oggi una disciplina normativa non esiste: a prevederla sarà il regolamento europeo sull’intelligenza artificiale (l’AI Act) che dopo aver ottenuto il via libera del Parlamento Ue a metà giugno, deve ora essere messo a punto in via definitiva per essere pubblicato sulla Gazzetta ufficiale della Ue a inizio 2024.

Negli ultimi mesi si sono moltiplicate le richieste di intervento normativo, invocato spesso anche dai responsabili delle big tech al fine di contenere i rischi dell’intelligenza artificiale. Una volta approvato in via definitiva, l’AI Act sarà, forse, la prima legge al mondo sull’intelligenza artificiale. Non mancano però le accuse di rigidità , di eccesso di regolamentazione e le pressioni per ammorbidirlo. E uno dei punti più delicati è proprio la disciplina dei sistemi a fini generali e delle loro integrazioni da parte delle imprese.

Il testo approvato dal Parlamento prevede che obblighi e responsabilità riguardino soprattutto le imprese che implementeranno sistemi a fini generali. Le aziende devono quindi cominciare a tenerne conto e a dotarsi di nuove competenze, così come è accaduto con il Gdpr per la protezione dei dati personali. Obblighi e sanzioni scatteranno nei mesi successivi all’entrata in vigore proprio per permettere l’adeguamento.

La situazione

Sul mercato sono già disponibili applicazioni che integrano ChatGPT per: creare siti web; ideare e modificare immagini; simulare un’assistente virtuale; raffigurare un amico che dà consigli; aiutare lo studio legale a organizzare il materiale e assistere i professionisti nelle ricerche giurisprudenziali. Gli esempi sono numerosissimi, riguardano tutti gli ambiti e crescono in modo esponenziale.

Ma le imprese devono essere consapevoli che l’utilizzo di queste tecnologie comporta una condivisione dei dati, e non è un caso che i colossi della finanza e delle assicurazioni stiano lavorando alla realizzazione di propri sistemi di AI generativa.

Dall’aumento dell’efficienza alla riduzione dei costi, l’intelligenza artificiale può infatti aiutare le imprese su molti fronti. Secondo il Rapporto 2023 sul digitale in Italia messo a punto da Anitec-Assinform (associazione delle aziende Ict), la diffusione dell’AI generativa sta spingendo la crescita del mercato dell’intelligenza artificiale: nel 2022 la spesa delle aziende è stata di 435 milioni di euro (+32% rispetto al 2021) ma nel 2023 le imprese che prevedono di utilizzarla in modo significativo in alcuni o molti processi salirà al 48% (nel 2022 era il 26%). Per diffondere la conoscenza delle nuove tecnologie, Piccola Industria Confindustria e Anitec-Assinform stanno realizzando un programma biennale di incontri rivolto alle Pmi in tutta Italia.

Il regolamento europeo

La tecnologia “a fini generali” ha rappresentato un dilemma per il regolatore europeo fin da quando il Consiglio Ue l’ha inserita nell’AI Act a dicembre 2022 (l’iter del regolamento è partito nel 2021). La disciplina europea si basa sul risk-based approach che modula gli obblighi di conformità a seconda del livello di rischio (basso, medio, elevato e inaccettabile) .

I sistemi a fini generali non riguardano però settori specifici e nascono per il mercato open source, potendo essere integrati in altre applicazioni. Ma chi risponde delle inefficienze e della compliance necessaria per evitare violazioni dei diritti degli utenti? Il produttore del sistema o chi lo sviluppa, impiega o distribuisce?

In base al testo varato dal Parlamento oneri e responsabilità spettano a chi distribuisce o utilizza i sistemi a fini generali. Nel vasto campo delle attività ad alto rischio (come la gestione delle risorse umane) si tratta, ad esempio, della presenza di una supervisione umana e della creazione di un sistema di valutazione e gestione del rischio. Chi produce la tecnologia (come OpenAI) dovrà invece fornire assistenza e accesso alle informazioni.

Per attutire la disparità di potere contrattuale fra i fornitori dei sistemi e le imprese, il Parlamento ha vietato clausole contrattuali unilaterali che, ad esempio, escludano o limitino le responsabilità per negligenze gravi o diano al produttore il diritto a determinare la conformità della documentazione tecnica e dei dati forniti.

Vista la complessità della materia e della regolazione, sarà importante che le autorità nazionali incaricate di vigilare e sanzionare le imprese che creano e integrano sistemi di Ai offrano anche un supporto allo sviluppo di questa cruciale tecnologia.

Fonte: Il Sole 24 ore