Le tre leggi della robotica immaginate da Isaac Asimov, il padre della letteratura fantascientifica, sono molto in là da venire. Tuttavia, pensare di lasciare i problemi etici connessi allo sviluppo dell’intelligenza artificiale ad una mano invisibile “è follia”, come sottolinea la deputata Anna Ascani in una conversazione con AGI. Nella sua veste di vice presidente della Camera dei deputati e presidente del Comitato di Vigilanza per l’attività di documentazione di Montecitorio, Ascani è impegnata in questi giorni in una missione negli Stati Uniti per confrontarsi con i maggiori esperti di I.A. incontrando manager di giganti tecnologici come Microsoft, Amazon, Google, Meta e Open I.A. L’obiettivo della missione, spiega Ascani, “sono soprattutto due: cercare di comprendere fino in fondo rischi e opportunità dell’intelligenza artificiale, per capire come devono muoversi i regolatori; immaginare una sperimentazione che riguardi i parlamentari e io loro lavoro”. Le prime tappe sono state Microsoft e Amazon. “Abbiamo incontrato chi si occupa dell’A.I. Responsible di Microsoft”. E già il fatto che ci sia un settore intero dell’azienda che si occupi del tema della intelligenza artificiale responsabile la dice lunga su quanto il tema etico sia sentito dai protagonisti di questa sfida. “Si sente sempre di più la necessità di coniugare questi processi a una dimensione etica”. Una necessità particolarmente urgente se si pensa all’impatto che l’intelligenza artificiale può avere sull’occupazione. “Per questa ragione”, sottolinea Anna Ascani, “Gli americani non sono molto sensibili al tema della difesa dei posti di lavoro in se, quanto al fatto che l’intelligenza artificiale sia utilizzata per affiancare il lavoratore e sgravarlo dalle attività più ripetitive. Microsoft ha ideato uno strumento che funziona con l’I.A. chiamato Co-Pilot: l’obiettivo non è sostituire il lavoratore, ma affiancarlo. Ad esempio, riassumendo e scrivendo per lui il contenuto di una riunione su Teams. Oppure, generando risposte per una serie di email: in quel caso, Co-Pilot non permette di inviare la risposta prodotta dall’intelligenza artificiale senza che prima sia stata letta e controllata dall’essere umano”. Difficile, tuttavia, immagina che l’I.A. non abbia alcun impatto sull’occupazione. Ascani su questo è netta: “L’impatto sul numero di occupati ci sarà sicuramente, per questa ragione dobbiamo prepararci per formare professionalità su questo particolare settore, così da riconvertire e compensare i posti di lavoro che verranno persi”. Un altro aspetto molto delicato riguarda l’utilizzo dell’intelligenza artificiale nelle campagne elettorali. Si stima che circa il 75% della popolazione mondiale voterà nel 2024. Il proliferare di fake news e deep fake, da questo punto di vista, rappresenta un rischio per tutti: “Non solo in Europa, ma anche negli Stati Uniti, cresce la preoccupazione e ci si organizza per limitare le fake news. Uno strumento è il watermark in grado di segnalare contenuti frutto di intelligenza artificiale. Su questo, tra l’altro, c’è il disegno di legge depositato dal senatore Nicita a Palazzo Madama è una proposta di legge presentata da me a Montecitorio”. Primi passi in avanti verso una regolamentazione che possa fare da argine all’utilizzo dell’I.A. nel propalare false notizie. Ma quello che serve, conclude Ascani, “è una integrazione delle varie normative nazionali a livello globale. Immaginare una mano invisibile su questo è follia. Non lo immagina chi fa investimenti in questo settore e dobbiamo rendercene conto anche noi. Fortunatamente, l’Unione Europea è già molto avanti grazie al A.I. Act di cui si è dotata e che fissa paletti importanti”.(AGI)