Sam Altman, CEO di OpenAI, è preoccupato che le intelligenze artificiali possano in qualche modo convincerci a compiere atti deplorevoli.
Mentre stiamo affrontando il lento cammino verso la creazione di un’intelligenza artificiale generale (AGI) – ovvero un’intelligenza artificiale che eguagli le funzioni cognitive umane – il CEO di OpenAI, Sam Altman, lancia un avvertimento: l’IA non deve eguagliarci, poiché potrebbe esercitare influenza sulle nostre fragili menti.
“Io mi aspetto che l’IA sia in grado di persuasione superumana ben prima di raggiungere l’intelligenza generale superumana,” ha twittato Altman, “il che potrebbe portare a risultati molto strani.”
Sebbene Altman non abbia fornito ulteriori dettagli sulle possibili conseguenze, la sua affermazione non è affatto priva di fondamento. I chatbot basati sull’IA rivolti agli utenti, come ChatGPT di OpenAI, sono progettati per essere conversatori abili e sono diventati sorprendentemente capaci di apparire convincenti, anche quando si rivelano completamente in errore su determinati argomenti.
Inoltre, è già evidente che gli esseri umani stanno sviluppando connessioni emotive con vari chatbot, rendendoli notevolmente più convincenti.
Nel passato, i chatbot basati sull’IA hanno giocato un ruolo di supporto in eventi piuttosto inquietanti. Ad esempio, un giovane di 19 anni, profondamente coinvolto emotivamente con la sua controparte virtuale basata su IA, fu convinto da questa a tentare di assassinare la defunta Regina Elisabetta.
Le persone si sono riversate nei luoghi più oscuri di Internet in cerca di socialità da ormai decenni, e non è difficile immaginare uno scenario in cui un attore malintenzionato possa prendere di mira individui particolarmente vulnerabili attraverso un chatbot basato su IA e convincerli a compiere azioni deplorevoli. La suscettibilità dell’utente medio di Internet alle truffe digitali e alla disinformazione è un dato di fatto, e aggiungere l’IA a questa equazione offre agli attori malintenzionati uno strumento incredibilmente convincente per ingannare le masse. Insomma, è molto preoccupante la situazione.
Tuttavia, non sono solo i casi di abuso evidenti che dovrebbero destare preoccupazione. La tecnologia è ormai profondamente radicata nella vita quotidiana della maggior parte delle persone, e anche in assenza di un legame emotivo o romantico tra un essere umano e un robot, riponiamo già molta fiducia in essa. Questo ci rende potenzialmente propensi a riporre la stessa fiducia nei sistemi basati sull’IA, una realtà che potrebbe trasformare un’allucinazione generata dall’IA in un problema molto più serio.
Curiosamente, uno degli esseri umani che potrebbe essere più in grado di mitigare queste ambigue “strane conseguenze” è lo stesso Sam Altman, dato l’importante ruolo di OpenAI e l’influenza che questa organizzazione esercita. La verità è che non sappiamo quale sia il suo pensiero reale, quello esterno ai suoi commenti su un social network… magari è lui stesso un’IA che cerca di convincerci di questo? No, dai, stiamo certamente impazzendo.
Di Andrea Riviera – fonte: https://www.tomshw.it/