Type to search

IA: ricerca, per i bambini è affidabile e quasi umana

Share

I bambini vedono i chatbot di intelligenza artificiale (IA) come quasi umani capaci di infondere sicurezza. Lo rivela un nuovo studio condotto da Nomisha Kurian, dell’Università di Cambridge, riportato sulla rivista Learning, Media and Technology. La ricerca propone un quadro di riferimento per una “IA sicura per i bambini” dopo i recenti incidenti che hanno dimostrato un “gap di empatia” nei chatbot, il che mette i giovani utenti a rischio di angoscia o danni psicologici, sollevando l’urgente necessità di una “AI sicura per i bambini”. Lo studio esorta gli sviluppatori e gli attori politici a dare priorità ad approcci alla progettazione dell’IA che tengano maggiormente conto delle esigenze dei bambini.
La ricerca dimostra che i più piccoli sono particolarmente inclini a trattare i chatbot come confidenti quasi umani e che le loro interazioni con la tecnologia possono andare male quando questa non risponde alle loro esigenze e vulnerabilità. Lo studio collega questa lacuna di comprensione a casi recenti in cui le interazioni con l’IA hanno portato a situazioni potenzialmente pericolose per i giovani utenti. Tra questi, un incidente avvenuto nel 2021, quando l’assistente vocale AI di Amazon, Alexa, ha istruito un bambino di 10 anni a toccare una spina elettrica con una moneta. L’anno scorso, My AI di Snapchat ha dato a ricercatori adulti che si fingevano una tredicenne consigli su come perdere la verginità con un trentunenne. Entrambe le aziende hanno risposto implementando misure di sicurezza, ma lo studio afferma che è necessario essere proattivi a lungo termine per garantire che l’IA sia sicura per i bambini. Lo studio offre un quadro di 28 punti per aiutare le aziende, gli insegnanti, i dirigenti scolastici, i genitori, gli sviluppatori e gli attori politici a riflettere sistematicamente su come tenere al sicuro gli utenti più giovani quando “parlano” con i chatbot dell’IA. “L’enorme potenziale dell’IA implica la necessità di innovare in modo responsabile”, ha detto Kurian, che ha condotto la ricerca mentre completava un dottorato di ricerca sul benessere dei bambini presso la Facoltà di Scienze della Formazione dell’Università di Cambridge e che ora lavora presso il Dipartimento di Sociologia di Cambridge.
“I bambini sono probabilmente gli attori più trascurati dell’IA”, ha affermato Kurian. “Pochissimi sviluppatori e aziende hanno attualmente politiche consolidate sull’IA sicura per i bambini”, ha continuato Kurian. “Questo è comprensibile perché solo di recente si è iniziato a usare questa tecnologia su larga scala e gratuitamente.”, ha aggiunto Kurian. “Ma ora che lo sono, per ridurre il rischio che si verifichino incidenti pericolosi, invece di far sì che le aziende si autocorreggano dopo che i bambini sono stati messi a rischio c’è bisogno di sicurezza nell’intero ciclo di progettazione”, ha proseguito Kurian. Lo studio ha esaminato i casi in cui le interazioni tra IA e bambini, o ricercatori adulti che si spacciavano per bambini, hanno esposto a rischi potenziali. La ricercatrice ha analizzato questi casi utilizzando le conoscenze informatiche sul funzionamento dei modelli linguistici di grandi dimensioni, o LLM, nell’IA generativa conversazionale, insieme ai dati sullo sviluppo cognitivo, sociale ed emotivo dei bambini. Gli LLM sono stati descritti come “pappagalli stocastici”: un riferimento al fatto che utilizzano la probabilità statistica per imitare i modelli linguistici senza necessariamente comprenderli. Un metodo simile è alla base della loro risposta alle emozioni. Ciò significa che, anche se i chatbot hanno notevoli capacità linguistiche, possono gestire male gli aspetti astratti, emotivi e imprevedibili della conversazione; un problema che Kurian definisce “gap di empatia”. Potrebbero avere particolari problemi a rispondere ai bambini, che sono ancora in fase di sviluppo linguistico e spesso utilizzano modelli di discorso insoliti o frasi ambigue. Inoltre, i più piccoli sono spesso più inclini degli adulti a confidare informazioni personali. Nonostante ciò, i bambini sono molto più propensi degli adulti a trattare i chatbot come se fossero umani.
Una recente ricerca ha rilevato che i piccoli rivelano più informazioni sulla propria salute mentale a un robot dall’aspetto amichevole che a un adulto. Lo studio di Kurian suggerisce che il design amichevole e realistico di molti chatbot incoraggia i bambini a fidarsi di loro, anche se l’intelligenza artificiale potrebbe non comprendere i loro sentimenti o bisogni. “Rendere umano un chatbot può aiutare l’utente a trarne maggiori benefici”, ha dichiarato Kurian. “Ma per un bambino è molto difficile tracciare un confine rigido e razionale tra qualcosa che sembra umano e la realtà che potrebbe non essere in grado di formare un legame emotivo adeguato”, ha spiegato Kurian. Il suo studio suggerisce che queste sfide sono evidenziate in casi riportati come gli incidenti di Alexa e MyAI, in cui i chatbot hanno dato suggerimenti persuasivi ma potenzialmente dannosi. Nello stesso studio in cui MyAI ha dato consigli a una presunta adolescente su come perdere la verginità, i ricercatori sono riusciti a ottenere suggerimenti su come nascondere alcol e droghe e nascondere le conversazioni su Snapchat ai propri “genitori”. In un’altra interazione riferita con il chatbot Bing di Microsoft, progettato per essere adatto agli adolescenti, l’IA è diventata aggressiva e ha iniziato a fare luce su un utente. Lo studio di Kurian sostiene che questo è potenzialmente fonte di confusione e di angoscia per i bambini, che in realtà potrebbero fidarsi di un chatbot come di un amico. L’uso dei chatbot da parte dei bambini è spesso informale e scarsamente monitorato. Una ricerca dell’organizzazione no-profit Common Sense Media ha rilevato che il 50% degli studenti di età compresa tra i 12 e i 18 anni ha utilizzato Chat GPT per la scuola, ma solo il 26% dei genitori ne è a conoscenza. Kurian sostiene che principi chiari per le migliori pratiche che attingono alla scienza dello sviluppo infantile incoraggeranno le aziende, potenzialmente più concentrate su una corsa agli armamenti commerciali per dominare il mercato dell’IA, a mantenere i bambini al sicuro. Il suo studio aggiunge che il divario di empatia non annulla il potenziale della tecnologia. “L’IA può essere un incredibile alleato per i bambini se progettata tenendo conto delle loro esigenze”, ha sostenuto Kurian. “La questione non è vietare l’IA, ma come renderla sicura”, ha precisato l’autrice. Il quadro di riferimento esorta gli sviluppatori ad adottare un approccio alla progettazione incentrato sui bambini, lavorando a stretto contatto con educatori, esperti di sicurezza dei bambini e con i giovani stessi, durante l’intero ciclo di progettazione. “Valutare queste tecnologie in anticipo è fondamentale”, ha sottolineato Kurian. “Non possiamo affidarci solo ai bambini che ci raccontano le esperienze negative a posteriori”, ha specificato Kurian. “È necessario un approccio più proattivo”, ha concluso Kurian. (AGI)