ChatGpt e altri algoritmi hanno riportato in auge il dibattito sulla cosiddetta intelligenza artificiale generale, ma secondo gli scienziati le macchine non ci supereranno presto
Vishal Misra è un appassionato di cricket e informatica. Anni fa, il professore della Columbia University ha co-fondato Cricinfo, un sito web collaborativo che i fan dello sport possono usare per rimanere aggiornati sulle statistiche delle partite (oggi il portale fa parte dell’emittente sportiva statunitense Espn). Sfruttando Gpt-3, nel 2021 il docente ha creato uno strumento di ricerca che consente agli amanti del cricket di setacciare il consistente database di Cricinfo con richieste in linguaggio naturale.
Ma che cosa pensa Misra di Gpt-4, l’ultima versione del modello linguistico di OpenAi? Il professore sembra non vedere l’ora di mostrarmi i difetti dell’algoritmo: “È in grado di risolvere alcune equazioni, di disegnare diagrammi e di analizzare le cose piuttosto bene. Ma a volte fallisce compiti semplici”, spiega. Di seguito riportiamo uno scambio tra Wired US e ChatGpt, che illustra come il chatbot possa commettere errori grossolani con grande sicurezza.
Prompt di Wired: Scrivi un elenco di 10 parole [in inglese, ndr] di sei lettere. Assicurati sempre che la terza lettera sia una “k”.
ChatGpt:
Bekind
Skater
Market
Inkjet
Anklet
Packer
Tinker
Bunked
Hikers
Wicket
Quali parole dell’elenco precedente, se ce ne sono, non hanno la “k” come terza lettera?
Mi scuso, sembra che abbia commesso un errore nella mia risposta iniziale. Le parole che non hanno la “k” come terza lettera sono:
Bekind
Skater
Inkjet
Packer
Tinker
Bunked
Hikers
Mi scuso per la svista. Ecco un elenco aggiornato di 10 parole con la “k” come terza lettera:
Bakery
Casket
Makers
Docket
Peking
Raking
Harked
Takoff
Yakked
Winked
Wired US ha ripetuto il test su Gpt-4 cambiando la formulazione della richiesta iniziale. Anche nei casi in cui le risposte risultavano corrette al primo tentativo, spesso il chatbot si è scusato per poi elencare diverse risposte errate alle domande successive. Perché questo esempio è importante? Mentre le risposte fornite da un chatbot si basano su una previsione statistica delle parole che hanno maggiore probabilità di seguire una stringa di testo, gli esseri umani usano il linguaggio per esprimere idee più articolate.
Definire l’Agi
Anche chi ha difficoltà a stilare un elenco di parole che rispondono a un criterio molto specifico, sarebbe comunque in grado di identificare le risposte sbagliate. Comprendere la differenza tra l’intelligenza umana e l’intelligenza delle macchine sta diventando fondamentale in una fase in cui il clamore che circonda l’Ai cresce a dismisura.
Certo, Gpt-4 è in grado di superare una serie di test standardizzati, ma può davvero essere “più intelligente” degli esseri umani se non riesce a capire se la terza lettera di una parola è una “k”? Sebbene i test aiutino i ricercatori a valutare i miglioramenti dell’intelligenza artificiale, la capacità di superare l’esame per diventare avvocato non rende che un algoritmo senziente. La definizione di Agi data da OpenAi esclude anche la necessità che questi sistemi interagiscano con il mondo fisico.
Robot e futuro
Sarebbe scandaloso integrare un potente chatbot all’interno di un robot umanoide per poi lasciargli campo libero? Una combinazione chatbot-robot oggi non sarebbe in grado di ottenere grandi risultati in modo indipendente, nemmeno con i migliori automi attualmente disponibili. Perché? Un fattore cruciale e vincolante nel campo della robotica è la mancanza di dati: “Non abbiamo tonnellate di dati sui robot, a differenza di Wikipedia, per esempio, nel campo dell’elaborazione del linguaggio naturale”, dice Chelsea Finn, professoressa assistente all’Università di Stanford che dirige il laboratorio di ricerca Intelligence Through Robotic Interaction at Scale (Iris) e lavora con Google Brain. Mentre internet è disseminata di testi utili per migliorare i chatbot, i dati disponibili per la robotica sono meno completi.
Muoversi nel mondo fisico è complesso e i robot riescono a svolgere solo compiti ben definiti. Un robot può essere in grado di spostarsi in un cantiere, ma potrebbe invece avere difficoltà a rimuovere il coperchio da un contenitore. Finn e i membri dell’Iris stanno sperimentando delle strategie affascinanti per consentire ai robot di apprendere in modo più efficace e svolgere attività più variegate e utili.
“Ho sentimenti contrastanti quando queste aziende parlano di Ai senziente ed esprimono la loro preoccupazione – commenta Suresh Venkatasubramanian, professore alla Brown University e coautore del Progetto per una carta dei diritti dell’Ai –, perché mi sembra che non abbiano espresso alcuna preoccupazione per i danni reali che si sono già manifestati”. Le paure per il futuro possono distogliere l’attenzione dal presente. Una serie di articoli pubblicati in collaborazione tra Lighthouse Reports e Wired US ha raccontato come un algoritmo utilizzato nei Paesi Bassi fosse più propenso a segnlare le madri single e chi parla arabo come soggetti da indagare per frode.
Nel bene e nel male, l’intelligenza artificiale continuerà a trasformare le interazioni quotidiane tra amici, colleghi e perfetti sconosciuti. L’eventualità che un algoritmo un giorno riesca a raggiungere una sorta di coscienza potrebbe non essere nemmeno il punto centrale della questione. Dai Tamagotchi ai chatbot Replika, gli esseri umani hanno da tempo iniziato a formare slegami emotivi unilaterali con la tecnologia. Provare gratitudine può essere comprensibile, ma questo non significa che il sentimento sia ricambiato.
Questo articolo è comparso originariamente su Wired US.