L’algoritmo che rileva l’infelicità sui social


AGI – Un algoritmo in grado di identificare i bisogni di base degli utenti, dal testo e dalle immagini che condividono sui social network, è stato realizzato dai ricercatori dell’Universitat Oberta de Catalunya (Uoc) per aiutare gli psicologi a diagnosticare possibili problemi di salute mentale. Lo studio, pubblicato sulla rivista Ieee Transactions on Affective Computing, ha anche suggerito che gli utenti di lingua spagnola hanno maggiori probabilità di menzionare problemi di relazione quando si sentono depressi rispetto a coloro che parlano inglese.

Secondo la teoria della scelta di William Glasser, ci sono cinque bisogni fondamentali che sono centrali per tutto il comportamento umano: sopravvivenza, potere, libertà, appartenenza e divertimento.

Queste esigenze hanno anche un’influenza sulle immagini che scegliamo di caricare sui social network come Instagram, Facebook e Twitter. Il team di ricerca ha trascorso due anni lavorando su un modello di deep learning che identifica i cinque bisogni descritti da Glasser, utilizzando dati multimodali come immagini, testo, biografia e geolocalizzazione.

“Il modo in cui ci presentiamo sui social media può fornire informazioni utili su comportamenti, personalità, prospettive, motivazioni e bisogni”, ha spiegato Mohammad Mahdi Dehshibi, che ha condotto questo studio all’interno del gruppo AI for Human Well-being (Aiwell), che appartiene al gruppo Facoltà di Informatica, Multimedialità e Telecomunicazioni presso la Uoc.

Attingendo a reti neurali e database, gli esperti hanno addestrato un algoritmo per identificare il contenuto delle immagini e per categorizzare il contenuto testuale assegnando diverse etichette proposte dagli psicologi, che hanno confrontato i risultati con un database contenente oltre 30mila immagini, didascalie e commenti.

Il problema della standardizzazione delle etichette ottenute da testi e immagini è stato risolto con un codebook, Bag-of-Content, che hanno descritto come una “mappa semantica dal dominio visivo a quello testuale”. Secondo i ricercatori, gli esperimenti “mostrano un’accuratezza promettente e informazioni complementari tra segnali visivi e testuali”.

Source: agi