Oramai c’è una shitstorm al giorno, non passa giorno senza che la gogna mediatica colpisca qualcuno, più o meno noto.
“Queste ‘tempeste’ spesso finiscono con minacce e insulti, dipende poi come viene elaborato il tutto”. Lo spiega all’AGI, Walter Quattrociocchi, Professore Data Science and Complexity, a La Sapienza intervenendo sul caso della ristoratrice lodigiana che si sarebbe tolta la vita dopo essere finita al centro di una polemica sui social network per una recensione del suo ristorante giudicata “falsa” da alcuni noti commentatori.
“La piattaforma social mette tutti in grado di comunicare con tutti e in questo contesto la massa critica si crea sull’indignazione. – spiega il Professore – La polarizzazione è uno dei meccanismi più potenti dei social, anzi è una prerogativa fondamentale del business model dell’intrattenimento in generale: nell’avere qualcuno che combatte contro qualcun altro lo spettacolo è assicurato. E in questo modello ci sono vittime e carnefici. E i commenti non sono niente altro che l’espressione di questa la polarizzazione”.
“Ci si spersonalizza rispetto al tipo di attività comporta che non ha responsabilità rispetto a quello che dice, in un comportamento da branco che crea dei meccanismi che hanno ripercussioni nel tempo. Asserire, però, che la signora si sia tolta la vita per questo mi sembra un’ipotesi ancora lontana dal campo di indagine. Non credo che sia uno shitstorm sui social a determinare un suicidio, ci deve essere una struttura fragile e articolate già a monte” afferma Quattrociocchi riferendosi al caso di Giovanna Pedretti.
Alla domanda su quali meccanismi si possono attivare per contenere questi fenomeni il docente è fermo “ci sono diversi studi sulle policy di moderazione, ma lo stesso essere umano nella fase di moderazione può entrare in conflitto con un altro essere umano che sta moderando. Questo tipo di dinamiche devono intervenire su milioni di commenti e resta molto difficile capire le modalità di intervento e controllo. L’Intelligenza artificiale in questo non riesce a capire neanche il sarcasmo e il machine learning non sembra in grado di portare soluzioni efficaci. Non so se gli strumenti al momento sono in grado di arginare la questione. Rimane fermo il fatto che alcuni commenti possono rientrare nell’ambito del perseguibile penalmente, e quindi usciamo dal mondo internet”.(AGI)