Una ex moderatrice di contenuti su Facebook ha fatto causa al social di Mark Zuckerberg, accusandolo di non averla tutelata dal trauma derivante dal dover vedere certe tipologie di immagini, come violenze e abusi su minori. In una denuncia depositata nei giorni scorsi presso un tribunale californiano – racconta il Guardian – la donna, che si chiama Selena Scola, afferma di soffrire di disordini da stress post traumatico a causa di una esposizione costante e non mitigata a immagini altamente tossiche ed estremamente inquietanti sul luogo di lavoro.
Leggi anche: L'inchiesta che ha raccontato come avviene la moderazione dei contenuti di Facebook
Secondo il legale della Scola, i moderatori sono "bombardati" ogni giorno da "migliaia di video, immagini e trasmissioni in diretta di abusi sessuali su minori, stupri, torture, bestialità, decapitazioni, suicidi e omicidi", senza avere una formazione sufficiente su come gestire il disagio che ne consegue. "Facebook – prosegue l'avvaco – sta ignorando il proprio dovere di garantire un posto di lavoro sicuro, e crea invece una porta girevole di dipendenti che sono irrimediabilmente traumatizzati da ciò che vedono sul lavoro".
Il social – in un documento diffuso nel luglio scorso – aveva invece affermato di offrire ai propri dipendenti un supporto psicologico e altri benefit legati a salute e benessere.
Le squadre che lavorano su sicurezza e protezione sul social – stando a quanto dichiarato dalla società americana – quest'anno raddoppieranno di dimensioni arrivando a quota 20.000. Oltre al team, già in crescita, dei 7500 revisori attualmente impiegati verranno coinvolti, un mix di dipendenti a tempo pieno, appaltatori e aziende con cui il colosso della Silcon Valley già collabora. "Questo – si legge sul documento – ci consente di coprire ogni fuso orario e oltre 50 lingue. I revisori provengono da diversi background, riflettono la diversità della nostra comunità e portano una vasta gamma di esperienze professionali, dai veterani agli ex lavoratori del settore pubblico".
I "Facebook files", ossia le guide fornite ai moderatori dal colosso del web che stabiliscono ciò che è ammesso o meno sulle nostre bacheche, sono chiare. Prevedono la rimozione di tutti i contenuti che possono urtare la sensibilità degli utenti: si va dalle minacce alla protezione della proprietà intellettuale passando per contenuti di nudo, di incitamento all’odio (lo sterminato perimetro del cosiddetto hate speech) fino a contenuti violenti e immagini forti sui quali spesso il riconoscimento automatico delle immagini, cioè l’intelligenza artificiale della piattaforma, lascia a desiderare. Ed è proprio in questi casi che si rende necessario l'intervento dei moderatori.
Leggi anche: "Costretti a vedere tonnellate di pornografia". Le confessioni di una moderatrice di Facebook
La compagnia ha affermato di compiere già al principio un'accurata selezione delle persone giudicate capaci di affrontare le difficoltà che questo tipo di lavoro comporta. "Non è un lavoro per tutti – si legge in un documento – per ottenere il miglior risultato, è importante assumere persone in grado di gestire le inevitabili sfide che il ruolo presenta. Mentre cerchiamo competenza linguistica e competenza culturale, controlliamo anche la resilienza. Ciò significa, ad esempio, che esaminiamo la capacità di un candidato di occuparsi di immagini violente".
La formazione per tutti i revisori, inclusi i dipendenti a tempo pieno, gli appaltatori e le aziende partner, comprende tre fasi:
Vedi: Facebook ha di nuovo problemi con i moderatori
Fonte: innovazione agi