Attacchi di panico, incubi, depressione, insonnia. Disturbi comuni per chi sta dietro le quinte di Youtube e Facebook e visiona tutto il giorno foto e video caricati dagli utenti, dove circolano abusi di minori, aggressioni, atti di autolesionismo. E’ l’allarme lanciato da alcune testate anglosassoni che rivelano le condizioni di lavoro dei “moderatori” dei social.
Emerge dal documento, svelato da The Verge e dal Financial Times, inviato a gennaio ai moderatori di Youtube e Facebook, dipendenti di una società gestita da Accenture. Ai lavoratori viene richiesto di firmare un documento – “Acknowledgement” – che riconosce esplicitamente che la loro attività potrebbe causare disturbi post-traumatici da stress.
“Sono a conoscenza del fatto che il contenuto che esaminerò potrebbe essere inquietante – recita il modulo da firmare -. È possibile che la revisione di tali contenuti possa avere un impatto sulla mia salute mentale e potrebbe causare un disturbo post-traumatico da stress”. Vengono inoltre illustrati i servizi offerti dal programma WeCare di Accenture, non gestiti però da medici”.
Moderare contenuti: gli effetti collaterali
Un dipendente della struttura, che ha chiesto di non essere nominato, ha detto che i lavoratori “piangono ogni giorno” e che molti “si congedano per problemi di salute mentale, a volte per tre o sei mesi. Un ex moderatore, viene riferito, “ora dorme con una pistola accanto”.
Accenture gestisce tre siti di moderazione dei contenuti per Facebook in Europa, tra cui Varsavia, Lisbona e Dublino, dove le norme sulla sicurezza sul lavoro prevedono anche la tutela delle condizioni mentali.
Per Facebook non si tratta di un fulmine a ciel sereno. L’azienda è già al centro di azioni legali in California e Irlanda (dove ha la sede internazionale) che chiedono risarcimenti per “lesioni personali” promosse da una serie di moderatori di contenuti ospitati dalla piattaforma.
Stesso documento fornito da Accenture ai lavoratori di una struttura di moderazione contenuti di YouTube ad Austin, in Texas.
“Le big tech sanno benissimo che la moderazione dei contenuti può causare questo tipo di malattie ai suoi dipendenti – dice Cori Crider, direttore di Foxglove, organizzazione no profit britannica -. Ma la domanda è: Google e Facebook quando faranno davvero pulizia sulle loro piattaforme? Non è lecito scaricare la responsabilità sul singolo lavoratore: spetta a loro rendere il loro posto di lavoro sicuro”.
“Nessuna conseguenza per la mancata firma del documento – fa sapere Accenture -. Vogliamo però assicurarci che abbiano una chiara comprensione del lavoro che svolgono e del programma di supporto che forniamo”.
Facebook si chiama fuori dichiarando di non aver mai esaminato o approvato i moduli. Ma fa sapere di aver richiesto ai partner di offrire “ampio supporto psicologico” ai moderatori. Facebook ha aderito nel 2015 al programma di una associazione industriale, Technology Coalition, che ha proposto una serie di standard a protezione della salute mentale dei moderatori. “Ma quegli standard non sono mai stati seguiti – dice ancora Crider -. Credo che avranno problemi ad affermare che il senior management non era a conoscenza del problema”.
“Ma se lavori per sei ore al giorno su contenuti basati sull’hating, cinque giorni alla settimana, qualcosa ti succede – dice un dipendente -. Anche l’impostazione del lavoro contribuisce allo sviluppo dei disturbi. Quando ho iniziato, avevamo cinque possibili decisioni da prendere; ora dobbiamo analizzare 250 possibili combinazioni di tag. Le politiche sui contenuti cambiano ogni due settimane”.