“Mantenere le persone al sicuro su Facebook è la cosa più importante che facciamo. Lavoriamo duramente per rendere Facebook più sicuro possibile pur consentendo libertà d’espressione. È qualcosa che prendiamo molto sul serio”. È la secca replica del social network alle rivelazioni del Guardian, che ha svelato le regole e le linee guida segrete utilizzate da Menlo Park per la moderazione di argomenti sensibili sulla piattaforma, dal terrorismo alla pornografia. Il quotidiano britannico è entrato in possesso di un centinaio di manuali su come moderare i contenuti più delicati, cioè quelli che contengono violenza, razzismo, terrorismo, odio e pornografia.
L’inchiesta del giornale paventa il rischio che Facebook non sia effettivamente in grado di controllare i post dei suoi quasi 1,94 miliardi di utenti, perché “cresciuto troppo in fretta, raggiungendo dimensioni enormi”. Vista la mole di contenuti in molte situazioni i dipendenti di Facebook devono scegliere se l’immagine sia appropriata in meno di 10 secondi. Oggi Facebook, scrive il Guardian, “somiglia più ad un megaeditore che non ad una semplice piazza virtuale, dove la gente si incontra per caso dopo anni e fa quattro chiacchiere. È fonte di notizie, una rete di scambi. Gestisce tanta parte delle novità che attraversano il mondo più avanzato. È, potenzialmente, un grande censore se non un Grande Fratello”.
Ad inizio del mese in corso il social network era finito al centro di un duro rapporto del Parlamento inglese, che puntava l’indice contro “i più grandi e ricchi tra i social media che vergognosamente continuano a non adottare azioni sufficienti per affrontare il flusso di contenuti illegali o pericolosi, per raggiungere standard socialmente appropriati e garantire la tutela degli utenti”.
Interpellate dal Guardian, fonti di Facebook hanno risposto che esistono e vengono usati alcuni software per intercettare alcuni tipi di contenuto grafico prima che entrino nel circuito, ma che “si vuole che la gente sia messa in condizione di discutere gli avvenimenti attuali e globali, quindi talvolta ha la sua importanza il contesto in cui viene condivisa un’immagine violenta”. Ad esempio, nel capitolo dedicato alle rappresentazioni del “terrore della guerra” adesso sono accettate alcune “eccezioni di importanza informativa”.
Monika Bickert, head of Global Policy Management di Facebook, ha ricordato che “Mark Zuckerberg di recente ha annunciato che nel corso del prossimo anno aggiungeremo 3 mila persone al nostro team di operazioni nel mondo (4.500 i dipendenti attuali) per rivedere milioni di segnalazioni che riceviamo ogni settimana e per migliorare il lavoro in modo da farlo più velocemente”. La manager di Menlo Park aggiunge che gli sforzi contro i contenuti ricchi di odio e violenza non passano solo dall’aumento della forza lavoro: “Stiamo anche realizzando strumenti migliori per mantenere la nostra comunità al sicuro – sottolinea Bickert -. Renderemo più semplice segnalarci i problemi e più rapido per i nostri moderatori determinare quali post violano i nostri standard. Semplificheremo anche il processo con cui possono contattare le forze dell’ordine se qualcuno ha bisogno di aiuto”.