SPONSORED CONTENT

Hate speech e contenuti online, ecco il “vademecum” di Facebook

In un white paper il social mette nero su bianco i principi da cui partire per elaborare un’efficace regolamentazione dei contenuti dannosi. E avverte: “Riconoscere alle piattaforme la responsabilità di quanto pubblicato frena l’innovazione e non assicura la sicurezza online degli utenti”

Pubblicato il 05 Mar 2020

facebook-revenge-porn-170405171635

Negli ultimi dieci anni la diffusione di Internet ha contributo a migliorare l’economia e la società nonché a spingere importanti cambiamenti politici. L’altra faccia della medaglia, però, riguarda la facilità con cui tramite la Rete è possibile veicolare e condividere contenuti dannosi, a partire dall’hate speech, passando per le fake news fino alla propaganda terroristica.

In questo scenario si è aperto il dibattito – a livello istituzionale ma anche accademico- sul ruolo delle piattaforme nella protezione dei diritti fondamentali delle persone, in primis la libertà di espressione, e della sicurezza online. Lo scorso anno il Ceo di Facebook, Mark Zuckerberg, ha invitato i governi a collaborare in vista di una nuova regolamentazione.

“È impossibile rimuovere tutti i contenuti dannosi da Internet – ha chiarito Zuckerberg – Quando le persone usano diversi servizi di condivisione, che rispondono a meccanismi diversi, è necessario un approccio più standardizzato al problema”.

Una vision portata anche sul tavolo del recente incontro con la Commissione europea. In quell’occasione Zuckerberg ha chiarito che riconoscere ai social responsabilità “editoriali” limiterebbe la capacità delle aziende di sviluppare soluzioni innovative e non servirebbe a tutelare diritti e sicurezza online.

Facebook ha pubblicato un white paper – “Charting a Way Forward: Online Content Regulation” questo il nome del documento –  che riporta alcune domande chiave che i regolatori si dovrebbe porre di fronte alla necessità di definire un quadro normativo efficace a risolvere il problema, ma allo stesso sostenibile per le piattaforme.

Le quattro domande chiave

In che modo la regolamentazione dei contenuti può raggiungere l’obiettivo di ridurre la diffusione del linguaggio d’odio, preservando al contempo la libertà di espressione?

Sono necessari – avverte Facebook – sistemi per la segnalazione dei contenuti di facile utilizzo o una supervisione esterna delle policies e delle azioni messe in campo, richiedendo una reportistica periodica. Questo permetterebbe ai governi e utenti di avere a disposizione tutte le informazioni di cui hanno bisogno per giudicare gli sforzi dei social.

In che modo le norme possono migliorare l’affidabilità delle piattaforme Internet?

Le autorità di regolamentazione potrebbero richiedere alle aziende di rispondere a determinate richieste: la pubblicazione, ad esempio, degli standard di contenuto, la garanzia di un consulto con gli stakeholder allorché si apportino modifiche significative ai suddetti standard o, ancora, la creazione di un canale affinché gli utenti possano presentare ricorso contro l’avvenuta rimozione del contenuto oppure contro la non rimozione.

La regolamentazione dovrebbe imporre alle società di Internet di raggiungere determinati performance target?

Le aziende potrebbero essere incentivate a raggiungere obiettivi specifici come quello di impegnarsi a mantenere sotto una soglia concordata i contenuti che vìolano gli standard.

La regolamentazione dovrebbe definire quali siano da considerare “contenuti dannosi”?

Leggi che limitano la libertà parola sono generalmente in capo a forze dell’ordine e tribunali. La moderazione dei contenuti su Internet è risponde a logiche diverse. E soprattutto complesse. In questo senso i governi dovrebbero elaborare regole in grado di affrontare questa complessità; regole che riconoscano le preferenze dell’utente e la differenza tra i vari servizi Internet e che possano essere applicate su larga scala, consentendo flessibilità in tutte le lingue e contesti.

Linee guida per la futura regolamentazione

Lo sviluppo di soluzioni normative dovrebbe coinvolgere non solo i legislatori, le aziende e la società civile, ma anche gli utenti delle piattaforme online. Partendo da questo presupposto, Facebook ha messo nero su bianco alcuni principi guida, ispirati a quanto imparato nella sua lotta contro i contenuti dannosi, e che potrebbero rappresentare una “bussola” per le azioni di regolamentazione.

Incentivi. Pretendere l’affidabilità dei sistemi e delle procedure di moderazione dei contenuti è il modo migliore per incentivare le aziende abilanciare principi come la sicurezza, la privacy e la libertà di espressione.

La natura globale di Internet. Qualsiasi approccio normativo nazionale dovrebbe tenere in considerazione la dimensione globale di Internet e l’importanza delle comunicazioni transfrontaliere. Per questo le norme dovrebbero mirare ad aumentare l’interoperabilità tra i regolatori.

Libertà di espressione. Oltre a rispettare l’articolo 19 dell’Iccpr (International Covenant on Civil and Political Rights) i regolatori dovrebbero considerare gli impatti delle loro decisioni sulla libertà di espressione. L’articolo 19 stabilisce che “ognuno deve avere il diritto ad esprimere le proprie opinioni senza interferenze”.

Tecnologia. I regolatori dovrebbero considerare le potenzialità e i limiti della tecnologia come strumento di moderazione dei contenuti e garantire alle aziende di Internet la flessibilità necessaria per innovare. Una tecnologia che funziona per una particolare piattaforma o tipo di contenuto può essere meno efficace, quando non controproducente, se applicata altrove.

Principio di proporzionalità. Le autorità di regolamentazione dovrebbero tenere conto della gravità del contenuto dannoso in questione, delle implicazioni legali e anche degli sforzi già messi in campo dai social.  Se ben progettato – secondo Facebook – il nuovo quadro regolatorio può diventare un assist allo sviluppo dell’economia di Internet definendo anche una modalità di collaborazione nuova tra governi, aziende e società civile. Se progettate male, però, le norme avrebbero effetti negativi soprattutto sulla sicurezza online degli utenti nonché sulla tutela della libertà d’espressione e sulla capacità di innovare delle aziende. “Speriamo che questo white paper aiuti a stimolare il dibattito sulla regolamentazione dei contenuti online”, auspica Facebook che annuncia la pubblicazione di documenti simili sul tema delle elezioni e della privacy nei prossimi mesi.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati