Fake news, Facebook chiede normative a cui attenersi. Perché “non può essere un’azienda privata a operare un controbilanciamento tra diritti e interessi contrapposti”. La richiesta è stata avanzata dai rappresentanti in Italia dell’azienda nel corso dell’audizione informale tenuta alla Camera di fronte alle Commissioni riunite di Cultura e Trasporti della Camera. All’ordine del giorno le proposte di legge sull’istituzione di una Commissione parlamentare d’inchiesta sulla diffusione di fake news.
“Facebook – fanno presente i suoi rappresentanti – si è trovata costretta ad affrontare dilemmi etici e sociali complessi decidendo di volta in volta ciò che poteva rimanere sulla piattaforma o meno. Domande delicate a cui non crediamo sia semplice dare risposte nette e incontrovertibili”.
Per questo l’azienda “ha da tempo chiesto e auspicato lo sviluppo di nuovi quadri normativi in merito alla gestione dei contenuti dannosi online, per far sì che si garantisca allo stesso tempo che le decisioni prese riducano al minimo i danni per l’utente ma rispettando il diritto alla libertà di espressione. Preservare tale equilibrio è necessario per proteggere la natura libera e aperta di internet”.
La lotta di Facebook alle fake news
“Nel mese di marzo nel mondo – dice ancora il social – sono stati mostrati avvisi di notizia falsa su oltre 50 milioni di post, basati su 7.500 articoli di analisi realizzati da partner indipendenti di fact checking. Crediamo che alcuni contenuti vadano rimossi mentre su altri pensiamo si debba agire in modo differente. Per questo il nostro approccio si basa su tre pilastri: rimozione, riduzione e informazione”.
Facebook riassume le proprie strategie: “Rimuove tutti i contenuti illegali segnalati da giudici e autorità competenti oltre a tutti i contenuti in violazione degli standard della comunità tra cui rientra tutta la disinformazione. Eliminiamo poi la disinformazione che può danneggiare l’incolumità delle persone nel mondo reale. Il nostro approccio ai contenuti di disinformazione che non portano un danno all’incolumità delle persone – hanno aggiunto i rappresentanti – non è cambiato nel tempo e siamo convinti quindi che non spetti a una società privata come Facebook definire cosa è vero e cosa è falso“.
“Per questo – è la conclusione – per tutto quello che non è contrario alle nostre policy e non è illegale ma ci è stato segnalato come falso riduciamo la visibilità futura e la distribuzione fino all’80%, apponendo un messaggio che informa l’utente che quel contenuto è ritenuto falso. Funziona perché nel 95% dei casi quando le persone hanno visto il messaggio non hanno cliccato sul contenuto falso”.
Tra gennaio e marzo 2020 la società ha eliminato oltre 1,7 miliardi di profili falsi, di cui il 99,7% attraverso gli algoritmi di intelligenza artificiale che “hanno permesso di intervenire prima che arrivassero sulla piattaforma”.