Passano le ore, addirittura la prima giornata, e i video della strage della moschea di Christchurch, in Nuova Zelanda, continuano ad essere disponibili online. Non solo trasmessi in diretta tramite il servizio di Live Streaming lanciato da Mark Zuckerberg nel 2016, ma anche nelle riedizioni messe in rete e condivise milioni di volte come un incendio che divora una prateria in poche ore.
Le critiche non mancano. È la dimostrazione, l’ennesima dimostrazione se ancora ce ne fosse bisogno, che i colossi della tecnologia come Facebook, che devono i loro giganteschi fatturati dalla rete sociale che controllano, in realtà non controllano niente: né le fake news né tantomeno i video con contenuti come quelli trasmessi durante la tremenda strage neozelandese.
Oltre a Facebook anche Twitter e YouTube si sono attivate per rimuovere i video caricati e condivisi milioni di volte della sparatoria ripresa in tempo reale e trasmessa live, con inquadratura in soggettiva, come un allucinante e allucinato videogioco. Passano 12, 24 ore, e i contenuti (incluso il delirante manifesto dei killer) sono ancora disponibili online. E la difficoltà, la responsabilità dei social, che sono poi il motore di diffusione di questo tipo di contenuto, questa volta non passa in secondo piano. Solo ieri sera il social blu ha annunciato di aver rimosso oltre 1 milione e mezzo di immagini video sulla strage.
Il Ceo e fondatore di Facebook, Mark Zuckerberg, in passato ha già riconosciuto la difficoltà di controllare i contenuti dei 2,7 miliardi di utenti che alimentano il motore pubblicitario di Facebook, uno degli strumenti online più redditizi del pianeta. Questo però è un doppio problema. Il modello di business di Facebook, infatti, da un lato dipende dalla visualizzazione di post di persone che vengono attratte da stati emotivi di viario genere. Spesso però questo dall’altro lato ha l’effetto collaterale di amplificare notizie false e gli estremismi.
In effetti, il livestream degli omicidi mette in evidenza come la tecnologia abbia aiutato gli assassini a connettersi con persone che la pensano come loro online anche prima della strage. I siti di chat hanno agito da cassa di risonanza per le idee anti-immigrazione di tanti piccoli gruppi locali, trasformando pensieri isolati in una rete che si è coordinata.
Si dice che il presunto cecchino abbia pubblicato su Twitter e bacheche online come 8chan le sue idee anti-immigrati, inclusa la pubblicazione di un manifesto di 74 pagine. Anche dopo che le principali aziende tecnologiche si sono attivate per rimuovere il video, nei commenti online si continuano tutt’ora a trovare persone che apprezzano gli omicidi online con commenti che non lasciano adito a dubbi.
Nel 2016, quando Zuckerberg ha introdotto la funzione di live streaming di Facebook, il servizio è stato subito dominato da video innocui e infantili. Non c’è voluto molto, però, prima che la gente trasmettesse sparatorie con la polizia, omicidi e suicidi. Facebook ha deciso di implementare strategie per monitorare con controllori umani il flusso e cercare di trovare e rimuovere contenuti offensivi o minacciosi. L’anno scorso Facebook ha affermato che stava lavorando a dei chip progettati per analizzare e filtrare in modo più efficiente i contenuti video dal vivo.
Per adesso, però, si procede all’antica: qualcuno deve guardare cosa succede e alzare la bandierina rossa se il contenuto non va bene. Facebook impiega 15mila persone direttamente o (per la maggior parte) indirettamente che passano al setaccio i post per eliminare contenuti offensivi. Zuckerberg ha detto che gli algoritmi di intelligenza artificiale, che l’azienda usa già per identificare il nudismo e il contenuto terroristico, alla fine gestiranno anche la maggior parte di questo problema. Ma al momento, anche il software di intelligenza artificiale più sofisticato fatica a orientarsi in categorie in cui il contesto conta più delle singole immagini.
«Il discorso dell’odio è una di quelle aree», aveva dichiarato Monika Bickert, responsabile della gestione politica globale di Facebook, in un’intervista del giugno 2018.
Nel Regno Unito, il segretario di Stato per gli affari interni Sajid Javid ha dichiarato in un tweet che YouTube e altri dovranno impegnarsi di più per fare in modo che contenuti provenienti da settori dell’estremismo più violento e spesso vicino al terrorismo siano così facilmente raggiungibili.
Ma le perplessità sono molte. Da un lato, perché fin dalle prime ore i contenuti da togliere da Facebook erano già stati individuati e si trattava solo di raggiungere tutte le infinite copie e cancellare anche quelle. «Una volta – dice Hany Farid, senior advisor del Counter Extremism Project e un professore di informatica all’Università della California, Berkeley – che il contenuto è stato marcato come illegale, estremista o in violazione dei loro termini di servizio, non c’è assolutamente alcun motivo per cui, entro un periodo di tempo relativamente breve, questo contenuto non possa essere eliminato automaticamente. Abbiamo la tecnologia per farlo da anni».
E invece Zuckerberg «ha sempre rifiutato di affrontare il problema di fondo di Facebook Live, ovvero che semplicemente non esiste un modo responsabile per moderare un vero servizio di live streaming», dice a Bloomberg Mary Anne Franks, professore di giurisprudenza dell’Università di Miami. E aggiunge: «Facebook sapeva sin dall’inizio che il suo servizio di live streaming avrebbe avuto il potenziale per incoraggiare e amplificare il peggio dell’umanità, e deve affrontare il fatto che non ha fatto abbastanza. Ha le mani sporche di sangue».