Se anche riuscissero a filtrare nel modo giusto il 99% del materiale che viene caricato su YouTube ogni giorno, passerebbero comunque decine di milioni di video contenenti offese, violenza, fake news, violazioni di leggi e umana decenza. Il calderone che è diventato YouTube è impossibile da gestire, e a dirlo è l’amministratore delegato di Google, società che controlla il social media dei video (e che a sua volta è di proprietà della holding Alphabet).
Secondo il Ceo di Google, Sundar Pichai, infatti, YouTube è sostanzialmente diventato troppo grande per poterlo aggiustare e bloccare le immissioni di contenuti offensivi o dannosi.
Negli ultimi due anni YouTube è finito nel mirino della pubblica opinione man mano che i contenuti prodotti da chi propugna odio, violenza, crede in teorie razziste e della cospirazione, diffonde fake news e propone scene di ordinaria violenza hanno cominciato ad aumentare. A tal punto che il modo per bloccare i contenuti violenti si è ricorsi a migliaia di “filtri umani”, operatori pagati pochi dollari all’ora che, come quelli di Facebook, danno una occhiata fisicamente ai contenuti per cercare di stopparne quanti più possibili tra quelli contrari alle politiche stabilite dal Ceo di YouTube, Susan Wojcicki (sorella della ex moglie del cofondatore di YouTube, Sergey Brin, Anne).
Così, durante una intervista alla Cnn in cui Pichai in realtà stava affrontando altri temi, quando si è sentito chiedere se ci sarà mai un numero di operatori umani sufficienti per filtrare i contenuti vietati da YouTube, con un candore che probabilmente sta creando un terremoto di politica aziendale, Pichai ha affermato: «In qualsiasi sistema che opera su grandissima scala è molto difficile. Pensate al sistema delle carte di credito: c’è sempre una certa percentuale fisiologica di truffe. In tutto quello che funziona su larga scala, bisogna pensare in termini di percentuali».
Proprio parlando di percentuali, Pichai ha chiarito meglio il suo pensiero: «Siamo diventati molto più bravi nell’usare un mix di persone e macchine per filtrare i contenuti. E mettiamo di essere arrivati a capire quando il contenuto deve essere filtrato il 99% delle volte: si possono sempre trovare degli esempi di questo tipo. Il nostro obiettivo è di arrivare a una percentuale di falsi negativi bassissima, molto al di sotto dell’1%».
Pichai si dice fiducioso “che possiamo ancora fare dei progressi significativi” e che “la nostra attività di controllo migliorerà”. Ha anche aggiunto che avrebbe voluto che Google fosse stato in grado di risolvere questi problemi molti prima, dato che alcuni di questi video che inneggiano all’odio, alla violenza, al razzismo, sono online da anni e anni.
«C’è un riconoscimento collettivo del fatto che non abbiamo saputo fare la cosa giusta al momento giusto: ne siamo consapevoli e siamo consapevoli di alcune delle trappole in chi siamo caduti, e abbiamo cambiato per questo le nostre priorità» .