At&t, Nestle, Epic Games, Disney e Hasbro hanno cancellato le loro campagne di marketing su YouTube dopo che uno youtuber ha portato (nuovamente) alla luce la facilità con cui account gestiti da persone e organizzazioni collegate al mondo della pedofilia entrano in azione nella piattaforma video cercando materiali che hanno come protagonisti bambini e bambine e pubblicando commenti offensivi. Spesso le ads dei brand compaiono accanto ai video e ai commenti sfruttati dai predatori del web. Già nel 2017 la piattaforma di Google era stata accusata di non riuscire a controllare la pedopornografia e altri contenuti e comportamenti illeciti o inappropriati.
“Finché Google non riuscirà a proteggere il nostro brand da qualunque tipo di contenuto offensivo, abbiamo deciso di rimuovere tutta la nostra pubblicità da YouTube”, ha riferito un portavoce di At&t. L’azienda americana delle telecomunicazioni, come diversi altri marchi, aveva annullato tutto il suo budget pubblicitario per YouTube nel 2017 dopo aver saputo che le sue ads apparivano accanto a contenuti offensivi, tra cui propaganda terroristica, e aveva ripreso a spendere sulla piattaforma video solo lo scorso gennaio.
Da parte sua Hasbro, produttore di giochi e giocattoli, ha fatto sapere di aver per ora sospeso l’intero advertising su YouTube e di essersi rivolto a Google/YouTube “per capire quali azioni stanno intraprendendo per affrontare il problema e evitare che tali contenuti appaiano più sulla loro piattaforma”.
Epic Games, la società dei videogiochi nota per il titolo Fortnite, e il colosso alimentare Nestle hanno cancellato parte dell’advertising, mentre Disney ha per ora solo sospeso la sua campagna di marketing su YouTube. Altri inserzionisti, tra cui Grammarly e Peloton, non hanno cancellato le ads ma si sono rivolte al colosso di Mountain View per chiarimenti.
Il video postato dallo youtuber Matt Watson ha denunciato la facilità con cui i pedofili, sfruttando le stesse funzionalità di YouTube, come i suggerimenti e la ricerca, riescono a trovare video con protagonisti i minori, a salvare specifiche immagini e a inserire commenti aberranti. Watson ha anche mostrato come, accanto ai video e commenti offensivi, apparissero le ads dei grandi brand.
YouTube ha risposto a Watson ringraziandolo per la denuncia e assicurando un intervento immediato. Google ha fatto sapere che “qualunque contenuto, inclusi i commenti, che possano mettere a rischio i minori sono aberranti e abbiamo precise policy che li vietano su YouTube”. L’azienda, riporta AdWeek, ha anche inviato una nota agli inserzionisti in cui illustra le modifiche che sta adottando per proteggere il pubblico dei più giovani.
In particolare, sono già stati rimossi oltre 400 canali e disabilitati i commenti su decine di milioni di video; le attività illecite sono state denunciate alle autorità. YouTube sta anche rendendo più difficile per “i contenuti innocenti attrarre malintenzionati” tramite cambiamenti negli algoritmi di discovery, si sta assicurando che le ads non appaiano accanto a video che attraggono comportamenti illeciti e sta rimuovendo gli account “appartenenti a attori malevoli”.
Lo scorso settembre Google ha annunciato un nuovo sistema basato sull’intelligenza artificiale che può analizzare grandi database di immagini per trovare quelle pedopornografiche. Il lavoro su strumenti informatici contro la pedofilia in rete, ha detto Google, è iniziato all’inizio degli anni 2000, ma questo algoritmo di AI sembra avere un’efficacia maggiore del 700% nel trovare le immagini rispetto a quelli messi in campo in precedenza.