YouTube ha saputo conquistare nel tempo il ruolo di piattaforma video di riferimento, soprattutto per i più giovani, aiutandoli a rimanere in contatto con i propri interessi e le proprie passioni. Ma con il passare del tempo emerge sempre con maggiore chiarezza che accanto al lato positivo ce n’è anche uno negativo, quello che mette gli utenti e gli inserzionisti a rischio di venire a contatto o di essere associati a contenuti o commenti sconvenienti, in alcuni casi anche violenti o contigui con il mondo della pedofilia. Nelle scorse settimane proprio una serie di commenti pubblicati da account gestiti da organizzazioni collegate al mondo della pedofilia, a corredo di video che riprendevano bambini nelle loro attività quotidiane, hanno causato la fuga di alcuni grandi brand di inserzionisti pubblicitari dalla piattaforma. Una situazione così spiacevole da richiedere l’intervento diretto della Ceo della piattaforma di casa Google, Susan Wojcicki, che in un post sul blog aziendale ha mostrato di essere ben consapevole della situazione e dei rischi che comporta, e di voler correre immediatamente ai ripari con una serie di provvedimenti per rendere YouTube un luogo più sicuro. Per riuscirci un ruolo fondamentale sarà giocato dal machine learning nell’analisi dei contenuti, che la società ha lanciato da giugno e che sta iniziando a dare i primi risultati. Ma anche aumentando l’attenzione sulle pubblicitarie, con criteri più stringenti per garantire gli inserzionisti: “Stiamo intraprendendo queste azioni perché è la cosa giusta da fare – scrive Wojcicki – Con l’evolvere e il modificarsi delle sfide per la nostra piattaforma, i metodi di intervento dovranno evolvere per rispondere nel migliore dei modi. Qualunque sia la sfida, il nostro impegno a contrastarla sarà costante e senza esitazioni. Prenderemo tutte le misure necessarie per proteggere la nostra community e assicurarci che YouTube continui a essere un luogo in cui i creator, gli inserzionisti e gli utenti possano crescere”.
“Ho potuto vedere come la nostra piattaforma aperta sia stata luogo di impulso per la creatività, l’apprendimento e l’accesso all’informazione – spiega la Ceo nel post – Ma ho anche visto da vicino che può esserci un’altra faccia, più preoccupante, dell’apertura di YouTube. Ho visto come alcuni malintenzionati sfruttano la nostra apertura per indurre in errore, manipolare, molestare o persino danneggiare”.

Tra le iniziative messe in campo nel tempo per proteggere la piattaforma da contenuti violenti o estremisti Wojcicki cita “nuovi sistemi per combattere le minacce emergenti e in evoluzione”, tra le quali “una nuova e potente tecnologia di machine learning per scalare gli sforzi dei nostri moderatori umani per eliminare video e commenti che violano le nostre norme”. Un processo in cui gli uomini continueranno ad avere un ruolo di primo piano: “Da giugno – spiega Wojcicki – i nostri team di trust and safety hanno rivisto manualmente circa 2 milioni di video con contenuti violenti di estremisti, contribuendo ad addestrare la nostra tecnologia di machine learning per identificare video simili in futuro”. In arrivo anche nuovi strumenti di moderazione sui commenti: “Nelle scorse settimane abbiamo utilizzato il machine learning per aiutare i nostri team di revisione a trovare e chiudere centinaia di account e rimuovere centinaia di migliaia di commenti. I nostri team – prosegue – lavorano anche a stretto contatto con Ncmec, Iwf e altre organizzazioni che si occupano della sicurezza dei bambini in tutto il mondo per segnalare comportamenti e account di predatori sessuali alle agenzie che su questi temi si occupano di far rispettare le leggi. Continueremo a far crescere in maniera significativa i nostri team nel prossimo anno, con l’obiettivo di portare a oltre 10.000 nel 2018 il numero totale delle persone che in Google lavorano per indirizzare i contenuti che potrebbero violare le nostre norme. Nello stesso tempo, stiamo espandendo la rete di accademici, gruppi di lavoro all’interno dell’industry ed esperti – aggiunge – da cui possiamo imparare e che ci possano aiutare a comprendere meglio le problematiche emergenti”.
Grazie al machine learning, implementato a giugno e via via più efficace, la piattaforma – secondo i dati forniti da Wojcicki – ha rimosso oltre 150.000 video per estremismo violento, moltiplicando così per cinque la propria efficacia rispetto a prima che la tecnologia venisse introdotta. “Oggi, il 98% dei video che rimuoviamo per estremismo violento sono flaggati dai nostri algoritmi di machine learning – spiega la Ceo di YouTube – e i nostri progressi nel machine learning ci consentono oggi di rimuovere circa il 70% dei video di estremismo violento entro 8 ore da quando vengono caricati e circa la metà in 2 ore. E la nostra rapidità continua a crescere. Alla luce di questi risultati positivi, abbiamo cominciato ad addestrare la tecnologia di machine learning su altre tipologie di contenuto problematico, inclusi la sicurezza dei bambini e l’istigazione all’odio”.