Non solo la lotta alle fake news, ma anche il contrasto a linguaggio violento, insulti e troll, i disturbatori in rete. Google scende in campo contro i commenti tossici e schiera l’intelligenza artificiale: il motore di ricerca ha messo a punto una tecnologia testata insieme al New York Times e Wikipedia. Si chiama Perspective e aiuta i media ad individuare i commenti violenti alle notizie online.
Sviluppata , all’interno dell’incubatore di Google Jigsaw, Perspective rivede i commenti e assegna loro un punteggio basato su quanto siano simili a commenti che gli utenti hanno indicato come “tossici” o tali da spingere le persone ad abbandonare la conversazione. Per imparare a identificare un linguaggio potenzialmente ingiurioso, Perspective ha esaminato decine di migliaia di commenti che sono stati etichettati manualmente da revisori umani. Ogni volta che Perspective trova nuovi esempi di commenti potenzialmente offensivi, o la sua valutazione viene corretta dagli utenti, migliora la capacità di valutare i commenti in futuro.
Gli editori possono scegliere cosa fare con le informazioni che ottengono da Perspective. Ad esempio, un editore potrebbe decidere di segnalare i commenti ai propri moderatori in modo che questi li rivedano e decidano se includerli o meno in una conversazione. Oppure, l’editore potrebbe utilizzare questo strumento per aiutare le persone della sua community a capire l’impatto di quanto stanno scrivendo, ad esempio permettendo agli utenti che commentano di vedere il potenziale di “tossicità” dei propri commenti mentre li stanno scrivendo. Ancora, gli editori potrebbero anche solo permettere ai lettori di ordinare i commenti in base a quanto sono offensivi, facilitando così l’individuazione di conversazioni interessanti nascoste in mezzo a quelle offensive.
“Abbiamo testato una versione di questa tecnologia con il New York Times, dove c’è un team che controlla e modera ogni commento prima che venga pubblicato, revisionando oltre 11mila commenti ogni giorno – spiega Jared Cohen, Presidente di Jigsaw – Sono davvero moltissimi commenti, troppi per essere letti da un solo team. E infatti il Times offre la possibilità di commentare solo sul 10% circa dei propri articoli. Abbiamo lavorato insieme per educare dei modelli che consentano ai moderatori del Times di selezionare i commenti più velocemente e speriamo che questo possa aumentare il numero di articoli commentabili”.
Perspective si aggiunge alla libreria Open Source di TensorFlow e alla Google Cloud Machine Learning Platform come una ulteriore risorsa di machine learning che Google rende disponibile per gli sviluppatori. Questa tecnologia è ancora in fase di apprendimento, ma proprio questo rende il machine learning unico: anche se i modelli sono complessi, continueranno a migliorare nel tempo. Quando Perspective comincerà ad essere usato da un editore, sarà esposto a un maggior numero di commenti, sviluppando così una migliore comprensione di cosa rende certi commenti offensivi.
“Mentre miglioriamo la tecnologia, stiamo anche lavorando per ampliarla – prosegue Cohen – Il nostro primo modello è pensato per identificare il linguaggio offensivo, ma nel corso del prossimo anno ci piacerebbe avviare nuove collaborazioni per offrire modelli che funzionino anche in lingue diverse dall’inglese e che siano capaci di identificare commenti che siano attacchi personali oppure fuori tema”. La soluzione è disponibile gratuitamente da oggi per la lingua inglese, ed è inizialmente rivolta agli editori.