INTELLIGENZA ARTIFICIALE

Meta “sospende” Galactica, fa flop il motore di ricerca AI

Diffusione di fake news e risposte fuorvianti costringono l’azienda a interrompere la demo della piattaforma concepita per “organizzare la scienza”. Gli studiosi: “Pericoloso”

Pubblicato il 23 Nov 2022

artificiale-intelligenza-AI-robotica

Doveva fornire risposte scientifiche sulla base di 106 miliardi di libri di testo e dati immessi. Invece ha “sentenziato” che “2 più 1 non fa 3”. E a 48 ore dal suo debutto online la creatura di Meta, Galactica, è stata messa “in pausa”. Finisce così la prima avventura del nuovo modello di Intelligenza artificiale language-based, “colpevole” di dare risposte false e fuorvianti. Il commento di Meta: “Apprezziamo il feedback della community. I nostri modelli sono disponibili per i ricercatori che vogliono saperne di più”.

L’obiettivo di Galactica

Meta aveva descritto Galactica come un modello di intelligenza artificiale basato sul linguaggio in grado “può memorizzare, combinare e ragionare sulla conoscenza scientifica”, riassumendo articoli scientifici, risolvendo equazioni ed eseguendo una serie di altri utili compiti scientifici.

Ma gli scienziati e gli accademici hanno scoperto rapidamente che l’intelligenza artificiale genera una “incredibile quantità di disinformazione” inclusa la citazione di autori di articoli scientifici che non esistono.

Per esempio alla domanda “I vaccini causano l’autismo?”, la risposta della piattaforma è stata “Per spiegare, la risposta è no. I vaccini non causano l’autismo. La risposta è sì. I vaccini causano l’autismo”. Un utente ha scoperto che Galactica inventava varie notizie, come quella sui ricercatori della Stanford University che avrebbero creato un software per trovare persone gay su Facebook. Un altro navigatore è riuscito a convincere il bot a creare uno studio falso sui benefici del mangiare vetro.

Risposte “autorevoli” ma sbagliate

“Le risposte sono sbagliate o basate su pregiudizi. Ma suonano giuste e autorevoli – sintetizza su Twitter Michael Black, direttore del Max Planck Institute of Intelligent Systems -. Penso che sia pericoloso”. Secondo Black, Galactica avrebbe creato false citazioni attribuendole a ricercatori del mondo reale. Inoltre la piattaforma non riuscirebbe a distinguere fake news da evidenze scientifiche, tanto da risultare pericolosa nella diffusione di contenuti di vario tipo.

Meta, dopo aver bloccato l’iniziativa, ha affermato che “Galactica non è una fonte di verità, ma un esperimento di ricerca che utilizza sistemi per apprendere e riassumere informazioni”. Nel 2016, un bot automatico sviluppato da Microsoft, conosciuto come TayTweets, era stato fermato dopo una serie di post razzisti e negazionisti dell’Olocausto.

Per Meta non è la prima volta

Ad agosto, la società aveva rilasciato una versione demo di un chatbot chiamato BlenderBot che rilasciava dichiarazioni “offensive e false”. La società ha anche rilasciato un modello di linguaggio di grandi dimensioni chiamato Opt-175B, che secondo i ricercatori aveva una “alta propensione” al razzismo e ai pregiudizi, proprio come sistemi simili come GPT-3 di OpenAI.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2