OpenAI mette a segno la sua prima acquisizione comprando Global Illumination. “L’intero team si è unito a OpenAI per lavorare sui nostri prodotti principali, tra cui ChatGpt”, spiega la società in un blog post dove però non sono forniti ulteriori dettagli sull’operazioni.
Il know how acquisito con Global Illumination
“Global Illumination è un’azienda che ha sfruttato l’intelligenza artificiale per costruire strumenti creativi, infrastrutture ed esperienze digitali. Il team ha già progettato e realizzato prodotti per Instagram e Facebook e ha dato un contributo significativo anche a YouTube, Google, Pixar, Riot Games e altre importanti aziende. Siamo entusiasti dell’impatto che avranno qui in OpenAI”.
Global Illumination, con sede a New York, è stata fondata nel 2021 da Thomas Dimson, Taylor Gordon e Joey Flynn, che in precedenza hanno tutti lavorato in Instagram. In particolare, stando a quanto dichiarato sul suo sito web personale, Dimson ha costruito parte del codice originale per gli algoritmi di classificazione dei contenuti di Instagram.
Più di recente Global Illumination si è occupata di tecnologie open-source legate alla produzione di giochi online.
Ora OpenAI punta a sviluppare Gpt-4 per la moderazione dei contanuti
In questi giorni OpenAI ha annunciato un’altra importante novità. Il gruppo sta lavorando per adattare il modello linguistico multimodale Gpt-4 e trasformarlo in uno strumento capace di moderare i contenuti pubblicati online in base alle policy delle varie piattaforme che li ospitano.
“La moderazione dei contenuti richiede uno sforzo meticoloso, sensibilità, una profonda comprensione del contesto e un rapido adattamento a nuovi casi d’uso, il che la rende impegnativa e dispendiosa in termini di tempo”, spiega OpenAI nel blog post dedicato al tema. “Tradizionalmente, l’onere di questo compito è ricaduto sui moderatori umani che setacciano grandi quantità di contenuti per filtrare il materiale tossico e dannoso, supportati da modelli di apprendimento automatico più piccoli e verticali. Il processo è intrinsecamente lento e può comportare uno stress mentale per i moderatori umani. Stiamo esplorando l’uso di large language model per affrontare queste sfide. I nostri modelli linguistici di grandi dimensioni, come Gpt-4, sono in grado di comprendere e generare il linguaggio naturale, rendendoli applicabili alla moderazione dei contenuti. I modelli possono esprimere giudizi di moderazione in base alle linee guida fornite loro”.
Con questo sistema, il processo di sviluppo e personalizzazione delle policy sui contenuti dovrebbe ridursi da mesi a ore. Una volta scritte le linee guida, gli esperti di policy possono creare un set di golden data identificando un piccolo numero di esempi e assegnando loro delle etichette in base alla policy. A quel punto Gpt-4 legge la policy e assegna le etichette allo stesso set di dati, senza vedere le risposte. Esaminando le discrepanze tra i giudizi di Gpt-4 e quelli di un essere umano, gli esperti di policy possono chiedere al modello di fornire un ragionamento dietro le sue etichette, analizzare l’ambiguità nelle definizioni della policy, risolvere la confusione e fornire ulteriori chiarimenti nella policy. Le fasi 2 e 3 possono essere ripetute fino a quando non si è soddisfatti della qualità della policy.
Un processo iterativo che, secondo OpenAI, produrrà politiche di contenuto raffinate che potranno essere tradotte in classificatori, consentendo la distribuzione delle policy stesse e lo sviluppo di una moderazione automatizzata dei contenuti su scala.