I clienti del cloud Azure di Microsoft saranno presto in grado di accedere a ChatGpt, il chatbot di Ai generativa che sta rivoluzionando l’interazione uomo-macchina con la sua intelligenza artificiale conversazionale in grado di produrre immagini, testi, video e codice informatico. L’azienda lo ha annunciato con un blog post firmato da Eric Boyd, Corporate vicepresident Ai platform. Si tratta di un’offerta as-a-service dal cloud Azure parte del “continuo impegno” di Microsoft “a democratizzare l’Ai” e che si inscrive nella esistente partnership con OpenAi, il laboratorio di ricerca sull’intelligenza artificiale che ha sviluppato il chatbot ChatGpt.
Microsoft ha anche annunciato la disponibilità generale del servizio Azure OpenAi “per consentire a un maggior numero di aziende e sviluppatori di accedere ai modelli di AI più avanzati al mondo”. La disponibilità è limitata ai clienti che soddisfano e aderiscono agli standard per i principi di Ai responsabili ed etici che Microsoft ha stabilito e pubblicato. I clienti dovranno fare richiesta di accesso descrivendo il caso d’uso o l’applicazione prevista prima di ottenere l’accesso al servizio.
L’integrazione con ChatGpt
L’integrazione con ChatGpt era attesa: Microsoft ha contribuito a finanziare il lab di Palo Alto con un miliardo di dollari e ChatGpt è stato testato su Azure. Ora l’annuncio ufficiale di Boyd: presto sarà disponibile per i clienti del cloud di Microsoft una versione perfezionata di Gpt-3.5, che è stata addestrata ed esegue l’inferenza sull’infrastruttura Azure Ai, tramite il servizio Azure OpenAi.
ChatGpt è un prototipo di chatbot basato su intelligenza artificiale e machine learning specializzato nella conversazione con l’utente umano. È stato lanciato il 30 novembre 2022 e ha attirato l’attenzione per le sue risposte articolate. I modelli sono stati addestrati in collaborazione con Microsoft sull’infrastruttura cloud Azure.
Secondo rumor di mercato, OpenAi avrebbe intenzione di offrire l’acquisto di un certo numero di azioni dagli azionisti esistenti a un prezzo fisso, un’operazione che potrebbe portare la sua valutazione a 29 miliardi di dollari. Microsoft, che ha già finanziato il lab con un miliardo di dollari, avrebbe in mente, sempre secondo indiscrezioni, di infondere altri 10 miliardi in OpenAi e acquisirne il 49%. L’obiettivo ultimo sarebbe quello di integrare ChatGpt nel suo motore di ricerca Bing, rendendolo fortemente competitivo rispetto a Google Search che è ora dominante.
La disponibilità generale per Azure OpenAi
Azure OpenAi include Gpt-3.5, Codex e Dall-E 2, tutti supportati da funzionalità di livello enterprise – come, ad esempio, conformità e sicurezza – e dall’infrastruttura ottimizzata per l’Ai di Azure, scrive Boyd. “Da allora, una delle cose più entusiasmanti che abbiamo visto è l’ampiezza dei casi d’uso che Azure OpenAi Service ha permesso ai nostri clienti, dalla generazione di contenuti che aiutano ad abbinare meglio gli acquirenti agli acquisti giusti alla sintesi dei ticket del servizio clienti, liberando tempo ai dipendenti per concentrarsi su attività più critiche”.
Il servizio Azure OpenAi di Microsoft ha debuttato con modalità invite-only nel novembre 2021. Da startup come Moveworks a multinazionali come Kpmg e aziende come Al Jazeera Digital, le organizzazioni di piccole e grandi dimensioni stanno applicando le funzionalità di Azure OpenAi Service a casi d’uso avanzati come l’assistenza clienti, la personalizzazione e l’acquisizione di informazioni dai dati tramite ricerca, estrazione e classificazione dei dati.
Il top manager aggiunge che “la disponibilità generale del servizio Azure OpenAi non è solo una pietra miliare importante per i nostri clienti, ma anche per Azure. Azure OpenAi Service fornisce alle aziende e agli sviluppatori modelli di intelligenza artificiale ad alte prestazioni su scala di produzione con tempi di attività all’avanguardia. Questo è lo stesso servizio di produzione che Microsoft utilizza per alimentare i propri prodotti, tra cui GitHub Copilot, Power BI e Microsoft Designer, annunciato di recente. Tutta questa innovazione condivide un filo conduttore: l’infrastruttura appositamente costruita e ottimizzata per l’intelligenza artificiale di Azure”.
Ai responsabile
Boyd prosegue il suo post sottolineando che “qualsiasi innovazione nell’Ai deve essere fatta in modo responsabile. Questo diventa ancora più importante con potenti e nuove tecnologie come i modelli generativi. Abbiamo adottato un approccio iterativo ai modelli di grandi dimensioni, lavorando a stretto contatto con il nostro partner OpenAi e i nostri clienti per valutare attentamente i casi d’uso, imparare e affrontare i potenziali rischi. Inoltre, abbiamo implementato i nostri guardrail per il servizio Azure OpenAi che si allineano con i nostri principi di Responsible Ai”. Il top manager conclude: “Il ritmo dell’innovazione nella comunità dell’Ai si sta muovendo alla velocità della luce. Siamo veramente entusiasti di essere in prima linea in questi progressi con i nostri clienti e non vediamo l’ora di aiutare più persone a trarne vantaggio nel 2023 e oltre”.