LE NUOVE FUNZIONI

Intelligenza artificiale, Microsoft rafforza il Copilot per aziende e professionisti IT

A otto mesi dal lancio della piattaforma per Microsoft365 il 70% degli utenti dichiara di aver incrementato la produttività. Il colosso americano annuncia anche i due chip Maia e Cobalt e lancia la sfida a Intel e Nvidia. Intanto OpenAI sospende le iscrizioni a pagamento a ChatGpt: “I server non ce la fanno”

Pubblicato il 17 Nov 2023

intelligenza-artificiale_599579096

Microsoft amplia la funzionalità del suo Copilot, estendendole ad aziende e professionisti IT, e lancia la sfida Nvidia e Intel, presentando una nuova gamma di chip specificamente progettati per supportare i carichi di lavoro generati dall’AI.

I due nuovi chip dedicati all’AI

Nel suo evento annuale Ignite, dedicato per l’appunto al mondo del business, il colosso di Redmond ha intodotto due processori dedicati all’AI, Azur Maia e Azur Cobalt, “per garantire l’ottimizzazione su ogni livello hardware e software”.

In particolare, Azure Maia è un chip progettato per supportare addestramenti basati sul cloud, di software come Bing, GitHub Copilot e ChatGpt. Azure Cobalt, invece, è un processore basato su architettura Arm “ottimizzato per migliori performance, efficienza energetica e ottimizzazione dei costi”. I processori saranno pronti entro il 2024.

“Con l’ulteriore accelerazione dell’intelligenza artificiale, stiamo ripensando l’infrastruttura cloud per garantire l’ottimizzazione su ogni livello”, spiega l’azienda di Redmond che ha una partnership con OpenAI per “l’integrazione delle funzionalità di ChatGpt negli strumenti utilizzati per la ricerca, la collaborazione, il lavoro e l’apprendimento”.

Le funzionalità che ampliano l’offerta di Copilot

A Ignite, come detto, Microsoft ha anche presentato gli ultimi aggiornamenti di Copilot, l’assistente digitale integrato nella piattaforma 365, tra cui: Microsoft Copilot Studio, un tool low-code che consente alle aziende di costruire copilot personalizzati; Microsoft Copilot for Service per integrare l’AI generativa nel customer service; Copilot in Microsoft Dynamics 365 Guides che, unendo il potere della GenAI alla realtà mista, può aiutare gli operatori in prima linea a risolvere problematiche complesse impreviste in modo rapido senza impattare sul normale flusso di lavoro; Microsoft Copilot for Azure, il copilota per i professionisti IT che semplifica la gestione delle operazioni IT di ogni giorno. Inoltre, nello sforzo di rendere la soluzione più accessibile a tutti, Microsoft ha annunciato che Bing Chat e Bing Chat Enterprise diventeranno semplicemente Copilot, che uscirà dall’anteprima e sarà generalmente disponibile a partire dal 1° dicembre.

Microsoft sta cominciando a raccogliere i frutti degli investimenti sull’AI: secondo i risultati dell’indagine Work Trend Index, a otto mesi dal lancio della piattaforma il 70% degli utenti di Copilot ha dichiarato di aver incrementato la propria produttività mentre il 68% ha affermato che il software ha migliorato la qualità del proprio lavoro. In generale, è aumentata la rapidità nello svolgere compiti specifici (ricerca, scrittura e sintetizzazione) per il 29% degli intervistati.

Ma OpenAi sospende gli abbonamenti a pagamento per ChatGpt

C’è anche il rovescio della medaglia: l’uso intensivo delle piattaforme di intelligenza artificiale generativa inizia mostrare i limiti delle infrastrutture su cui si reggono. Proprio i server di ChatGpt, la soluzione di punta di OpenAI risultano al momento sotto sforzo, e per questo la società ha deciso di sospendere le iscrizioni al servizio Plus, erogato su abbonamento. Lo ha comunicato su X lo stesso ceo Sam Altman. “L’utilizzo ha superato le nostre capacità e vogliamo assicurarci che tutti abbiano un’ottima esperienza. Puoi comunque iscriverti per ricevere una notifica all’interno dell’app quando gli abbonamenti riapriranno”.

La decisione temporanea è arrivata dopo diverse segnalazioni negli ultimi giorni di rallentamenti e disservizi, e al momento non si conosce una data di riapertura delle sottoscrizioni. Le criticità sono state riscontrate, in particolare, subito dopo la conferenza degli sviluppatori del 6 novembre in cui OpenAI ha mostrato nuove funzioni di ChatGpt.

“Le spese di training sono enormi”, ha ammesso Sam Altman in una recente intervista al Financial Times, in cui ha affermato che la partnership con Microsoft “sta funzionando bene” e che si aspetta “di raccogliere molto di più nel tempo” dal colosso tecnologico e da altri investitori poiché “c’è ancora molta strada da fare nel campo dell’intelligenza artificiale generativa”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5