gli studi

Data center e cloud, l’AI rimette in gioco business model e outlook di spesa



Indirizzo copiato

Dell’Oro Group rivede al rialzo le stime prevedendo un tasso di crescita annuale del 24% entro il 2028, trainato dalla domanda per le infrastrutture basate sull’intelligenza artificiale. E secondo Idc la convergenza cloud-AI sarà cruciale per rimanere competitivi sul mercato

Pubblicato il 2 ago 2024



intelligenza artificiale

La crescente domanda di infrastrutture basate sull‘intelligenza artificiale sta rivoluzionando il mercato dei data center e del cloud computing. Un recente rapporto di Dell’Oro Group ha rivisto al rialzo le previsioni di spesa in conto capitale per i data center, prevedendo un tasso di crescita annuale composto (Cagr) del 24% entro il 2028. “L’intelligenza artificiale ha il potenziale per generare più di un trilione di dollari in spese infrastrutturali correlate all’intelligenza artificiale nei data center cloud e aziendali nei prossimi cinque anni”, dichiara Baron Fung, Senior Research Director presso Dell’Oro Group.

Infrastrutture AI il traino dell’incremento di spesa

Questo incremento è trainato dall’adozione di infrastrutture AI, che includono server con Gpu o acceleratori personalizzati, reti, storage e strutture dedicate. Queste tecnologie richiedono un elevato impiego di capitale, ma il settore sta valutando il potenziale ritorno sugli investimenti, con sforzi significativi per raggiungere una crescita sostenibile del capex a lungo termine. Il rapporto di Dell’Oro Group prevede che i ricavi derivanti dai server a livello mondiale raggiungeranno quasi 0,5 trilioni di dollari entro il 2028, con i server accelerati che potrebbero rappresentare più della metà dei ricavi totali dei server.

La spesa in conto capitale dei data center globali sarà dominata dai quattro principali provider di servizi cloud con sede negli Stati Uniti (Amazon, Google, Meta e Microsoft), che rappresenteranno la metà delle spese già nel 2026. Questo scenario evidenzia l’importanza della convergenza tra intelligenza artificiale e infrastruttura cloud, un tema centrale anche nel rapporto pubblicato da Idc.

Cloud-GenAI: opportunità di innovazione senza precedenti

Secondo Idc, autore di un rapporto sulle modalità in cui la GenAI sta rivoluzionando l’infrastruttura cloud per i fornitori di tecnologia, la convergenza tra cloud computing e intelligenza artificiale generativa (GenAI) sta creando opportunità di innovazione senza precedenti. Per i fornitori di tecnologia e le startup in crescita, sfruttare queste tecnologie è diventata una necessità per rimanere competitivi. Il cloud computing offre risorse scalabili e on-demand, mentre l’intelligenza artificiale generativa fornisce funzionalità avanzate di apprendimento automatico che trasformano grandi quantità di dati in informazioni fruibili e automatizzano attività complesse.

Questa integrazione consente la scalabilità predittiva e l’allocazione delle risorse, ottimizzando le prestazioni e l’efficienza dei costi. I modelli AI possono prevedere i carichi di lavoro in base ai dati storici, consentendo il provisioning dinamico delle risorse e aiutando a evitare il provisioning eccessivo e il sottoutilizzo. Inoltre, l’ottimizzazione automatizzata dei costi del cloud, il bilanciamento intelligente del carico e la gestione del traffico migliorano ulteriormente l’efficienza operativa.

AI cruciale per la cybersecurity del cloud

L’intelligenza artificiale gioca anche un ruolo cruciale nella sicurezza del cloud, fornendo rilevamento avanzato delle anomalie, policy di sicurezza adattive e risposta automatizzata alle minacce. La gestione del cloud basata sull’intelligenza artificiale semplifica il monitoraggio, la risposta agli incidenti e l’ottimizzazione delle prestazioni, garantendo un funzionamento regolare e riducendo i tempi di inattività.

Lo sviluppo di modelli di intelligenza artificiale in un ambiente cloud-native offre vantaggi significativi in termini di scalabilità e flessibilità. L’uso di ambienti containerizzati e architetture serverless ottimizza l’utilizzo delle risorse e riduce i costi, mentre le pratiche di MLOps garantiscono che i modelli AI rimangano accurati e pertinenti nel tempo.

Articoli correlati

Articolo 1 di 4