L’intelligenza artificiale emerge sempre più come elemento chiave di trasformazione dei mercati. Un nuovo report di Dell’Oro Group rivela in particolare che i ricavi dei componenti per server e archiviazione hanno raggiunto un record di 244 miliardi di dollari nel 2024, sostenuti dalla domanda per Gpu, acceleratori personalizzati, memorie ad alta larghezza di banda (Hbm) e soluzioni di archiviazione ottimizzate per AI.
“Anche se i sistemi Gpu di Nvidia, principalmente con la piattaforma Hopper e Blackwell alla fine del 2024, sono stati i principali motori della crescita, è emersa anche una gamma più ampia di sistemi accelerati”, spiega Baron Fung, Senior Research Director di Dell’Oro Group. Non solo Nvidia dunque, ma anche Amd sta guadagnando terreno con la sua piattaforma Instinct, segnalando un mercato in espansione verso soluzioni sempre più personalizzate.
Un mercato in evoluzione con aspettative di crescita
La strategia di adozione rapida da parte di colossi come Google, Amazon e Microsoft, che nel 2024 hanno incrementato l’uso di server accelerati con acceleratori personalizzati per AI, è un indicativo di come il mercato stia evolvendo verso l’integrazione di tecnologie su misura per l’addestramento e l’inferenza AI.
Guardando avanti al 2025, le aspettative di crescita continuano con investimenti in infrastrutture AI che promettono significativi incrementi nei ricavi per componenti chiave come Gpu, acceleratori personalizzati e Ssd ad alta capacità. Inoltre, i ricavi del mercato dei componenti per sistemi server e di archiviazione sono previsti crescere oltre il 40%.
Server accelerati e acceleratori AI
I server accelerati e gli acceleratori AI sono componenti cruciali nell’elaborazione avanzata per l’intelligenza artificiale e i carichi di lavoro ad alta intensità di calcolo. Ecco una spiegazione di ciascuno:
Server accelerati
Sono server progettati per eseguire operazioni altamente complesse e computazionalmente intensive, come quelle richieste dall’intelligenza artificiale e dall’analisi dei dati su larga scala. I server accelerati utilizzano componenti hardware specializzati, come le Gpu (Graphics Processing Units), per migliorare la loro capacità di calcolo rispetto ai server tradizionali che si basano principalmente sulle Cpu (Central Processing Units). Le Gpu, ad esempio, sono particolarmente adatte per eseguire calcoli paralleli, che sono essenziali per l’addestramento dei modelli di intelligenza artificiale.
Acceleratori AI
Sono dispositivi hardware specializzati progettati per accelerare processi specifici nelle applicazioni di intelligenza artificiale, come l’addestramento e l’inferenza dei modelli di machine learning. Gli acceleratori AI includono una varietà di tecnologie, tra cui:
Gpu (Graphics Processing Units): Originariamente progettate per il rendering grafico, ora ampiamente utilizzate per l’elaborazione parallela nei carichi di lavoro AI.
Tpu (Tensor Processing Units): Chip sviluppati da Google specializzati per l’elaborazione dei tensor, particolarmente utilizzati nei modelli di deep learning.
Fpga (Field-Programmable Gate Arrays): Chip programmabili che possono essere configurati per eseguire compiti specifici, utili per applicazioni AI che richiedono velocità e flessibilità.
Asic (Application-Specific Integrated Circuits): Circuiti personalizzati progettati per un’applicazione specifica, come il mining di criptovalute o particolari modelli di AI, offrendo efficienza e velocità superiori.