SCENARI

Data center, l’intelligenza artificiale farà lievitare costi e consumi energetici

L’infrastruttura AI ha bisogno di maggiore potenza di calcolo e raffreddamento e ciò impatterà significativamente su densità dei rack e sistemi di alimentazione. Riflettori sul liquid cooling: dal 2025 crescita delle implementazioni con un fatturato stimato di 2 miliardi di dollari entro il 2027. L’analisi di Dell’Oro Group

Pubblicato il 31 Ago 2023

Schermata 2023-08-29 alle 12.37.30

L’intelligenza artificiale (AI) è destinata ad imprimere un profondo segno sull’industria dei data center: l’infrastruttura AI, sollecitata dai crescenti carichi di lavoro, necessita infatti di maggiore potenza di calcolo, velocità di rete più elevate e di un sistema di raffreddamento a liquido.  Questo impone densità di potenza più elevate nei rack, con importanti implicazioni per l’infrastruttura fisica del data center (Dcpi).

Lo afferma un’analisi di Dell’Oro Group, secondo cui, per ottenere l’efficienza desiderata dell’hardware dell’AI su larga scala, saranno necessarie soluzioni appositamente progettate per il raffreddamento a liquido. L’interesse sul liquid cooling, spiega l’analisi, inizierà a concretizzarsi in implementazioni entro il 2025, con ricavi  che si prevede raggiungeranno i 2 miliardi di dollari entro il 2027.

L’impatto dell’AI sullo “spazio bianco” del data center

Dell’Oro spiega che per l’infrastruttura di alimentazione dell’impianto, anche detta “spazio grigio”, i cambiamenti architettonici saranno limitati: i carichi di lavoro dell’AI dovrebbero  far aumentare la domanda di alimentazione di backup (Ups) e distribuzione di alimentazione al rack IT (Cabinet Pdu e Busway), ma non richiederanno significativi cambiamenti tecnologici. L’infrastruttura dell’AI avrà invece un impatto trasformativo nello spazio bianco dei data center (quello in cui sono posizionate le attrezzature e le infrastrutture IT: include i server, le attrezzature di archiviazione e di rete, i rack, le unità di condizionamento dell’aria, i sistemi di distribuzione energetica).

Pdu per rack con potenza nominale più elevata

In primo luogo, a causa del consumo di potenza considerevole dell’hardware IT per l’IA, vi è la necessità di Power Distribution Unit (Pdu) per rack con una potenza nominale più elevata. A queste potenze, i costi associati a possibili guasti o inefficienze possono essere elevati.

Si prevede che ciò spingerà gli utenti finali verso l’adozione di Pdu intelligenti per rack, con la capacità di monitorare e gestire a distanza il consumo di potenza e i fattori ambientali. Questi Pdu per rack hanno un costo molto più elevato rispetto ai Pdu per rack di base, che non consentono all’utente finale di monitorare o gestire la distribuzione di alimentazione del proprio rack.

Liquid cooling

Ancora più trasformativo per le architetture dei data center è la necessità di raffreddamento a liquido per gestire carichi termici più elevati prodotti dalle Cpu e Gpu di nuova generazione utilizzate per i carichi di lavoro dell’AI. Il raffreddamento a liquido, sia diretto che a immersione, sta crescendo in adozione nell’industria dei data center in generale, e ci si aspetta che questo trend si acceleri insieme alla diffusione dell’infrastruttura dell’AI. Tuttavia, dato il lungo periodo storico associato all’adozione del raffreddamento a liquido, Dell’Oro prevede che l’influenza dell’AI generativa sul raffreddamento a liquido sarà limitata nel breve termine. È comunque possibile implementare l’attuale generazione di infrastrutture IT con raffreddamento ad aria, ma a scapito dell’utilizzo e dell’efficienza dell’hardware.

“Per affrontare questa sfida – spiega Dell’Oro -, alcuni utenti finali stanno adattando le proprie strutture esistenti con sistemi di raffreddamento a liquido assistito da aria a circuito chiuso. Tale infrastruttura può essere una versione di uno scambiatore di calore a porta posteriore (RDHx) o un raffreddamento a liquido diretto che utilizza un liquido per catturare il calore generato all’interno del rack o del server, e lo rilascia nella parte posteriore del rack o del server, indirizzandolo verso un corridoio caldo. Questo design consente agli operatori del data center di sfruttare alcuni vantaggi del raffreddamento a liquido senza significativi investimenti per ridisegnare una struttura“.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati