Il viaggio nella sostenibilità dei data center è appena iniziato. Si tratta di una sfida complessa, che può intimorire, ma che offre anche innumerevoli opportunità di innovazione nel processo di raggiungimento degli obiettivi desiderati. Il settore dei data center può essere tra i primi, se non il primo in assoluto, non solo a fissare obiettivi di sostenibilità significativi – dalla neutralità delle emissioni di carbonio al consumo del 100% di energia rinnovabile e all’eliminazione degli sprechi – ma a raggiungerli davvero. A dirlo è un paper realizzato da Dell’Oro Group, che traccia la roadmap dell’ecosostenibilità evidenziando le best practice in termini di abbattimento dei consumi e dei costi e dell’efficientamento delle infrastrutture, in grado di definire il modello da seguire anche per gli altri settori.
Per raggiungere gli obiettivi desiderati, sarà in ogni caso essenziale sfruttare partnership ed ecosistemi collaborativi, già a partire dalle fasi di definizione e standardizzazione delle metriche su cui realizzare i report. La sostenibilità, rimarca Dell’Oro, non deve essere un gioco di marketing, ma piuttosto un gioco di responsabilità e azione: in assenza di questa componenti, la crescita dell’intero settore potrebbe essere minacciata da regolamentazioni sempre più stringenti.
Le previsioni di mercato fino al 2026
Dell’Oro prevede che la spesa in conto capitale (CapEx) per l’infrastruttura dei data center a livello mondiale aumenterà a un tasso di crescita annuale composto (Cagr) del 13% nel periodo compreso tra il 2021 e il 2026, raggiungendo i 377 miliardi di dollari.
La spesa in conto capitale per i data center comprende l’infrastruttura IT (come i server, i sistemi di storage e l’infrastruttura di rete) e l’infrastruttura fisica (come l’alimentazione di riserva, la distribuzione dell’energia e la gestione termica), e sarà trainata dalle continue installazioni di nuovi data center da parte di fornitori di servizi cloud, colocation e telco e dalla modernizzazione dei data center aziendali.
Sebbene le applicazioni edge debbano ancora essere adottate su larga scala, Dell’Oro prevede inoltre che le spedizioni di server adatti allo scopo cresceranno a un tasso Cagr del 74% durante il periodo di previsione, arrivando a rappresentare l’8% del volume totale di server nel 2026. Di conseguenza, prevediamo che i grandi data center centralizzati dei service provider saranno sempre più integrati da un numero crescente di piccoli data center ai margini della rete. La sostenibilità diventa più difficile con un numero maggiore di risorse, in molte località, con sfide ambientali nuove e uniche.
L’infrastruttura fisica dei data center (Data center physical infrastructure, DCPI) ha infine rappresentato un fatturato stimato di 22 miliardi di dollari nel 2021, con una previsione di crescita a 32 miliardi di dollari entro la fine del 2026. Si prevede che questa crescita sia guidata dall’espansione dei data center dei provider di servizi cloud, di colocation e di telecomunicazioni, con particolare attenzione all’efficienza energetica e alle infrastrutture sostenibili. Sebbene le opportunità di migliorare la sostenibilità in relazione ai DCPI siano numerose, due tendenze specifiche – l’utilizzo del raffreddamento a liquido nella gestione termica dei data center e i gruppi di continuirà trifase collegati alla rete – rappresentano opportunità significative. Le migliori pratiche per l’implementazione di queste tecnologie sono ancora in fase di definizione per un uso diffuso dei data center. In ogni caso, rimane fondamentale sviluppare una comprensione di queste tecnologie per raggiungere gli obiettivi di sostenibilità a lungo termine, dato che le strutture moderne potrebbero dover essere riadattate per supportare queste tecnologie nei prossimi 3-5 anni.
Le Thermal Management Technology e il controllo dei consumi
Le soluzioni di gestione termica pesano per il 30-40% del consumo energetico annuale di un data center ed è quindi il punto di partenza più ovvio per cominciare a ragionare di sostenibilità. Oggi, le tecnologie di gestione termica dei data center sono principalmente basate sull’aria, sotto forma di condizionatori d’aria per sale computer e di condizionatori d’aria per sale computer. I miglioramenti dell’efficienza e l’adozione di tecnologie di free cooling hanno continuato a ridurre il consumo energetico associato alle tecnologie di gestione termica ad aria. In alcuni casi, ciò è avvenuto a spese dell’aumento dell’uso dell’acqua per ridurre il consumo di elettricità. Tuttavia, con l’aumento del consumo energetico di CPU, GPU e la crescente presenza di acceleratori nei server, le densità di potenza dei rack sono in aumento. Questo porta alla necessità di gestire carichi di calore più elevati, dove l’aria ha iniziato a raggiungere i limiti di ciò che può essere fisicamente raffreddato. Per questo motivo, il settore ha iniziato a pensare di introdurre sistemi di raffreddamento a liquido. Il raffreddamento diretto a liquido (DLC) prevede l’invio di un liquido a una piastra fredda direttamente collegata alla CPU, alla GPU e/o alla memoria di un server. Si stima che il DLC catturi l’80% del calore generato da un server, il che di solito richiede che l’implementazione del DLC sia integrata da una gestione termica ad aria. Il raffreddamento a immersione è un invece un processo che consiste nell’immergere un server appositamente progettato, o un server di serie leggermente modificato, in un serbatoio di un fluido specifico, per catturare quasi il 100% del calore generato.
Entrambe le tecnologie di gestione termica a liquido funzionano con un’efficienza energetica significativamente migliore rispetto ai sistemi di gestione termica ad aria. Tuttavia, la percezione della complessità aggiuntiva di queste soluzioni ha finora limitato l’adozione in ambienti mission-critical.
Nonostante l’adozione limitata, sia le tecnologie di raffreddamento DLC che quelle a immersione sono in uso da circa un decennio nel calcolo ad alte prestazioni e, in alcuni casi, in installazioni di calcolo con requisiti unici. I risultati ottenuti dal raffreddamento a liquido nello spazio HPC e la crescente attenzione alla sostenibilità costituiscono la forza trainante del processo decisionale dei data center di oggi, e sia il raffreddamento DLC che quello a immersione sono visti come potenziali percorsi per operazioni di data center più sostenibili in futuro.
Alla fine del 2021, il raffreddamento a liquido e a immersione rappresentava circa il 5% (168 milioni di dollari) del fatturato totale della gestione termica dei data center. Dell’Oro Group prevede che l’adozione del raffreddamento a liquido continuerà e accelererà fino al 2026, raggiungendo un totale di 1,1 miliardi di dollari (19%) dei ricavi della gestione termica, nel 2026. La crescita dovrebbe essere trainata dalla proliferazione di applicazioni informatiche ad alta densità tra le aziende e i service provider, sostenendo al contempo una maggiore efficienza energetica nella gestione termica, raggiungendo obiettivi di sostenibilità come la riduzione dell’uso di acqua e consentendo il riutilizzo del calore.
Come classificare le emissioni dei dati center
Quando si tratta di quantificare la sostenibilità dei data center, la metrica principale utilizzata è quella delle emissioni di gas serra (GHG), misurate in tonnellate metriche di CO2 emesse. Per comprendere meglio le emissioni di gas serra, il cui monitoraggio è estremamente complesso, si utilizzano tre ambiti di classificazione, che aiutano a distinguere cosa è responsabile della loro generazione, costituendo i requisiti di base per sviluppare una strategia per tracciare e migliorare l’impatto di sostenibilità di un’azienda.
Quelle del primo ambito sono le emissioni dirette di un’azienda. Vengono generate dagli asset posseduti, e nel caso specifico di un data center, sono in gran parte associate alla produzione di energia elettrica in loco da parte dei generatori, alle potenziali perdite di refrigerante dai sistemi di gestione termica e ai veicoli di proprietà dell’azienda. Per i data center, le emissioni di ambito 1 sono una fonte relativamente piccola di emissioni di gas serra. Tuttavia, i proprietari e gli operatori dei data center stanno cercando modi per ridurrle. L’eliminazione dei generatori diesel a favore di quelli a gas naturale, l’impiego di gruppi di continuità con tempi di funzionamento più lunghi per l’accumulo di energia e l’esplorazione delle opportunità offerte dalle celle a combustibile sono alcuni esempi di questi sforzi.
Le emissioni del secondo ambito sono quelle indirette generate dall’acquisto di energia elettrica. Si tratta di una fonte significativa di emissioni di gas serra per i data center, che consumano una notevole quantità di elettricità. Oggi, è qui che si concentra la maggior parte delle azioni sulla sostenibilità dei data center. I fornitori di servizi di cloud e colocation utilizzano contratti di acquisto di energia per assicurarsi capacità di energia elettrica rinnovabile e certificati di energia rinnovabile per compensare l’uso di energia da combustibili fossili. Sebbene si tratti di sviluppi positivi, questi strumenti si sono sviluppati in modo tale che la generazione di energia rinnovabile non si trova necessariamente sulla stessa rete o addirittura nella stessa regione in cui opera un data center. Il che porta a un leggero squilibrio per quanto riguarda i benefici e gli oneri che i data center hanno sulle varie reti. Un altro modo in cui i proprietari e gli operatori dei data center stanno riducendo attivamente le emissioni dell’ambito 2 è quello di aumentare l’efficienza dei data center, per limitare le perdite elettriche. Le moderne infrastrutture dei data center hanno una maggiore efficienza energetica, anche rispetto ai prodotti sviluppati alcuni anni fa. Quando si utilizza il raffreddamento evaporativo, tuttavia, è importante considerare l’aumento relativo del consumo di acqua per ottenere un minore consumo di elettricità.
Infine, le emissioni del terzo ambito sono tutte quelle indirette nella catena di fornitura a monte e a valle dell’azienda. Per il proprietario o l’operatore di un data center, gli esempi includono l’acquisto di beni e servizi come i materiali da costruzione, il carbonio incorporato nell’infrastruttura informatica e fisica del data center, il trasporto e la distribuzione di materiali e prodotti all’interno della catena di fornitura e i rifiuti generati. Per un’azienda, l’esternalizzazione di un data center in sede a favore di un cloud pubblico o di un fornitore di servizi di colocazione costituirebbe emissioni di ambito 3. Misurare o stimare le emissioni dell’ambito 3 richiede dunque un processo molto più sofisticato, che prevede la collaborazione di fornitori e clienti, e che è ancora in fase di definizione.
Le best practice di settore per una sostenibilità end-to-end
La pianificazione, la costruzione e la gestione del ciclo di vita dei data center sono operazioni complesse. Dal dimensionamento dei data center in base alle esigenze dell’azienda alla scelta delle tecnologie da implementare, sia che si tratti di un centro in sede o in outsourcing nel cloud o in una struttura di colocazione, sono molti i fattori da prendere in considerazione. L’aggiunta di criteri di sostenibilità a questo processo, senza aumentare i costi o influire sull’affidabilità, non fa che aumentare la complessità.
Tuttavia, con gli strumenti e le tecnologie moderne, le best practice possono consentire a un’azienda o a un fornitore di servizi di pianificare e progettare, costruire, gestire e mantenere un data center per ottimizzarne l’impatto sulla sostenibilità.
La simulazione intelligente e la selezione del sito, per eempio, ottimizzano il PUE del progetto mentre le imprese e gli operatori di telecomunicazioni intraprendono la prossima generazione di trasformazione digitale, un’infrastruttura digitale sostenibile a prova di futuro diventa fondamentale per affrontare le sfide e garantire il successo delle strategie digitali.
Una pianificazione e una progettazione eccellenti costituiscono la base per raggiungere obiettivi di efficienza e risparmio energetico per i data center. La scelta di infrastrutture efficienti, il coordinamento della logica di controllo e la collaborazione senza soluzione di continuità tra i vari sistemi di gestione dell’energia e del calore sono tutti elementi fondamentali per un funzionamento efficiente del sistema. I metodi di progettazione tradizionali si basano sull’esperienza umana di progettazione, utilizzando le conoscenze accumulate per calcolare e prevedere manualmente i risultati del PUE. Ciò semplifica eccessivamente i complessi meccanismi di funzionamento, il coordinamento del sistema e il processo di controllo del sistema di gestione termica. Di conseguenza, diventa difficile garantire l’accuratezza del calcolo del PUE, con risultati che talvolta si discostano dal progetto iniziale. L’utilizzo di modelli digitali intelligenti per simulare la progettazione del PUE basati sulla modellazione dello stato di progetto della tecnologia BIM (Building Information Modeling) può risolvere efficacemente questo problema. Un modello digitale intelligente, un vero e proprio digital twin della struttura, può essere utilizzato per simulare il funzionamento e il PUE del data center in base a fattori ambientali e operativi come il clima locale e il carico informatico.
Sulla base della simulazione del fluido termico monodimensionale, della simulazione della distribuzione dell’aria tridimensionale e della tecnologia di simulazione del campo di temperatura, vengono realizzati un modello spaziale del centro dati, un modello del sistema di gestione termica e un modello di distribuzione dell’energia per la modellazione fisica. Quindi, il processo operativo e di controllo del sistema viene simulato per ottenere i dati sulle prestazioni dinamiche e allo stato stazionario del refrigeratore, della torre di raffreddamento, della pompa dell’acqua e di altre apparecchiature. In questo modo si ottiene una previsione del complesso sistema di flusso di calore. Di conseguenza, diventa possibile simulare lo stato di funzionamento del sistema con un’elevata precisione oraria, verificare e ottimizzare lo schema di progettazione e garantire che il PUE possa essere implementato in modo accurato.
Se da un lato la simulazione intelligente guida l’ottimizzazione della progettazione di un data center, dall’altro la scelta del sito gioca un ruolo fondamentale nel determinare le emissioni di gas serra dell’ambito 2. In particolare, il clima locale e la fonte di elettricità disponibile diventano fattori determinanti. Per alcuni data center, il sito o l’ubicazione saranno predeterminati in base alle esigenze aziendali, ma altri possono concedersi il lusso di valutare diverse ubicazioni. Il clima contribuisce a determinare il tipo di gestione termica da utilizzare per massimizzare il PUE. Nelle regioni con climi freschi e secchi, è possibile utilizzare il free cooling, in cui l’aria ambiente può essere utilizzata per raffreddare direttamente o indirettamente le operazioni del data center. In questo modo il data center può limitare il consumo di energia per la gestione termica ed essere progettato con un PUE inferiore.
Nelle regioni con climi più caldi e umidi, sono richiesti sistemi di gestione termica ad acqua refrigerata o a espansione diretta che, pur essendo necessari, comportano PUE di progetto più elevati. Anche la fonte di energia elettrica gioca un ruolo fondamentale nella scelta del sito. Poiché i data center consumano una quantità significativa di elettricità, il modo in cui questa viene generata, insieme alla sua disponibilità, può determinare la fattibilità di un sito per data center. Poiché non tutte le reti sono uguali, è il mix di generazione di energia di un particolare Paese o regione a determinare le emissioni di gas serra di portata 2 per un data center. La generazione di energia rinnovabile (come l’energia solare, eolica o idroelettrica) fornisce elettricità a zero emissioni, ma con una minore disponibilità. Quando l’energia rinnovabile non è disponibile, vengono utilizzati i combustibili fossili, che comportano notevoli emissioni di gas serra di ambito 2.
È importante infine sottolineare che a volte le energie rinnovabili non si trovano sulla stessa rete o addirittura nella stessa regione in cui opera un data center. Questo porta a un leggero squilibrio dei benefici e degli oneri di un data center su diverse reti. L’allineamento della generazione di energia rinnovabile sulla stessa rete delle operazioni del data center non solo aumenta la sostenibilità delle operazioni del data center, ma apre la porta all’utilizzo di gruppi di continuità collegati alla rete, favorendone la decarbonizzazione.