In Italia i data center continuano ad aumentare, sia in termini numerici sia sul piano dimensionale. Secondo l’Osservatorio Data center del Politecnico di Milano, la potenza installata nel 2022 arrivava a circa 350 megaWatt, mentre nel 2023 si era già arrivati a 420 megaWatt, con la prospettiva di raggiungere la soglia degli 800 megaWatt nei prossimi due anni. “Se rapportiamo questi valori al Pil, si tratta di una previsione più che sensata. Tutto questo è un bene, visto che ci stiamo avvicinando alle performance dei Paesi europei più avanzati, come Gran Bretagna e Germania che fanno segnare potenze installate rispettivamente di 1000 e 800 megaWatt. Ma dobbiamo anche considerare l’impatto energetico che queste strutture sono destinate a generare”. L’ha detto Raffaele De Bettin, ceo del Dba Group, parlando in occasione dell’edizione 2024 di Telco per l’Italia.
De Bettin sa bene di cosa parla: Dba Group è l’azienda che ha progettato il data center che ospiterà il supercomputer Leonardo di Cineca. “Dal nostro punto di osservazione privilegiato non possiamo inoltre non riscontrare un netto cambio di design nei progetti in corso: passiamo da strutture di qualche megaWatt a data center che puntano a superare, e di parecchio, la soglia dei 10 megaWatt. Quindi aziende di medie dimensioni lasciano sempre più spazio agli hyperscaler, con l’ingresso di società che sfruttano il modello di business del real estate per offrire le strutture in usufrutto agli operatori veri e propri”.
Rivoluzione AI: servono data center di nuova generazione
Del resto, la fama di capacità computazionale continua a crescere: l’AI spinge su prestazioni sempre più elevate, e in generale il mercato si muove verso l’high performance computing, con consumi energetici mai sperimentati prima. “A questi dobbiamo aggiungere il consumo di acqua per alimentare gli impianti di raffrescamento”, ha precisato De Bettin.
“Per cercare di minimizzare entrambi i fattori, Dba ricorre al liquid cooling. Invece di utilizzare il raffreddamento ad aria, la nostra soluzione immette direttamente acqua a contatto con il rec. Questo comporta la necessità di una dotazione infrastrutturale più costosa all’inizio, ma porta a ridurre i consumi in modo considerevole nel medio-lungo termine. Con questa tecnologia siamo in grado di abbassare il Pue (Power Usage Effectiveness) di un data center ad alte prestazioni da 1,3 a 1,12, risparmiando energia che va anche a tutto vantaggio dell’opex del proprietario. Ma questo non basta”, ha chiosato De Bettin. “Dovremo implementare e integrare nuove tecnologie se vogliamo supportare in modo sostenibile lo sviluppo dell’AI: servirà anche un potenziamento dell’edge, con reti in fibra che abbassino la latenza e tramite soluzioni in grado di diffondere la capacità di calcolo, portandola più vicino all’utenza”.