Un progetto dedicato allo viluppo di tecnologie di intelligenza artificiale e machine learning per l’automazione e il perfezionamento dell’efficienza operativa, la resilienza e l’abbattimento dei consumi energetici nei data center per l’era dell’exascale. È questo l’oggetto della collaborazione annunciata da Hewlett Packard Enterprise (Hpe) con il National Renewable Energy Laboratory (Nrel) del Dipartimento di Energia statunitense (DoE).
Il progetto, denominato Ai Ops, rientra nell’ambito di una partnership triennale che prevede l’introduzione di tecniche di monitoraggio e analytics predittive all’interno dei sistemi di alimentazione e raffreddamento dell’Hpc Data Center situato presso l’Energy Systems Integration Facility (Esif) del Nrel. Hpe e Nrel dispongono di dati raccolti in oltre cinque anni per un totale di più di 16 terabyte raccolti dai sensori presenti nei supercomputer Nrel, Peregrine ed Eagle, e nella propria facility per addestrare i modelli di rilevamento delle anomalie allo scopo di prevedere e prevenire i problemi prima che si verifichino.
Intelligenza artificiale al servizio della sostenibilità dei data center
La collaborazione affronterà anche il tema del futuro dei consumi di acqua ed energia all’interno dei data center, consumi che solamente negli Stati Uniti raggiungeranno rispettivamente i 73 miliardi di kWh e 174 miliardi di galloni (circa 660 miliardi di litri d’acqua) entro il 2020. Hpe e Nrel si concentreranno sul monitoraggio dei consumi energetici per ottimizzare l’efficienza e la sostenibilità misurate da parametri come Pue (Power Usage Effectiveness), Wue (Water Usage Effectiveness) e Cue (Carbon Usage Effectiveness).
I primi risultati ottenuti dai modelli basati sui dati storici sono riusciti a prevedere o identificare con successo eventi già accaduti in passato all’interno del data center Nrel, dimostrando quanto possa essere promettente l’impiego dell’analytics predittiva nei data center del futuro.
Il progetto Ai Ops è scaturito dal lavoro di ricerca e sviluppo di Hpe nell’ambito di PathForward, un programma sostenuto dal Dipartimento statunitense dell’Energia per accelerare la roadmap tecnologica nazionale in direzione dell’exascale computing, che rappresenta il prossimo grande balzo nel campo dei supercomputer. Hpe si è resa conto della necessità di sviluppare capacità di automazione e Ai per poter gestire e ottimizzare gli ambienti data center exascale. Applicare operazioni basate su Ai a un supercomputer exascale – che lavorerà a velocità un migliaio di volte superiori rispetto a quelle dei sistemi attuali – permetterà di rendere le operazioni efficienti dal punto di vista energetico e migliorare le caratteristiche di resilienza e affidabilità per mezzo di capacità automatiche e smart.
“Abbiamo la passione di sviluppare nuove tecnologie che impatteranno sulla prossima era dell’innovazione con l’exascale computing e le relative esigenze operative”, dichiara in una nota Mike Vildibill, vice president dell’Advanced Technologies Group di Hpe. “Siamo convinti che il nostro percorso verso lo sviluppo e i test Ai Ops con Nrel, uno dei nostri partner storici più innovativi, permetterà al settore di creare e mantenere data center per supercomputing più efficienti e smart continuando a scalare potenza e prestazioni”.
Kristin Munch, manager del Data, Analysis and Visualization Group del National Renewable Energy Laboratory, aggiunge: “La nostra collaborazione tocca la ricerca nelle aree della gestione dei dati, della data analytics e dell’ottimizzazione tra artificial intelligence e machine learning per gli interventi sia manuali sia autonomi nelle operazioni dei data center. Siamo entusiasti di collaborare con Hpe in questa iniziativa pluriennale e contiamo di poter creare le condizioni per un data center smart e avanzato dopo averne dimostrato le tecniche nel nostro data center attuale”.
Il progetto si avvarrà di software e librerie open source come TensorFlow, NumPy e Sci-kit per sviluppare algoritmi di machine learning.
Le aree su cui si svilupperà la collaborazione di Hpe e Nrel
Sono fondamentalmente quattro le aree su cui si articolerà il progetto. Innanzitutto, il monitoraggio: la partnership permetterà di potenziare la raccolta, l’elaborazione e l’analisi di enormi volumi di dati relativi a It e facility da fonti diverse prima dell’applicazione degli algoritmi ai dati in tempo reale. Grazie alle tecniche di big data analytics e machine learning si analizzeranno i dati da diversi tool e dispositivi all’interno di tutto il data center. Saranno inoltre applicati algoritmi per permettere alle macchine di risolvere i problemi autonomamente oltre che per automatizzare intelligentemente attività ripetitive ed effettuare manutenzione predittiva sia sull’It sia nella struttura del data center Infine, Ai Ops si evolverà per diventare un tool di convalida per le attività Ci (Continuous Integration) e Cd (Continuous Deployment) delle funzioni It base presenti nella struttura di un data center moderno.
Hpe prevede di dimostrare ulteriori funzionalità in futuro con l’ampliamento del sistema Hpe High Performance Cluster Management (Hpcm) in maniera tale da poter effettuare tutte le procedure di provisioning, gestione e monitoraggio di cluster scalabili fino a 100 mila nodi a velocità superiori. Altri test previsti comprendono l’esplorazione dell’integrazione di Hpe InfoSight, un tool di gestione Ai-driven basato su cloud che monitora, raccoglie e analizza dati relativi all’infrastruttura It.