Nell’ambito dell’evoluzione dei data center la crisi non ha
modificato le tendenze in atto, ma le ha accentuate spingendo le
aziende ad accelerare gli investimenti nei data center di nuova
generazione. A spiegare questo quadro Sergio Patano, Senior
Research Analyst di Idc Italia.
“Il primo driver è la riduzione dei costi legata sia
all’acquisto di nuovo hardware sia al contenimento dei consumi
energetici”.
In altre parole la virtualizzazione non solo consente di ridurre il
numero dei nuovi server, ma consente, anche alle imprese che non
hanno le risorse per investire in nuovo hardware, di ottimizzare
l’esistente. “Server di tre anni che normalmente sarebbero
considerati a fine ciclo e dunque da sostituire – precisa Patano –
possono, invece, essere impiegati in un progetto di
virtualizzazione del data center, se hanno le caratteristiche
adeguate”.
La virtualizzazione è la via maestra indicata anche da McKinsey ai
Cio, ai quali sconsigli di inseguire le promesse, al momento non
realizzabili, dei cloud interni.Visto che, secondo le stime
McKinsey, il tipico data center di una grande azienda utilizza la
capacità al 10%, i risparmi sono rilevanti se si considera che
oltre 350 miliardi di dollari all’anno vengono spesi a livello
mondiale per infrastrutture tecnologiche e servizi relativi data
center, la metà di questi va in spese di capitale (per prodotti) e
l’altra metà da spese operative.
“Mentre in un data center tradizionale generalmente si dedica un
server ad ogni applicazione – conferma Patano – la virtualizzazione
consente ad un unico server di contenere 5 server virtuali e dunque
5 applicazioni”.
Ne consegue- cosa vantaggiosa – una minore esigenza di spazio
fisico. Gli hardware vendor contribuiscono con l’offerta di
processori multicore, che possono, sulla base della potenza
elaborativa stimata, “spegnere” i processori non necessari
,riducendo dinamicamente le esigenze di alimentazione e di
cooling.
“I data center di nuova generazione offrono anche la possibilità
di liberare risorse per convogliarle alle vere esigenze – aggiunge
l’analista di Idc – ossia, grazie ad un’infrastruttura più
flessibile e a più avanzati sistemi di governo, è possibile
ottimizzare le necessità digestione, riducendo il numero di
persone dedicate”. Il personale può essere spostato verso
sviluppo di nuove applicazioni.Si tratta di risultati rilevanti:
secondo uno studio realizzato VmWare sulle imprese Fortune 1000,
circa il 70% dei costi dedicati ai data center vengono sostenuti
per mantenere le infrastrutture esistenti, lasciando poco meno del
30% per lo sviluppo di progetti relativi a nuove tecnologie e
applicazioni che possono fare la differenza per le aziende.
La virtualizzazione, invece, investe tutte le componenti (storage,
networking, client). “Il client stand alone sarà superato –
conclude Patano -. Sarà sostituito da un’immagine del pc che
garantisce più sicurezza grazie ad una costante controllo i dati,
che risiedono nel data center. Ma l’evoluzione trova limiti in
Italia per la scarsa diffusione wireless”.