Addio mainframe, gigantesco sistema centrale, il “cervellone” che per quarant’anni ha fatto da pivot per lo sviluppo e la crescita dell’informatica aziendale. Adesso che anche Johnson&Johnson ha staccato la spina dell’ultimo dinosauro digitale, passando al cloud, come spiega a CorCom Jim McNiel, Chief marketing officer di Netscout Systems, siamo arrivati a un punto di svolta: “Stanno per succedere cose più interessanti adesso che negli ultimi cento anni”. Intanto, cresce la velocità delle connessioni (333 milioni di volte in trent’anni), la potenza di calcolo (359 milioni di volte), crolla il costo della memoria: da 437 mila dollari per un megabyte all’attuale costo di 0,03 centesimi per un gigabyte. E il mainframe?
Il vecchio “elaboratore elettronico” sembra tutto tranne che in buona salute: viene ancora prodotto ma è un mercato residuale. Oppure no?
”Se guardiamo la definizione di mainframe – spiega Guy Kindermans, analista indipendente presente a NetEvents, la conferenza sul futuro delle reti e della tecnologia attualmente in corso a Saratoga nella Silicon Valley – ci sono tre caratteristiche chiave che lo definiscono, oltre ad essere il nodo centrale per il calcolo, è anche un sistema caratterizzato dalla RAS: reliability, availability, serviceability. E oggi queste caratteristiche da chi vengono incarnate? Perché, sia che si parli di elaboratori centrali che di sistemi distribuiti, queste tre caratteristiche sono il requisito necessario e ineliminabile dell’IT aziendale”.
Tom Burns, vicepresidente e general manager di Dell Networking e Enterprise Infrastructure, spiega a CorCom che c’è un enorme spostamento nella spesa tradizionale per applicazioni IT: nel 2015 circa 2,7mila miliardi di dollari. “L’IT moderno – spiega Burns – è basato su hardware, virtualizzazione e sistemi di orchestrazione, che fanno da base per una piattaforma sulla quale girano le app. Cloud pubblico, privato, ibrido: la rete è il computer”.
Un cambiamento epocale, che vede nelle nuove scelte tecnologiche la possibilità di realizzare moderne forme di business, abbattere spese e costi interni, accedere a risorse prima inimmaginabili. «Se pensate – dice a CorCom Stuart McClure, inventore e imprenditore che ha creato Cylance, startup “unicorno” in rapidissima crescita, – che oggi si possono affittare mille server per un giorno o un server per mille giorni semplicemente con pochi click in rete pagando sempre la stessa cifra, vi rendete conto della portata della rivoluzione delle reti».
L’idea che le grandi aziende, che una volta avevano nel centro di calcolo la maggior parte della propria attività informatica per calcoli statistici, pianificazione delle risorse e più di recente processo delle transazioni in tempo reale, si siano spostate nel cloud, sta cambiando l’architettura tecnologica in maniera radicale. L’eCommerce e i Big data dopotutto richiedono soluzioni nuove. Ma esistono veramente orizzonti completamente inediti oppure, concettualmente, siamo di fronte allo stesso paradigma?
«Se astraiamo e non ci lasciamo intrappolare dalle tecnicalità che comunque cambiano da sempre – dice Kindermans –, vediamo che in realtà le caratteristiche della piattaforma cloud necessaria al funzionamento delle aziende che passano alla nuvola sono le stesse di quelle richieste ai mainframe: affidabilità, accessibilità e infine utilizzabilità, cioè uno stato di efficienza e resistenza all’uso. Tutte caratteristiche che definiscono le specifiche dei sistemi cloud distribuiti che vengono utilizzati oggi dalla aziende».
Quel che cambia, spiega Kindermans, è certamente la localizzazione fisica ma anche l’organizzazione del lavoro attorno ai sistemi distribuiti: cambia chi gestisce cosa, cambiano le competenze tecniche, il funzionamento operativo del sistema, la sua scalabilità. Però, come ho detto, se astraiamo abbastanza, mainframe e sistemi distribuiti nel cloud alla fine sono la stessa cosa: l’utente ha bisogno di utilizzarli per i suoi scopi con lo stesso livello di funzionalità ed efficienza.
Sono cambiati i tempi, è cambiata la scala del problema, le reti sempre più veloci convogliano quantitativi di dati sempre maggiori, quindi è cambiata la natura progettuale dei grandi computer, che non sono più singoli grandi mainframe e diventano invece datacenter virtualizzati in rete, distribuiti attraverso i continenti. Ma obiettivo, scopo e funzionalità centrali rimangono le stesse. «Come dicono gli inglesi – dice Kindermans – il mainframe è morto, viva il cloud-mainframe».