Per i manager che sono sempre in cerca di risposte più accurate per guidare al meglio le decisioni di business, i Big Data possono sembrare una soluzione efficace e veloce. Oggi la tecnologia fornisce più informazioni di quanto se ne possano efficacemente utilizzare.
Gli insights di maggior impatto infatti non si trovano direttamente tra i dati grezzi. L’utilizzo efficace di Big Data non è una sfida tecnologica, ma piuttosto una questione di business. Le aziende si stanno impegnando con urgenza a reclutare e sviluppare talento che sia non solo creativo, ma che abbia anche una dimestichezza nell’elaborare dati e ricavarne le giuste intuizioni. Un nuovo pacchetto di software costoso non può, infatti, sostituire il rigoroso ed esigente processo d’individuazione di quali domande porsi. Quando le aziende si impegnano nell’individuazione delle giuste domande e dove poter trovare le risposte, spesso scoprono di avere già tutti gli strumenti necessari: nei software di BI oppure in dispositivi di database già esistenti.
Bisogna analizzare contemporaneamente volumi enormi di dati? Alcune applicazioni lo richiedono: Amazon aggrega e analizza centinaia di terabyte di dati del “carrello della spesa” così come le “cliccate” di milioni di utenti per generare consigli personalizzati di prodotto. Per altri retailer online è sufficiente un approccio che analizza solo un campione statisticamente rilevante di un ampio set di dati, in grado di attuare iniziative di up-selling e cross-selling a una frazione del costo di computazione.
Il problema richiede analisi in tempo reale? I trader su Wall Street hanno bisogno di analizzare e transare nel tempo di una frazione di un secondo e pagano milioni di dollari per avere vantaggi di millisecondi di tempo. In questi casi strumenti che riducono i tempi di elaborazione da micro a millisecondi danno un ritorno sufficiente per giustificare l’investimento, ma poche aziende hanno bisogno di prendere decisioni così velocemente. Alcuni retailer, ad esempio, monitorano la loro catena di distribuzione attraverso targhette Rfid. Ma effettuare grandi investimenti per generare informazioni istantanee sarebbe uno spreco perché gli input derivanti sarebbero utilizzabili in lassi di tempo più tradizionali.
I dati sono difficilmente scindibili in unità significative, che possono essere organizzate, analizzate e confrontate? I software analitici tradizionali non sono adatti a elaborare dati non strutturati. Le organizzazioni di sicurezza nazionale affrontano questo problema, elaborando petabyte di dati di comunicazione, video di sorveglianza, chiamate e altri dati grezzi. Per rispondere a questa sfida, i Governi investono centinaia di milioni di euro per sviluppare e operare mega computer e sistemi di Big Data, mentre i dati aziendali sono tipicamente più strutturati.
Possiamo definire la complessità di un problema gestionale come il numero di operazioni necessarie a trasformare un insieme di dati in informazioni azionabili. Alcuni problemi di gestione di Big Data richiedono diversi step attuativi: un esempio è il programma di LexisNexis che individua la parentela delle persone per mezzo di diverse tipologie di dati come i casellari giudiziali, certificati di nascita e archivi online. Le istituzioni creditizie usano questi sistemi per individuare tentativi di furto d’identità e frode.
È necessario dare priorità al riconoscimento delle opportunità nell’analisi dei dati: l’investimento più importante di un’azienda è il reclutamento di analisti che siano in grado di fare le domande giuste. Inoltre è da valutare la possibilità di affiancare i dirigenti tradizionali con analisti quantitativi. Bisogna poi considerare l’impatto sul proprio business.
Che si affronti una vera sfida di Big Data o vi sia soltanto la necessità di gestione di moltissimi dati, nessuna organizzazione può sviluppare il business lasciando l’elaborazione dei dati al dipartimento IT e acquistando una soluzione di Big Data. Gli obiettivi guideranno le logiche di uso dei dati, così come la gestione di tutte le altre risorse aziendali.