<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=524883261409052&amp;ev=PageView&amp;noscript=1">

Make or buy? Quale l’infrastruttura giusta per i big data

Condividilo su:

Non passa mai di moda la domanda che prevede l’alternativa “make or buy”, cioè quella di costruire internamente o di reperire al di fuori dell’organizzazione un prodotto o un servizio. Nel caso dell’infrastruttura più idonea per i big data, questa domanda necessita di alcune considerazioni che possano aiutare nella scelta di una soluzione piuttosto che dell’altra.

Le variabili, infatti, che intervengono sono tante, a partire dalla prima che deve guidare l’azienda a orientarsi: qual è l’esigenza a cui deve rispondere una gestione dei big data che contribuisca all’incremento del business?

Una maggiore conoscenza del comportamento del cliente ottenibile dalle varie sorgenti dei dati (big data marketing)? Una visione globale dei processi nel ciclo produttivo e logistico (big data analytics in chiave Industry 4.0)? Una gamma più ampia di informazioni di natura finanziaria (big data analytics a sostegno dell’augmented CFO)? Sono solo alcune delle potenziali applicazioni che è bene, da parte delle aziende, avere chiare prima di procedere nell’individuazione dell’infrastruttura giusta a supporto degli obiettivi che si intendono raggiungere.

 

Dalla tempistica nell’analisi dei dati alla loro molteplicità

L’identificazione del fabbisogno specifico guida la tempistica rispetto alla disponibilità dell’analisi dei dati, che non sempre è richiesta in modalità real time. Può essere sufficiente un’elaborazione batch svolta a intervalli differiti nel tempo, on demand, cioè attingibile quando occorre, oppure, nel caso soprattutto di dispositivi IoT, in streaming per ricavare informazioni continuamente e in tempo reale.

Analogamente, in base alla tipologia dei dati, alla loro disomogeneità e molteplicità, anche la memorizzazione cambia, spostandosi dai classici database relazionali SQL ai NoSQL e fino ai recenti NewSQL.

In sostanza, l’infrastruttura deve essere in grado di raccogliere, archiviare ed elaborare i big data, garantendo allo stesso tempo determinati standard di sicurezza, per renderli inviolabili sia quando sono a riposo sia quando si trovano in transito. Servono, quindi, sistemi di storage e server, framework, database, software di analytics e altre applicazioni.

L’infrastruttura, infine, può essere on premise oppure sotto forma di data center remoto in cloud. Il “make or buy” si gioca soprattutto su queste ultime due possibilità.

 

Infrastruttura on premise versus infrastruttura in cloud

Se si dovessero comparare i costi tra una soluzione on premise e una in cloud, bisognerebbe mettere il TCO (Total Cost of Ownership), nel primo caso, a fianco del ROI (Return on Investment), nel secondo caso, prevedendo un’allocazione delle risorse immobilizzata o distribuita nel tempo. È assai probabile che da questa comparazione l’infrastruttura in locale e quella sulla nuvola risulterebbero in sostanziale parità. A meno che, ovviamente, nel computo non si tenga conto anche del carico richiesto al team IT su cui ricadrebbe interamente l’onere di gestione, aggiornamento e manutenzione nell’eventualità del “make”, cioè dell’installazione in locale. Volendo risparmiare, allora, si potrebbe far ricorso a framework di elaborazione dati di grandi dimensioni open-source quali possono essere Hadoop e Spark, per citare i più noti. Attenzione, però, a non sottovalutare la complessità di gestione di questi strumenti nati appositamente per i big data. L’impegno per il personale IT potrebbe essere talmente gravoso da assorbirlo totalmente, sottraendolo a tutto il resto.

 

Make or buy? Meglio renting insieme a un partner esperto

Alla luce di quanto detto sopra, il problema dell’infrastruttura giusta per i big data va di pari passo con quello della competenza specialistica a corredo. Infatti, i reparti IT delle aziende non è detto che dispongano di data scientist o di esperti in programmazione di linguaggi come R e Python che fanno parte del mondo dell’analisi dei big data. Per questo, la risposta all’alternativa “make or buy” è una terza via: renting. Il cosiddetto noleggio operativo, che già viene utilizzato dalle aziende per non acquistare tecnologie soggette a una rapida obsolescenza, può abbracciare anche l’infrastruttura per i big data in tre varianti: Infrastructure as a Service (IaaS) per calcolo e storage, Platform as a Service (PaaS) per database, Software as a Service (SaaS) per applicazioni pronte all’uso. L’importante è che la loro adozione avvenga insieme a una consulenza fornita da un partner esperto, che conosce a fondo il mondo dei big data e sappia come trarne valore in funzione degli scopi dell’azienda.

New call-to-action

Iscriviti alla nostra newsletter!