L’analista di mercato Doug Laney agli inizi degli anni 2000 ha esplicitato il termine Big Data attraverso tre proprietà, denominate le tre V: Volume, Velocità e Varietà. La definizione cerca di cogliere tutti gli aspetti del gran volume di dati, non necessariamente strutturati, che inondano le aziende ogni giorno. Coloro che si occupano dei Big Data si servono tipicamente di apposite tecniche computazionali e di analisi molto complesse, senza contare che alcuni topics sono ancora oggetto di ricerche. Queste strutture informative, infatti, sprigionano il massimo della forza nel prodotto delle loro analisi, specialmente in un contesto aziendale nel quale risulta fondamentale avere informazioni di valore che portino a decisioni migliori e a mosse strategiche di business.

Con la combinazione di Big Data e analytics, infatti, si possono ottenere risultati nelle più svariate applicazioni, come ad esempio determinare le cause di guasti, problemi e difetti in tempo reale, generare coupon presso i punti vendita in base alle abitudini d’acquisto dei clienti, ricalcolare interi rischi di portafoglio in pochi minuti o rilevare un comportamento fraudolento prima che colpisca l’azienda. A seguito della recente epidemia Covid-19, in uno scenario economico-finanziario molto incerto, l’Università degli Studi di Venezia Ca’ Foscari ha dato il via ad una ricerca per avere una misura di incertezza e per capire come questa si riversi sul mercato.  La difficoltà di prevedere gli sviluppi futuri si riflette e si amplifica sui mercati finanziari, fomentando paura e perdita di valore delle aziende. L’idea interessante di questo studio è la rappresentazione del sistema economico-finanziario attraverso un network, unendo così i principi dello studio di reti sociali a quelli economici e dando luogo a nuovi strumenti di analisi attraverso la valutazione della struttura del sistema prima della pandemia, e quindi fornire strategie per la ripresa e il consolidamento nelle fasi successive al lockdown.

L’Osservatorio Big Data Analytics del Politecnico di Milano nel 2018 ha appurato che il peso di attività correlate nelle piccole e medie imprese sul mercato italiano è fermo al 12% del totale. Questa quota risulta irrisoria contestualizzandola nell’intero panorama industriale, in cui le PMI occupano quasi l’intera scena; ma, analizzando i motivi della mancata diffusione dell’uso dei Big Data nelle PMI in un contesto aziendale di media-piccola grandezza, si evidenzia una difficoltà di stima dei benefici degli investimenti e una mancanza di competenze specifiche – ciò che risulta ancora più rilevante considerando il dato relativo al GDPR (Genral Data Protection Regulation) per cui solo una PMI su 10 ritiene critica la gestione degli aspetti di security e privacy. Cercando di approfondire maggiormente i risultati delle analisi dell’Osservatorio Big Data, si evince che negli ultimi anni il mercato delle PMI sta pian piano aderendo al mercato Analytics (che nel 2018 cresce del +26%), dando luogo a 5 gruppi di PMI che possiamo discriminare in base al grado di integrazione e al know how delle analisi tecnico informatiche, ovvero aziende tradizionali (10%), in preparazione (31%), inconsapevoli o bloccate (42%), pronte (10%) e lanciate (7%).

Per le imprese del territorio c’è dunque ancora molta strada da percorrere, ma a seguito della grande pausa causata dall’epidemia Covid-19 la ripresa può tratte beneficio anche dai Big Data, per i quali il ruolo di una solida struttura di collezionamento e analisi dei dati giova alle aziende e permette loro di migliorarsi e di adeguarsi al mercato in tempi record.