Il ruolo dei Big Data nel futuro delle imprese

I Big Data sono numeri, statistiche, quantità di dati che messi insieme rappresentano uno strumento straordinario per l’evoluzione di un nuovo modello di impresa 4.0.

Sonia BergamaschiPer capire come l’analisi di grandi masse di dati ed informazioni strutturate sta cambiando il modo di fare business, marketing ed assistenza al cliente (sia online che offline) e perché l’introduzione di queste avanzate tecniche di analisi non è appannaggio solo delle grandi imprese, abbiamo intervistato uno dei maggiori esperti italiani dell’argomento, la professoressa Sonia Bergamaschi, Professore Ordinario Base di Dati e Sistemi Informativi del Dipartimento di Ingegneria “Enzo Ferrari” dell’Università di Modena e Reggio Emilia.

Professoressa Bergamaschi, può spiegarci cosa sono i Big Data?

«Spesso l’espressione “Big Data” viene utilizzata genericamente per evocare l’utilizzo della tecnologia al fine di aumentare la competitività delle imprese. In realtà i Big Data sono già tra noi perché l’evoluzione di Internet ha portato a generare, sia da parte dei provider sia da parte delle persone, una grandissima quantità di dati che è aumentata, nell’arco degli ultimi due anni, di 100 volte. Un’altra definizione di Big Data che non si riferisce solo al volume dei dati (misurati nell’ordine di grandezza dei Petabyte e dei Zettabyte) è quella di Gartner che identifica i Big Data come quei dati la cui gestione ed elaborazione non era possibile con le tecnologie precedentemente esistenti. Negli ultimi anni, infatti, sono state sviluppate nuove tecnologie proprio per affrontare i problemi legati alla complessità dei dati da manipolare, oltre che al loro volume».

In cosa consiste la “complessità” dei dati?

«La complessità risiede in tre aspetti fondamentali dei dati: la varietà (non abbiamo più solo dati strutturati, ma anche dati non strutturati, semi-strutturati, testuali, immagini…), la veridicità (nel momento in cui i dati vengono forniti dalle singole persone non possiamo più controllare la qualità della provenienza, la certificazione dei dati stessi) e, infine, aspetto molto sentito dal mondo delle imprese, la velocità, la necessità, cioè, di rispondere in tempi brevissimi facendo scelte strategiche basate sull’elaborazione di grandi quantità di dati. Oggi, infatti, il cosiddetto Internet of Things, cioè la dotazione di sensori a tutti i livelli all’interno delle imprese, fa sì che vengano spediti in streaming incredibili quantità di dati. A questo enorme volume di dati è necessario sviluppare una reazione in tempi molto brevi».

Perché per un’azienda è importante imparare a utilizzare i Big Data?

«Le imprese devono imparare a “governare” i Big Data per avere la capacità, in questo mondo globale, di reagire in maniera veloce ai cambiamenti che si generano a ritmi elevati nei mercati, nella società. Grazie all’utilizzo dei Big Data un’impresa può decidere, in tempi brevissimi, di modificare la propria produzione, capire in quali mercati può investire per promuovere i propri prodotti. Tutte queste informazioni possono pervenire all’azienda non più solo dai dati interni che è già abituata a elaborare per le politiche di marketing, di razionalizzazione della produzione, ma e soprattutto dall’integrazione di tali dati interni con quelli esterni che vengono forniti in formato diverso e con grande velocità».

Dunque integrare i big data con gli small data sarà la nuova sfida per il business.

«Il problema è proprio questo. Se un’azienda deve decidere nuove strategie di mercato, ovviamente e in maniera del tutto corretta fa riferimento a tecniche di analisi dei propri dati interni attraverso strumenti consolidati come la business intelligence. Per riuscire davvero ad allargare il proprio mercato o ad aggredire nuovi mercati, però, deve avere conoscenze che vengono dall’esterno dell’azienda. Tali informazioni possono derivare da siti certificati che rilevano l’andamento dell’economia di un certo Paese, la richiesta di un prodotto in un determinato territorio e così via. Le informazioni esterne possono essere anche i dati, derivati da strumenti come i social networks, che misurano l’impatto della promozione di un prodotto. L’impatto di qualsiasi azione compiuta da un’impresa deve essere misurato anche attraverso questo tipo di dati che sono semi-strutturati o non strutturati, hanno formati e una veridicità completamente diversi rispetto ai dati aziendali. Per ottenere indicazioni, informazioni strategiche e utili è necessario integrare informazioni che vengono dall’esterno con le informazioni interne dell’azienda».

La Big Data Integration, dunque, è la grande sfida che abbiamo davanti. Le imprese sono pronte?

«Quello che si riesce a fare attualmente con i Big Data, ciò che fanno grandi aziende molto evolute - penso, ad esempio, a Luxottica - è di analizzare i dati verticali, come le informazioni fornite da un certo tipo di social network. Ma questa è solo una parte dell’attività che andrebbe svolta perché in realtà bisognerebbe incrociare i dati dei social network con i dati della distribuzione geografica dei negozi sponsorizzati, con i dati che fanno riferimento all’approvvigionamento di questi negozi attraverso i magazzini. Per avere una visione completa bisogna prendere dati da diverse sorgenti e integrarli per ottenere un’informazione unica». Aggiungo che si sta affermando un nuovo approccio all’integrazione dei dati del tipo “Pay-as-you-go” dove, avendo a disposizione un gran numero di sorgenti dati disponibili, si incomincia da integrare un sottinsieme di queste, individuando con tecniche di “machine learning” e “Entity Resolution” la stessa entità presente in questo sottinsieme ed ottenendo tutte le informazioni collegate alla stessa, risolvendo eventuali conflitti. Ad esempio, informazioni sulla stessa persona possono essere presenti in più sorgenti di questo sottinsieme. In alcuni casi, si può trattare di informazione duplicata, in altri non è chiaro se si tratti della stessa persona (identificazione simile ma non esattamente uguale), in altri casi di informazione obsoleta. Per ottenere un’unica informazione sulla persona vanno applicate tecniche di “Entity resolution”. L’applicazione di tecniche di “machine learning” ha lo scopo di  “migliorare” le tecniche di entity resolution apprendendo dalle entità già risolte. In questo modo, la successiva integrazione di più sorgenti dati sarà sempre meno difficile.

Si parla di nuove competenze e di nuove figure professionali che andranno introdotte nelle aziende per leggere e utilizzare i Big Data.

«C’è stata una grande enfasi sulla figura fantomatica del data scientist che dovrebbe essere una sorta di esperto “magico” competente in tecniche di gestione, in management dei dati, capacità proprie dell’ingegnere informatico; dovrebbe, poi, avere competenze statistiche perché si sa che l’analisi dei dati avviene attraverso una serie di metodi statistici; dovrebbe avere, ancora, un background di intelligenza artificiale, a causa dell’emersione delle nuove tecniche di machine learning, e la conoscenza del dominio per riuscire a estrarre tutte le informazioni utili da questi dati. Quella del data scientist, dunque, è una figura professionale che lavora e acquisisce conoscenze sul dominio di un’impresa, interagendo con gli esperti del dominio stesso. È facile capire che tale figura è abbastanza irreale anche perché se prendo un data scientist (una famosa barzalletta che circola nella Sylicon Valley dice che trattasi di un giovane che non conosce l’SQL - linguaggio standard per la gestione dei dati)  espertissimo dell’analisi e dell’ottimizzazione di processi industriali e lo impiego nell’analisi di strategie di marketing risulterà un pesce fuor d’acqua. In realtà sta succedendo che le aziende, per l’analisi dei dati, si avvalgono sensatamente di un gruppo di persone, all’interno del quale lavorano fianco a fianco esperti di dominio, esperti di tecnologie, esperti di algoritmi di analisi dei dati».

Vista la complessità della materia e la varietà di competenze necessarie, ritiene che anche le piccole imprese saranno in grado di affrontare i Big Data?

«Penso che anche le piccole aziende saranno in grado di gestire i Big Data. Se ci sono le piattaforme costosissime dei grandi vendors, infatti, c’è anche un fiorire di software open source di buona qualità. Non affidandosi completamente a consulenti esterni, ma sviluppando al proprio interno un nucleo di competenze informatiche e confrontandosi con enti di ricerca, università - realtà che svolgono proprio un ruolo di indirizzo sulle tecnologie da utilizzare -, anche le piccole imprese, con costi non proibitivi, possono trarre informazioni utili per il loro business dai Big Data».