Nel corso degli ultimi due anni abbiamo assistito a una crescita enorme dell’attenzione per le tematiche dell’analisi dei dati, della statistica, della creazione di modelli e indicatori numerici. Questo interesse, generato in parte dall’ascesa del fenomeno big data, non si è esaurito in un’iniziale “indigestione” collettiva di promesse di enormi vantaggi di business e parole chiave accattivanti legate al mondo della data analytics.
Anche le imprese, infatti, stanno ormai consolidando l’interesse per queste tematiche e le eventuali opportunità economiche a esse legate, avendo sperimentato che la quantità di dati prodotti internamente ed esternamente sta crescendo con ritmi letteralmente esponenziali (nel senso vero e matematico del temine, non solo come definizione figurativa). Questa enorme disponibilità di dati si somma a un cambiamento netto nella relazione tra aziende e consumatori, all’insegna di una sempre maggiore interattività e possibilità di instaurare rapporti diretti con i propri clienti. In particolare, l’interattività viene amplificata a dismisura dall’avvento dei social network che annullano le distanze tra persone, aziende, prodotti e servizi e dell’intelligenza pervasiva che sta portando capacità di calcolo e connettività di rete in un numero crescente di oggetti in precedenza non dotati di caratteristiche “smart” (fenomeno dell’IoT).
La mole di dati diventa quindi così importante che tante aziende pubbliche e private stanno iniziando a chiedersi come fare a valorizzarla, ovvero come costruire su questi dati un vantaggio competitivo. In buona sostanza, il nodo cruciale diventa come fare per dar vita a quella famosa “business intelligence” che fino a oggi era limitata, nella maggioranza dei casi, a una semplice analisi descrittiva dei dati di performance dell’azienda.
Da tempo esistono tecniche e metodologie matematiche e statistiche per leggere, interpretare i dati e intraprendere azioni sulla base dell’analisi continuativa delle informazioni (machine learning, intelligenza artificiale). Tali tecniche e metodologie sono state sviluppate ulteriormente nel corso delle ultime due decadi grazie alla disponibilità di potenza di calcolo a basso costo. Ciò a cui stiamo assistendo oggi, però, è una vera e propria rivoluzione negli strumenti di gestione dei dati. Una classe completamente nuova di strumenti (che vanno sotto la definizione generale di “Big Data” e comprendono nomi ormai noti come Apache Hadoop) è stata immessa sul mercato e consente di non avere più alcun limite teorico e pratico nella quantità e tipologia di dati che possono essere analizzati.
Il ruolo chiave della strategia di Data Analytics
L’economia mondiale si sta sempre più basando sullo sfruttamento e sulla valorizzazione delle informazioni. L’abilità di raccoglierli, analizzarli e sfruttarli a proprio beneficio diventa quindi un fattore di assoluta criticità nel panorama competitivo di mercato. Confrontandolo con altri avvenimenti storici, questo scenario è simile a quello dell’estrazione di petrolio. Infatti, l’avvento dell’economia basata sui dati ricorda almeno in parte quanto accaduto con la rivoluzione industriale, nell’ambito della quale vennero concepiti nuovi servizi, strumenti e materiali grazie alla capacità di sfruttare il petrolio in tutte le sue varie trasformazioni.
I dati oggi sono come il petrolio e il carbone della rivoluzione industriale: se estratti e sfruttati al meglio possono cambiare radicalmente il modo con cui le aziende svolgono il proprio business.
Di fronte a tali opportunità, però, in assenza di metodi strutturati per l’analisi dei dati, si rischia di venire sopraffatti dalla complessità e di commettere errori.
E’ quindi necessario rispettare alcuni punti chiave nella costruzione di una strategia di data analytics e, più in piccolo, nella conduzione di esperimenti e progetti di analisi dei dati:· Comprendere gli obiettivi di business: l’analisi dei dati non è un’attività fine a se stessa, ma è finalizzata al raggiungimento di obiettivi di business. Questi obiettivi possono anche essere ambiziosi, magari irraggiungibili nel breve periodo, ma sicuramente devono rappresentare la linea strategica di indirizzo nello sviluppo delle attività di data analytics.
· Conoscere il mercato in cui opera l’azienda e come si svolge operativamente il lavoro.
· Saper fare le domande giuste per tradurre questi obiettivi generali in esperimenti di analisi dei dati, in grado di individuare sia le fonti dati corrette che il tipo di output richiesto.
· Svolgere le attività esplorative e di costruzione degli algoritmi di analisi dei dati utilizzando tutto l’ampio spettro di possibili tecniche. Gli strumenti di oggi consentono di effettuare molteplici esperimenti in poco tempo, dando la libertà all’analista di provare, sperimentare, abbandonare percorsi non promettenti e seguirne altri che offrono maggiori opportunità.
· Capire come sintetizzare i risultati del lavoro di sperimentazione e costruire indicatori, visualizzazioni, prodotti che possano rendere sistematico e continuativo lo svolgimento delle analisi, rendendo i risultati utilizzabili immediatamente da chi porta avanti il business aziendale (spesso si dice che questi risultati debbano essere “actionable”, ovvero direttamente spendibili in azioni concrete).
Il nuovo analista dei dati, oggi spesso denominato “data scientist” per la sua accezione nuova di “sperimentatore”, ha quindi bisogno di un bouquet di competenze nettamente più diversificato rispetto alla classica immagine del “macinatore di numeri”. In particolare, possiamo individuare le seguenti tre aree di competenza, dandone anche indicativamente il grado di importanza:
1. Competenze di business analysis: la capacità di comprendere il contesto aziendale e di parlare con interlocutori interni delle linee di business per capirne le esigenze, gli obiettivi e i desiderata.
2. Competenze matematico/statistiche basate sull’impiego di strumenti informatici avanzati per la gestione dei dati e l’analisi: questa è sicuramente la classe di competenze che deve essere maggiormente presente nella nuova generazione di analisti. A proposito di Data Scientist, è significativa la definizione che ne dà uno dei principali guru delle tecnologie Big Data: “Person who is better at statistics than any software engineer and better at software engineering than any statistician.” – Josh Wills, Director of Data Science at Cloudera (https://twitter.com/josh_wills).
3. Capacità comunicative e rappresentative: i dati senza rappresentazione ormai non sono più accettabili. Il cervello umano, infatti, è più efficiente nel riconoscere forme e colori rispetto ai simboli. Ecco quindi che le capacità di scegliere la modalità di visualizzazione più efficace per le informazioni raccolte diventano un fattore chiave di successo.
In questo contesto, la formazione completa di un data scientist deve necessariamente comprendere tutti gli aspetti trattati finora. Non basta più essere solamente bravi nell’analisi dei dati (come accadeva fino a qualche anno fa). Non basta più, allo stesso tempo, limitarsi alla formazione “una tantum” in questo campo, considerando l’evoluzione continua di strumenti e tecniche di analisi, nonché il continuo cambiamento e rinnovamento delle fonti di dati (fino a pochi anni fa, per esempio, non esisteva Twitter e la sua enorme miniera di informazioni sull’andamento dell’opinione pubblica). Di fatto, la formazione iniziale deve invece essere seguita da un percorso di approfondimento e aggiornamento continuo in tutti e tre gli ambiti di competenza precedentemente descritti.
In un’ottica di sviluppo e valorizzazione del capitale umano attraverso la formazione continua di alto livello e considerando la rilevanza che il tema Data Science ha acquisito in relazione al business aziendale, CEFRIEL organizza il Master in Alto Apprendistato sul tema Analytics and Business Intelligence, un percorso formativo specifico costruito sulle esigenze delle imprese che puntano ad avere persone realmente in grado di estrarre e trasformare il nuovo “petrolio”.