I big data hanno un potenziale enorme, quello di trasformare le aziende, intere industry e settori di mercato: sono in grado di cambiare il modo attraverso il quale le imprese si organizzano e gestiscono, le modalità con le quali affrontano il mercato, la maniera in cui investono ed acquistano tecnologia, le ‘regole’ con le quali si modellano nuovi ecosistemi e partnership… a patto però che si comprenda fino in fondo l’impatto che l’utilizzo big data genera sull’azienda e che questa sia ‘pronta’ a sviluppare le adeguate capacità richieste.
“Pur tra numerose complessità è indubbio che gli analytics, soprattutto sul fronte big data, stanno vivendo una nuova ondata di vitalità”, esordisce Davide Consiglio, Principal at The Boston Consulting Group (BCG), recentemente intervistato da ZeroUno per capire come si stanno muovendo oggi le aziende rispetto alle potenzialità teoriche decantate dai vendor. “In questo momento le principali applicazioni di sistemi analitici di nuova generazione stanno trovando mercato fertile all’interno di alcuni specifici contesti come il settore finanziario, Insurance e Banking nello specifico e quello del Retail/Consumer Goods”.
“Guardando al mondo Retail e Consumer Goods – spiega Consiglio – le motivazioni di tale ‘fermento’ sono due: da un lato, entrambi i settori hanno tantissima ricchezza di dati, dall’altro, storicamente le aziende che operano in questi segmenti si sono mosse più lentamente rispetto ad altre, per esempio del mondo Assicurativo, Bancario o Media e Telco, nello sfruttamento della mole di dati che hanno a disposizione”.
Entrando nel dettaglio dell’area di mercato, “i retailer più ’attivi’ in questo momento sono quelli dei settori Beverage e Grocery”, prosegue il manager. “Sfruttando gli asset diretti (per esempio le loyalty card) o quelli indiretti (carte di credito e di pagamento, con l’accesso ai dati attraverso partnership con le società che gestiscono tali carte), le aziende che operano in questi settori stanno sempre più adottando modelli analitici che consentono in modo automatizzato di identificare la migliore offerta da proporre al cliente, seguendo criteri di personalizzazione. L’obiettivo è tracciare il dato per ‘momenti’: il cliente non solo è un consumatore, ma è un consumatore di prodotti e servizi diversi in diversi momenti della giornata”.
Altro importante ‘momentum’ si nota nel settore delle Assicurazioni: “Storicamente una ‘low data intensity industry’ ma attraverso la telematica e l’IoT oggi riescono ad ‘arricchirsi’ sia di dati interni (per esempio quelli provenienti dai propri agenti) sia di dati esterni (quelli degli utenti assicurati)”, spiega Consiglio.
In questo settore, le applicazioni nelle quali gli analytics esprimono maggior efficacia sono:
- la prevenzione delle frodi ed il contrasto al crimine organizzato (attraverso il tracciamento di abitudini, comportamenti ed eventi di persone che potrebbero appunto indurre a identificare alla base sistemi criminali che sfruttano il meccanismo delle frodi per recuperare illecitamente denaro), “soprattutto in aree geografiche come il Sud Europa dove le frodi hanno caratteristiche che prima non si riuscivano a tracciare (attraverso il cosiddetto ‘network fraud’ si riescono a correlare dati ed eventi che presi singolarmente non darebbero segnali di rischio ma che aggregati ed analizzati in network mostrano la potenziale minaccia)”;
- il technical pricing ed il commercial pricing personalizzato (soprattutto nelle assicurazioni degli autoveicoli, per esempio);
- gestione dei claim: “attraverso gli analytics si migliorano i processi operativi e la gestione dei flussi di dati durante le operazioni di gestione del claim (in alcuni casi il claim può essere gestito in maniera del tutto automatizzata, per esempio con il ricevimento di una foto da parte dell’utente assicurato da cui parte poi tutta la procedura di gestione e liquidazione)”.
Terzo importante segmento dove registra molto fermento è quello bancario. “In questo momento le banche stanno investendo in modelli analitici che consentono di capire quali sono gli utenti ad alto rischio di abbandono sia su prodotti commodity (il conto corrente) sia su prodotti cosiddetti ‘one time’ (mutui e finaziamenti)”, spiega il manager. “Inoltre, esiste un forte e crescente interesse nella ‘data monetization’, ossia nel capire come sfruttare la grande mole di dati non solo per migliorare processi interni e proporre servizi e prodotti più in linea alle esigenze dei propri clienti ma anche per iniziare a proporre servizi innovativi e diversificati, magari in partnership con altre aziende (per esempio attraverso la gestione delle carte di credito per proporre prodotti personalizzati alle aziende del mondo Retail, come si diceva)”.
Capability: agire su quattro aree
Per poter sfruttare al meglio le potenzialità che derivano dagli analytics di nuova generazione che consentono l’accesso e la comprensione di grandi molti di dati anche in forma destrutturata è tuttavia necessario sviluppare nuove capacità che, secondo quanto delineato da Consiglio, dovrebbero interessare i seguenti quattro macro ambiti:
- Dati: sul fronte dei dati le aziende stanno sempre più costruendo modelli incentranti sul concetto di ‘data lake’ (un grande repository unico all’interno del quale confluiscono anche dati non strutturati), uscendo dalla logica di database relazionale e datawarehouse per sposare un approccio più agile attraverso il quale poter ‘pescare’ attraverso i database manager più moderni (Hadoop ne è un esempio tangibile) qualsiasi tipologia di dato;
- Tecnologia: “la tecnologia deve diventare ‘coerente’ con la volontà di gestire tutta questa enorme mole di dati in modo integrato”, è il commento dell’analista di BCG. “In molte aziende si cerca di modellare un sistema analitico avanzato sfruttando come infrastruttura sistemi legacy già presenti; potrebbe rappresentare un primo passo ma a mio avviso non è sufficiente: motori come Hadoop devono poter funzionare al meglio ed avere alla base l’architettura più adatta a ‘reggere’ il carico dei processi analitici; non solo, Hadoop, per rimanere su questo nome come esempio, deve essere integrato con tutti i sistemi di Business Intelligence dell’azienda per far sì che produca benefici lungo tutti i livelli e le business unit aziendali”;
- Persone: può sembrare ripetitivo ma analizzare i dati per capire come e dove migliorare o cambiare il business richiede una nuova struttura organizzativa aziendale con figure professionali completamente differenti rispetto al passato. “Entrare nel merito di come dovrebbe modellarsi la nuova organizzazione aziendale risulta piuttosto complicato, non esiste una ricetta univoca”, precisa Consiglio. “Quel che è certo riguarda le nuove figure professionali più che mai indispensabili, i data scientist”. Ed è proprio qui che si complicano le cose: “oggi i data scientist sono ancora molto difficili da reperire sul mercato per due motivi: l’offerta è scarsa, sono poche le figure professionali con un background significativo e una ‘perfetta’ combinazione delle tre anime disciplinari necessarie (matematica/statistica, tecnologia, business); il secondo motivo è legato alla difficoltà di avere in azienda i recruiter corretti; ad oggi chi si occupa di selezione del personale spesso non ha ben chiaro qual è il profilo da cercare ed inserire in azienda”.
- Use case e partnership: la grande differenza tra il ‘mondo tradizionale’ ed il ‘mondo big data’ è che non potranno più esistere aziende ‘isolate ed autonome’. “È la natura stessa dei big data che ‘forza’ le partnership tra aziende, sia con realtà tecnologiche sia con provider di dati sia infine con partner industriali o di mercato per poter ‘unire’ i dati e costruire nuovi business insieme”, spiega l’analista. “Già oggi possiamo vedere molte alleanze tra Assicurazioni e Telco, solo per fare un esempio: pensiamo all’assicurazione ‘one time’ di uno sciatore che tra i servizi gode anche della geolocalizzazione via smartphone per il soccorso in caso di necessità”.
“Per poter intervenire in modo adeguato su tutti questi ambiti e sviluppare nuove capabilities efficaci nella ‘costruzione’ di un business model che sia realmente ‘data driven’, occorre investire mediamente un paio d’anni in termini di tempo, costi, processi di change management, formazione delle competenze, scelta e implementazione delle tecnologie, sviluppo di progetti pilota e identificazione delle partnership, analisi degli use case, ecc.”, è il monito di Consiglio in chiusura. “Si tratta di percorsi di cambiamento decisamente impattanti su tutta l’azienda e mediamente molto complessi da governare; è forse proprio questo il principale motivo dei numerosi ‘fallimenti’ di cui tanto si sente parlare oppure del fatto che molto spesso l’analisi big data rimane confinata ad una piccola parte dell’azienda, di solito solo nel Marketing o nell’IT”.
articolo tratto da: zerounoweb