L’evoluzione ultradecennale dell’IT aziendale, subito dopo la “meccanizzazione” dei processi amministrativi e di produzione, ha visto nascere un’attività che nel corso degli anni ha assunto un nome ben preciso: business intelligence (BI). L’obiettivo si sempre è stato quello di cercare, raccogliere dati, analizzarli e produrre report che aiutassero a prendere decisioni per migliorare l’efficienza dei processi aziendali e innovare il modo di rapportarsi con il mercato.
A distanza di mezzo secolo dall’era dei report prodotti su richiesta dei business owner agli esperti di IT in camice bianco che lavoravano sui mainframe, passando per l’epoca dei primi decision support system (DSS) basati sui sistemi IT client-server degli anni ‘80 e ‘90, la BI è viva e vegeta. Sono in gran parte cambiati i processi di business, in sintonia con nuovi business model in moltissimi settori verticali, spesso oggetto di contaminazioni reciproche, e con essi le fonti di dati, le tecnologie utilizzabili per raccoglierli, prepararli e analizzarli, i ruoli dei dipartimenti IT e delle business unit, quelli degli utenti aziendali e persino dei clienti finali.
I dati arrivano dall’esterno
Con l’avvento del Web e dei social, sempre più informazioni valorizzabili per prendere decisioni in grado di aumentare i business outcome devono essere prodotte con l’integrazione di dati generati all’interno dell’azienda e soprattutto dati che provengono da fonti esterne.
Secondo le società di analisi negli ultimi anni, due degli aspetti della BI su cui i vendor e le aziende hanno iniziato a investire di più sono quelli della data visualization e della data discovery, cioè l’insieme delle tecniche e delle best practice che permettono di identificare e visualizzare i dati, i pattern (i modelli di relazione fra diversi dati) e gli outliner (cioè le anomalie statistiche) e di analizzare tutto in modo innovativo (di qui il sempre maggiore uso del termine advanced analytics), per ottenere insight (intuizioni) utili per aumentare competitività, efficienza, sicurezza e altri tipi di benefici per gli stakeholder.
A supporto di queste attività, che vedono come sponsor, consumatori e protagonisti i responsabili di business e di funzioni aziendali e i data scientist, vi sono sforzi da parte della comunità IT in buona parte in continuità con il passato. Non ci può essere data visualization e discovery senza processi di data preparation (l’identificazione dei dati utili per l’analisi e la loro manipolazione per renderli processabili dagli analytic tool) e di data ingestion (lo spostamento di dati da fonti esterne in un unico repository). Data preparation e ingestion sono tipicamente problematiche che, in alcuni casi limitati, possono essere svolte da strumenti stand-alone implementabili e utilizzabili direttamente dai cosiddetti power user o information worker, ma che nella maggior parte dei casi chiamano in causa gli esperti IT di database, middleware, programmazione (coding) e tecnologie di content delivery e client. Sempre più spesso le soluzioni di BI e analisi sono fruite in modalità self-service e con dispositivi disparati, anche mobili.
La bimodalità della nuova BI
Il successo o il fallimento di qualsiasi progetto di Business Intelligence dipende in definitiva dall’accessibilità dei dati critici alle persone giuste, al momento giusto. Secondo la società di analisi Gartner, una strada che può soddisfare al meglio le esigenze aziendali è quella di adottare un approccio bimodale alla BI che combina le piattaforme BI più tradizionali con quelle più avanzate e che parte da queste considerazioni:
- le piattaforme BI tradizionali e i processi di supporto basati sul reporting non sono progettati per supportare il ritmo attuale e la natura dinamica dei cambiamenti aziendali o la crescita esponenziale in termini di fonti, volume e complessità dei dati;
- le moderne piattaforme di BI devono essere agili, intuitive e affidabili per supportare il ruolo ampliato, sempre più mission-critical, urgente e dinamico, degli analytics nel promuovere la competitività e creare valore per le aziende.
BI Mode 1: focus sulla prevedibilità
Il Mode 1 si concentra sulla prevedibilità e ha un obiettivo di stabilità; è utilizzato al meglio quando i requisiti sono ben compresi in anticipo e possono essere identificati da un processo di analisi. Include gli investimenti necessari per rinnovare e aprire l’ambiente “legacy” per il mondo digitale.
Questa modalità prevede che i dipartimenti IT continuino, nel solco iniziato a scavare negli anni passati, a identificare fonti di dati utili e sviluppare best practice di integrazione, preparazione, analisi e reporting dei dati per gli utenti, con l’obiettivo di supportare il raggiungimento dei migliori business outcome. In questo contesto, è importante che il dipartimento IT sviluppi e persegua processi coerenti, ripetibili, efficienti, scalabili, soggetti a un miglioramento continuo, documentati e sicuri (anche ai fini della compliance al GDPR e ad altre normative).
Per ottenere questi obiettivi, fra le altre cose, il dipartimento IT deve essere in grado di ottenere dal top management budget per l’acquisizione di tecnologie innovative, come ad esempio soluzioni storage e middleware per realizzare data lake (importando dati da diverse fonti interne ed esterne all’azienda), on premise o in cloud, o motori di BI e analytics che hanno già integrati database column-oriented, tool di in-memory analytics e soluzioni per permettere la fruizione di funzionalità di analisi e visualizzazione dei dati in modalità self-service da parte degli utenti finali. La BI Mode 1, insomma, rimane e deve rimanere fornita centralmente dall’IT. Che però ha un ruolo diverso da quello dei decenni passati, in cui gli utenti erano costretti a richiedere agli informatici i report di loro interesse, con il rischio di ripetere processi di affinamento senza fine.
Il ruolo dell’IT nel Mode 1 è più legato all’evoluzione delle piattaforme di BI implementate dall’azienda e all’assicurazione dell’accessibilità, della precisione e della sicurezza delle informazioni.
BI Mode 2: focus sull’esplorazione
Il Mode 2 è esplorativo e prevede la sperimentazione per risolvere nuovi problemi; è la modalità migliore per esplorare le aree di maggiore incertezza. In questo caso, i requisiti non sono ben compresi in anticipo. Questa modalità è più adatta alle aree in cui un’organizzazione non può creare un piano predefinito accurato e dettagliato perché non si conosce abbastanza l’area da indagare. Non si tratta di prevedere il futuro come se si utilizzasse una sfera di cristallo, ma gli strumenti utilizzati consentono al futuro di rivelarsi in “piccoli pezzi”. Il lavoro spesso inizia con un’ipotesi che si rivela vera, si dimostra falsa o si evolve durante un processo che in genere comporta brevi iterazioni o progetti.
In questa modalità rientrano le adozioni di nuove soluzioni di BI e analytics presso specifici gruppi di utenti o line of business (LOB), o addirittura ambienti di edge computing e Internet of Things (IoT). Parliamo, in questo caso, di BI embedded, prodotta e consumata da sistemi automatizzati.
Le implementazioni Mode 2 possono non portare agli outcome previsti, in quanto sono chiare fin dall’inizio le valenze sperimentali e circoscritte. Se le sperimentazioni portano invece a risultati positivi, possono trasformarsi in investimenti stabili, magari con il consolidamento delle soluzioni a livello centrale, pur mantenendo il carattere di fruibilità-self service da parte degli utenti iniziali, di nuovi o nell’ambiente IoT.
E di spazio per sperimentare, sempre con una governance della direzione IT e non in ottica di “shadow IT, nell’ambito della BI nei prossimi anni ce ne sarà molto. Sia perché aumentano le opportunità di integrare e analizzare Big Data provenienti da nuove sorgenti di dati (incluso l’IoT), sia perché aumenteranno gli impieghi delle tecnologie di Artificial Intelligence (AI), Machine Learning (ML) e Natural Language Processing (NPL) nell’interazione fra soluzioni di BI e utenti finali.