
“Ho moltissimi dati, ma poche informazioni veramente significative per le decisioni mie e quelle dei miei collaboratori”
E’ il commento abituale di moltissimi rappresentanti dell’Alta Direzione dell’impresa quando si tratta di commentare la disponibilità di informazioni adatte per decidere come supportare un incremento importante della qualità dei processi decisionali al fine di competere con successo contro una concorrenza sempre più agguerrita e globalizzata.
Le informazioni significative in realtà sono inserite in minuscoli dettagli all’interno di un’enorme massa di dati che l’impresa ha accumulato nel tempo e che continua ad accumulare.

Tra informazioni significative e dati elementari esiste un rapporto che è simile a quello che esiste tra una bottiglia di champagne millesimato ed il vigneto da cui proviene: la distillazione progressiva dell’eccellenza.
Per restare nella similitudine, il processo di estrazione delle informazioni significative è altrettanto complesso di una vinificazione di alta qualità: richiede componenti elementari di ottima qualità, tecnologia ed esperienza ma, a differenza dello champagne, esso necessita di una forte dose di personalizzazione non solo per le esigenze specifiche della mansione dell’utente – sia esso un imprenditore, od un gestore della Banca, od un responsabile di una Supply Chain – ma anche per la sua esperienza e cultura” come singolo individuo.
Per avere una dimensione della complessità del contesto, è come se fosse necessario produrre champagne personalizzato a seconda delle specifiche richieste di ciascun acquirente.”
I dati parlano
Qui termina la similitudine poiché il processo di distillazione dell’eccellenza dei comportamenti degli individui insita nei dati, oltre ad essere estremamente complesso, non ha precedenti di riferimento eseguiti manualmente a causa dell’enorme massa di dati da analizzare e del fatto che in realtà non si conosce a priori esattamente quello che si cerca ed è necessario usare tecniche matematiche molto sofisticate che spazino anche nel futuro oltre che nel passato per “lasciare che i dati parlino da soli“.
Purtroppo i dati parlano solo quando sono messi in relazione tra di loro.
Un valore di ricavi di € 2.456.789,37 ha un senso solo quando lo si mette in relazione ad altri valori quali i costi, e la relazione mi dice se guadagno o perdo, o con il valore dello scorso anno e mi dice se mi espando o se sto perdendo terreno e, se combino a loro volta le relazioni tra di loro, ottengo informazioni in merito all’andamento ed alla profittabilità dell’impresa.
Ma effettivamente di cosa si sta tratta?
Solo di quantità stratosferiche di relazioni elementari che diventano sempre più complesse ed il cui percorso verso la conclusione “semplice” ed utilizzabile è influenzato costantemente dai risultati ottenuti nelle scelte precedenti.
Si tratta a tutti gli effetti di una forma di sistema complesso adattativo (CAS) del quale molti di voi avranno sentito solo parlare con il cosiddetto butterfly effect: se una farfalla sbatte le ali a Pechino produce comunque una variazione nell’aria che si propaga e che produce un temporale a New York. (J. Glieck, Chaos making a new science, Penguin Books, 1987)
Non per niente la tecnologia dei Big Data, una branca della cibernetica che tratta grandi masse di dati, si è sviluppata in astronomia venti anni dopo a causa dei nuovi telescopi posizionati oltre l’atmosfera che trasmettono miliardi di dati al giorno che nessun astronomo sapeva come gestire.
Se solo si riflette sul fatto che, ad esempio, la pratica sull‘affidamento di un’impresa richiede alla Banca di analizzare da 500 a 700 componenti informative diverse ed eseguire delle scelte con decisioni progressivamente sempre più complesse che dipendono dalle scelte precedenti, utilizzando per ogni decisione almeno tre livelli di scelta (accettabile, respinto, da analizzare), ci si rende conto che per tentare di distillare l’eccellenza dei comportamento dalle decisioni del passato della Banca si tratta di gestire centinaia di milioni di “relazioni” dei dati per ogni anno del passato ed altrettante per il futuro se si introducono anche funzioni di predittività probabilistica o di simulazioni degli esiti per convalidare eventuali scelte decisionali.
Solo analizzando i risultati ottenuti sapremo se dal “data mining” abbiamo estratto l’oro dell’eccellenza o solamente la pirite, tipo un classico report settimanale, che luccica molto al contrario dell’oro ed inganna il cercatore non esperto.
La struttura di un processo cibernetico
Innanzitutto una puntualizzazione: un processo cibernetico è costituito da una sequenza di tecniche della cosiddetta “data science” che operano su grandi masse di dati per ricercare informazioni significative per supportare i processi decisionali degli utenti nell’impresa, nella scienza, nelle Istituzioni finanziarie, ecc. La cibernetica non serve per fare le fatture.
La ricerca dell’eccellenza dei comportamenti è un processo ricorsivo che si sviluppa per scoperte e miglioramenti progressivi e che, tra l’altro, non si arresta perché, assorbendo anche i dati della quotidianità, continua sempre ad aggiornarsi ed ad essere di estrema attualità in ogni occasione.
l risultato di una complessa massa di dati ?????comprendono una sintesi caratterizzata da estrema semplicità e quindi facilità d’uso delle seguenti classi di informazioni:
- una sintesi delle motivazioni di decisioni analoghe del passato sia in positivo che in negativo,
- la disponibilità di trends predittivi ad approccio probabilistico su base triennale sia della propria impresa che dei clienti, concorrenti, settore di mercato, partecipate, ecc.
- la possibilità di simulazione degli effetti delle decisioni per valutarne la validità senza arrecare alcun danno
- il riferimento a strutture normative con le condizioni “bloccanti”
- le modalità di utilizzo dei social per migliorare la percezione del contesto della decisione
- altre informazioni di carattere estemporaneo che si rivelassero necessarie con il tempo.
–