Indica un intervallo di date:
  • Dal Al

Mentalità indiziaria: trasformare i (big) data in conoscenza e abilità decisionale

Acqua, acqua dovunque e neppure una goccia da bere (Samuel Taylor Coleridge)

L’abbondanza di informazioni genera scarsità di attenzione (Herbert Simon)

Non tutto quel che conta può essere contato (cartello scritto a mano e appeso nello studio di Albert Einstein all’Università di Princeton)

In un mondo che cambia, l’informazione è la bussola per orientarsi: non cadere nelle trappole delle novità apparenti, capire ciò che sta tramontando davvero e individuare – prima degli altri – il nuovo, la sua forma, la sua direzione, i luoghi dove inizierà a manifestarsi.

I dati non sono marginali ma tendono – nell’era della conoscenza – a diventare un fattore competitivo e differenziante. Inoltre la loro materia non è solo “numerica”; ci sono anche, per esempio, le descrizioni dei comportamenti (dei clienti, dei concorrenti, ….), oppure le affermazioni – i verbatim (o “quote” per la cultura anglosassone) – fatte dai clienti alla front-line di un azienda o durante un’intervista etnografica, oppure ancora il sentiment degli opinion leader – che può addirittura le scelte investitorie delle aziende …; anzi la dimensione qualitativa del dato sta assumendo una rilevanza crescente. E poi ci sono i segnali deboli, gli indizi che normalmente non hanno la dignità di dato (per la loro parzialità, incompletezza e talvolta ambiguità) ma che sono sempre più indispensabili per anticipare il futuro, per prefigurare quello che sarà. I grandi investigatori, ma anche i medici più esperti – pensiamo al mitico dr House della omonima serie TV di successo – sanno trasformare le tracce in conoscenza “obiettiva” (che consente loro di identificare con precisione un colpevole tracciandone il profilo psicologico o diagnosticare una malattia identificandone le cause scatenanti e prevedendone il decorso).

Ma da solo, il dato non diviene informazione. Per trasformare i dati grezzi in ciò che Gregory Bateson (nella sua famosa Alfred Korzybski Memorial Lecture) chiamò la “differenza che fa la differenza”, serve lo scarto informativo, quel quid in grado di orientare le decisioni, di modificare la conoscenza che abbiamo delle cose. E non tutti i dati possono svolgere questo ruolo: c’è quindi sempre il rischio di riempirci di dati inutili, vuoti, che non ci dicono niente, che non ci servono a prendere decisioni, a risolvere emergenze, a imboccare nuovi percorsi.

Vi è anche un altro rischio, forse più insidioso: come ha osservato lo statistico Ronald Coase – premio Nobel per l’economia nel 1991. «Se tortureremo a sufficienza i dati, confesseranno tutto». La moda delle infografiche – con le sue capacità suggestive e il suo mettere in luce alcune cose e marginalizzarne delle altre – può diventare un pericolosissimo strumento di manipolazione, ancora più insidioso perché ha per definizione l’apparenza di un insieme di dati obiettivi e “tecnici”.
Il dato deve dunque aiutare a decidere, a capire meglio; ma dobbiamo ricordarci che l’uomo è un Giano bifronte: si orienta, decide, usando un misto di credenze e di fatti oggettivi, usa processi razionali ma si lascia contaminare dalle emozioni (grazie anche a ciò che Daniel Goleman chiama intelligenza emotiva).

La decisione viene perciò orientata da un misto di dati da correlare e credenze che vengono organizzate in un ragionamento, più o meno esplicito. L’argomentazione è dunque un processo ibrido dove entrano numeri “obiettivi”, credenze, luoghi comuni, ragionamenti. Dobbiamo sempre tenere a mente questo fatto per ricordarci che la qualità del dato è condizione necessaria ma non sufficiente per un buona decisione.

Per trasformare il dato in informazione ci vuole dunque discernimento, competenza retorica – che consente di costruire ragionamenti persuasivi costruiti su basi attendibili – e quell’abilità che Steve Jobs chiamava “connettere i puntini”, capace di avvicinare cose lontane per creare correlazioni e nuovi significati. Detto in altre parole ci vuole una vera e propria “mentalità indiziaria”. Questa è una competenza articolata e multidisciplinare. Edward Tufte, il padre delle rappresentazioni grafiche per il business, parla – nel suo libro seminale del 1990 (Envisioning information, Graphic Press, Cheshire, Connecticut, 1990) – di «general principles that have specific visual consequences, governing the design, editing, analysis, and critique of data representations».

Oltretutto stiamo assistendo a una vera e propria rivoluzione dei dati. Tre fenomeni, in particolare, la stanno alimentando e orientando:
– Crescente disponibilità di grandi moli di dati (open & big data)
– Diffusione di sistemi di analisi del dato (business analytics) e di rappresentazione in forme grafiche sofisticare
– L’Internet delle cose (Iot) e la rivoluzione dei sensori, che diventeranno a loro volta generatori di enormi quantità di dati

In particolare, il termine big data è particolarmente vago: non indica infatti quantità specifiche di dati, ma piuttosto allude alla loro tipologia, variabilità, provenienza e complessità (ed alle criticità che ne derivano):
– Mix di dati esterni ed interni all’organizzazione
– Mix di dati strutturati (contenuti in data base relazionali) e non strutturati (ad esempio le conversazioni estratte dai social network)
– Elevata variabilità nel tempo dei dati da analizzare, che richiede complesse analisi statistiche in contesti quasi-realtime
– Volumi elevatissimi di dati generati quotidianamente dalle nostre attività on- ed offline
– Forte spinta all’accumulo di dati apparentemente inutili derivante dalle promesse dei fornitori di soluzioni per il trattamento dei big data

La crescita del numero dei dati disponibili è impressionante: ogni giorno le nostre attività su Internet generano circa 1 Exabyte (10 elevato alla 18) di dati. L’avvento di oggetti connessi e reti di sensori causerà l’esplosione di quella cifra: Internet of Things potrebbe portare i dati generati quotidianamente a volumi nell’ordine dei Brontobyte (10 elevato alla 27).

Questo fenomeno sta alimentando una vera e propria “moda del dato”, spinta dall’emergere di una nuova classe di soluzioni software enterprise, in risposta alla crescente esigenza di analisi sofisticate su grandissime quantità di dati fortemente eterogenei, espressa dalle grandi aziende (e dalla spinta di marketing dei grandi attori dell’ICT. Alcuni osservatori (ma le ipotesi sono molto soggettive e “tendenziose”) fanno stime molto ottimistiche sulla crescita del mercato dei dati, che stimano addirittura in circa 48 miliardi di dollari entro il 2017. La rilevanza dei dati per il mondo delle aziende nasce da tre grandi classi di utilizzo:
– capire meglio quel che è successo in passato (evitando di ripetere gli errori commessi)
– comprendere tutte le caratteristiche del contesto presente (e prendere decisioni “informate”)
– prevedere l’andamento futuro di eventi ancora in corso o l’emergere di nuovi fenomeni

Come si fa a cogliere queste grandi opportunità senza cadere nei tipici tranelli della tecnologia ?

 

La sfida della numerical ability

La costruzione di una mentalità indiziaria richiede innanzitutto la cosiddetta numerical ability – abilità e abitudine a leggere rappresentazione quantitative e a dare senso ai numeri. Chi la possiede ha, nei fatti, sviluppato una sorta di sesto senso, che si esplicita nell’abilità di leggere bilanci riclassificati, sistemi di indici, pannelli gestionali, …

Questa sorta di “intimità” con i numeri richiede certamente competenze “hard” di tipo matematico e statistico, ma pre-suppone curiosità e intuito e soprattutto il non fidarsi sempre di quello che dicono le applicazioni digitali.

Gerd Gigerenzer, psicologo esperto di processi decisionali e direttore del Center for Adaptive Behavior and Cognition al Max Planck di Berlino, sostiene in un suo recente libro (Imparare a rischiare. Come prendere decisioni giuste, Cortina, Milano, 2015) che nella nostra epoca – caratterizzata dalla disponibilità di elaboratori potentissimi e incredibili messe di dati – la nostra capacità di prevedere il futuro con esattezza non è però migliorata.

L’analfabetismo matematico e statistico dilaga e – sempre più frequentemente – prendiamo decisioni sbagliate o ci impauriamo per dei rischi che non hanno quella rilevanza statistica che tendiamo ad attribuire loro. Il disastro dei mutui spazzatura, la trasformazione delle nostre abitudini alimentari a valle della “sindrome” della mucca pazza, ma anche l’ossessione per una continua e sempre più invasiva diagnosi preventiva o i comportamenti irrazionali a fronte del rischio-terrorismo sono il tipico prodotto di questa carenza educativa.

Troppo spesso, infatti, ci guidano l’illusione e i pre-giudizi. Inoltre – in molte situazioni – disporre di più informazioni non porta sempre a prendere le decisioni più corrette. Spesso i risultati migliori si ottengono quando abbiamo meno conoscenza e seguiamo l’istinto, e questo è il punto forte del suo libro: la reintroduzione dell’euristica nei processi decisionali razionali. Seguire le regole del pollice, farsi guidare dall’intuito (come fanno spesso molti esperti, soprattutto quando la decisione deve essere presa in tempi brucianti) non è magia: è spesso la regola migliore e la più “razionale”. Per questo motivo egli introduce anche il concetto di “adaptive toolbox” – il repertorio di euristiche posseduto da un individuo o un’organizzazione. E anche la comunicazione dei fatti statistici richiede specifiche competenze per evitare messaggi fuorvianti.

Gigerenzer prende gli esempi dalla vita comune: finanza, salute, terrorismo e afferma: «Come proteggersi dalla prossima crisi finanziaria ? Regole più rigide e consulenti più numerosi, nonché più bravi. E dalla minaccia del terrorismo? Misure di sicurezza sul territorio nazionale, scansione corporale totale, nuovi sacrifici della libertà individuale. C’è però un’idea che manca dalla lista, quella di un cittadino che sappia rischiare con intelligenza». La tesi di questo libro molto interessante è che questa mancanza non è il semplice risultato dell’ottusità degli esseri umani, ma prodotto di una società non alfabetizzata al rischio.

Oltretutto la comprensione del rischio non è identica all’avversione al rischio. Capire le dinamiche dei rischi non vuol dire non rischiare più; se non corressimo rischi, finirebbe l’innovazione, anzi la vita. Ma capire il rischio non significa nemmeno «trasformarsi in un rompicollo temerario o in un acrobata convinto che tanto lui il naso non lo sbatterà mai».

Un altro passaggio importante sta nelle competenze necessarie per illustrare la probabilità di un fenomeno. Spesso i comportamenti irrazionali della gente (come nel caso di alcuni farmaci contraccettivi, o durante il picco mediatico della “mucca pazza”) dipendono dal fatto che molti esperti non hanno mai imparato a spiegare le probabilità. Su questo punto Gigerenzer dà due suggerimenti:

– chiedi sempre qual’è la classe di riferimento (nel caso delle previsioni metereologiche sulla pioggia, esempi di classi sono la durata del fenomeno, la sua ubicazione, la sua intensità …). Ogni qualvolta si attribuisce una probabilità un singolo evento, l’incertezza sulla classe usata come riferimento rischia sempre di confonderci. Ad esempio l’affermazione «Se prendi un antidepressivo, hai una probabilità del 30% di ritrovarti con un problema sessuale» genera due tipi di letture: “il 30% di tutti i soggetti avrà un problema di questo tipo” oppure “ce l’avrò io nel 30% dei miei rapporti sessuali”.

– chiedi sempre qual’è l’aumento del rischio assoluto: spesso i rischi relativi possono apparire paurosamente alti e spaventare moltissimo, anche quando quelli assoluti non fanno nessuna paura. Ad esempio in un famoso caso di psicosi collettiva lo UK Committee on Safety of Medicines fece un comunicato in cui si avvertiva che i contraccettivi orali di terza generazione aumentavano del doppio, cioè del 100%, il rischio di trombosi. Gli studi su cui si basava la notizia avevano infatti mostrato che ogni settemila donne che avevano preso la pillola precedente, quella di seconda generazione, circa una aveva avuto una trombosi e questo numero era salito a due fra quelle che usavano la pillola di terza generazione …

Nel caso del terrorismo – invece – sono proprio i terroristi che decidono di comunicare per suggestionarci. I terroristi usano il nostro cervello o meglio fanno leva con abilità sulle modalità di funzionamento della sua componente più antica.

Tutti ricordiamo l’11 settembre 2001. Subito dopo si scatenò la paura di volare e l’aumento dei viaggi in auto ebbe conseguenze gravi. Prima dell’attacco il numero degli incidenti di macchina mortali era assai vicino alla media dei cinque anni precedenti; viceversa, questo numero restò sopra la media in ciascuno dei dodici mesi successivi all’11 settembre – e superò anche, quasi sempre, tutti i dati dei cinque anni precedenti. Si stima che complessivamente circa 1.600 americani abbiano perso la vita sulle strade per avere deciso di evitare il rischio di volare.

Osama bin Laden commentò soddisfatto l’attentato alle torri gemelle spiegando di avere usato pochissimo denaro per produrre un altro enorme danno: «Al-Qaeda ci ha speso 500.000 dollari, mentre l’America ne ha persi – secondo la stima più bassa – più di 500 miliardi, fra l’incidente e le sue conseguenze; questo significa che ogni dollaro di Al-Qaeda ne ha sconfitto un milione» (Daveed Gartenstein Ross, Bin Laden’s War ‘of a thousand cuts’ will live on, The Atlantic, 3 maggio 2011)
Perché questo ? Dipende dal funzionamento del nostro cervello (di una parte più antica, formatasi quando l’uomo viveva in piccole bande di cacciatori-raccoglitori). Quando sono in parecchi a morire in modo spettacolare e tutti insieme, come l’11 settembre, il nostro cervello reagisce con l’ansia: ma quando sono altrettanti, o ancora di più, a morire in un modo distribuito nel tempo, come negli incidenti di macchina o di moto, è meno probabile che ci venga paura. Nei soli Stati Uniti muoiono sulle strade circa 35.000 persone all’anno; eppure, pochi hanno paura di andarsene mentre viaggiano in macchina.

I terroristi, dunque, tendono a sfruttare gli eventi a bassa probabilità in cui improvvisamente restano uccise molte persone – i cosiddetti “rischi terrificanti” – poiché essi fanno scattare un principio psicologico inconscio: “se muoiono tutte insieme molte persone, reagisci con la paura ed evita quella situazione.” Non si tratta di paura della morte in quanto tale, ma di morire in un determinato modo – tutti insieme nello stesso istante, o a breve tempo.

Ma i rischi reali sono radicalmente più bassi. Allora l’autore ci fornisce un’altra raccomandazione di valutazione intelligente del rischio: contrasta le paure del “vecchio cervello” con altrettante rassicurazioni: ad esempio l’amore materno o paterno. L’amore materno ha probabilità ben maggiori di battere la persistente paura dei viaggi in aereo, e un “nuovo cervello”, se è furbo, può giocare l’una contro l’altra due paure, nate dall’evoluzione, in modo da sopravvivere meglio nel mondo moderno.

Dobbiamo quindi imparare a convivere con l’incertezza. È tempo di guardare questa cosa in faccia. Bisogna saper separare il rischio dall’incertezza. Il rischio è conosciuto (spesso viene “progettato” come nel gioco d’azzardo) ed semplicemente “la più pallida delle ombre dell’incertezza”. Mentre l’incertezza ha a che fare con i rischi sconosciuti, tipici di un mondo complesso e in continua trasformazione. In un mondo incerto e impossibile determinare il corso d’azione ottimale calcolando con precisione i rischi. Abbiamo a che fare con “incognite sconosciute”, ci capitano delle sorprese.

Quando prendiamo delle decisioni abbiamo bisogno di due insiemi di strumenti intellettuali:
– Rischio: se i rischi sono noti, le buone decisioni richiedono logica e pensiero statistico;
– Incertezza: se c’è qualche rischio sconosciuto, le buone decisioni richiedono anche intuizione e regole del pollice intelligenti (l’euristica).

L’obiettivo è dunque imparare a comportarsi con intelligenza davanti al rischio e ciò dipende da tre fatti:
– ognuno può imparare a gestire il rischio e l’incertezza: basta un po’ di alfabetizzazione statistica;
– gli esperti sono un aspetto del problema, non la sua soluzione: molti esperti hanno loro per primi delle difficoltà a capire i rischi, non sono bravi a comunicarli e hanno interessi che non collimano con i vostri;
– meno è più: di fronte a un problema complesso noi cerchiamo una soluzione complessa, e quando questa non funziona, ne cerchiamo un’altra ancora più complicata. In un mondo incerto questo è un grosso errore. I problemi complessi non richiedono sempre soluzioni complesse. Invece, delle regole semplici – di tipo euristico – possono renderci intelligenti e creare un mondo più sicuro.

Queste abilità numeriche vengono fortemente potenziate dalle rappresentazioni grafiche, quelle efficaci – non necessariamente quelle belle. Per esempio la semplificazione di una rappresentazione non è necessariamente un contributo alla chiarezza ma è spesso una preferenza estetica. Dobbiamo infatti conoscere i principi neurofisiologici che sottendono alla business graphic per costruire rappresentazioni efficaci e insightful. Come osserva Alberto Cairo ne L’arte funzionale (Pearson, Milano e Torino, 2013): «Il cervello umano non è bravo a calcolare le aree delle superfici; è molto più bravo a confrontare dimensioni singole come la lunghezza o l’altezza. Oltretutto il cervello è anche una macchina estremamente pigra. Quando si trova a doversi chiedere se l’orso che corre verso di noi è grande abbastanza da rappresentare una minaccia, non perde tempo o energia ad analizzare se è alto e grosso. Vedere soltanto se è alto è già sufficiente. Pertanto le bolle sono fuorvianti. Fanno sottovalutare ledifferenze». E la lista potrebbe continuare.

 

Che fare ?

L’obiettivo ultimo è decidere informati : scovare, raccogliere, pulire, correlare e comprendere i dati quantitativi senza, nel contempo, ignorare quelli qualitativi. E per fare ciò dobbiamo costruire e mantenere allenata una mentalità indiziaria. Quattro azioni – nello specifico – ci possono aiutare in questo compito:

Alimentare la nostra curiosità usando ogni occasione e mezzo possibile. In una recente intervista che ho fatto per advertiser.it, Brian Gentile – dal 2007 CEO di Jaspersoft e VP di Tibco – ha affermato che la competenza più importante per usare con efficacia e abilità gli strumenti più sofisticati di Business Intelligence è la curiosità, la voglia di capire e scoprire fenomeni, di percorrere nuove strade, ma anche di mettere in dubbio le proprie certezze. Purtroppo – osserva Gentile – non è un tratto comune. Soprattutto in tempi di crisi le aziende tendono a irrigidirsi, a perdere curiosità e coraggio, a richiudersi in se stesse.
Sviluppare la numerical ability per essere a proprio agio con i numeri e saper trovare – a colpo d’occhio – correlazioni e incongruenze nelle loro rappresentazioni. Serve molto esercizio e chi ha sviluppato questa competenza riesce a trovare gli errori di un foglio elettronico semplicemente con lo sguardo (come i correttori di bozza quando vedono una pagina dattiloscritta). Oltre a ciò si deve costruire – seguendo le indicazioni di Ging Gerenzer – una sensibilità statistica e una cultura del rischio che ci metta al riparo dalle previsioni ingannevoli.

Rafforzare la nostra abilità nel visual thinking per padroneggiare i sistemi di rappresentazione (di ausilio al problem structuring) e di visualizzazione (che potenziane le nostre capacità di comprensione e correlazione): un problema ben rappresentato– come noto – guida in modo naturale verso la sua soluzione. Bisogna dunque usare al meglio – senza (ab)usarne – il potere delle immagini: ridurre al minimo gli aspetti decorativi (“chartjunk”) e tenere conto del funzionamento dei nostri processi percettivi.

Diventare efficaci narratori (story-teller) per collegare i puntini non solo in unità di senso in storie appassionate e coinvolgenti. Il dato acquista vita quando diventa parte di una storia, si mette al servizio di un qualche fine. Ha osservato Carlo Ginzburg che il cacciatore è stato il primo a «raccontare una storia» perché era il solo in grado di leggere, nelle tracce mute (se non impercettibili) lasciate dalla preda, una serie coerente di eventi. E la storia entra nel cuore e diventa memorabile, lascia il segno. Dice un proverbio indiano «Dimmi un Fatto e apprenderò, dimmi una verità e crederò, ma raccontami una storia e vivrà nel mio cuore per sempre»

Ma bisogna sempre ricordarsi di mantenere in azione il nostro senso critico – quello che Ernest Hemingway, in una celebre intervista del 1954, ha descritto con grande efficacia: «Every man should have a built-in automatic crap detector operating inside him». Come noto, la mente umana è “cablata” per spiegare il mondo in termini di rapporti causa-effetto, ricorrendo a pattern noti di causazione o di interpretazione degli stimoli percettivi per affrontare situazioni ambigue.

Ciò implica – nell’era della tecnica – anche di non fidarsi troppo delle macchine. Infatti, una delle “armi magiche” delle soluzioni per l’analisi dei big data è il cosiddetto machine learning: un insieme di algoritmi basati su reti neurali in grado di “apprendere” le caratteristiche di un dato sistema o segnale in input (con o senza supervisione di operatore umano che segnali eventuali errori di valutazione), e di effettuare previsioni su base probabilistica del suo stato futuro

In questo modo potremo sviluppare la nostra mentalità indiziaria – abilità sempre più critica in un modo incerto e in perenne trasformazione.