Indica un intervallo di date:
  • Dal Al

Decidere o discernere: questo è il problema

Dipenda o no dalla nuova ricerca scientifica, la tecnologia è un ramo della filosofia morale, non della scienza (Paul Goodman, New Reformation. Notes on a Neolithic Conservative)
L’uomo trasforma tutto ciò in cui si imbatte in uno strumento: così facendo diventa egli stesso uno strumento (Paul Tillich, teologo protestante)
Se l’unico strumento che hai in mano è un martello, ogni cosa inizierà a sembrarti un chiodo
(Abraham Maslow, psicologo)

L’aumento della velocità e dell’impatto delle trasformazioni in atto, unito a sempre più sfuggente prevedibilità di fenomeni e comportamenti, sta mettendo sul lettino del paziente il processo decisionale. E i medici al capezzale di questo paziente importante – dalla cui salute dipenderà il benessere delle imprese – non concordano su diagnosi e prognosi e si stanno dividendo in due gruppi contrapposti ed agguerriti.
I tecno fan, che si auspicano che tutto venga gestito dalle macchine (robot, sistemi esperti, reti neurali, …), capaci – secondo loro – di fare molto meglio dell’uomo. Gli umanisti, invece, che rispettano e usano le macchine ma non abbandonano mai il loro senso critico, sono convinti che l’uomo – nella sua complessità, finitudine e umanità – sia (e debba essere) sempre superiore alle macchine.

La posizione dei techno fan – o meglio il loro credo – è ben espresso da un autorevole esponente di questa visione del mondo: Chris Anderson, per molti anni direttore della prestigiosa rivista Wired. In un articolo del 2008 dal titolo evocativo “The End of Theory: The Data Deluge Makes the Scientific Model Obsolete”, egli afferma: «Gli scienziati hanno sempre contato su ipotesi ed esprimenti. […] Di fronte alla disponibilità di enormi quantità di dati questo approccio – ipotesi, modello teorico e test – diventa obsoleto. […] C’è ora una via migliore. I petabytes ci consentono di dire: “la correlazione è sufficiente”. Possiamo smettere di cercare modelli teorici. Possiamo analizzare i dati senza alcuna ipotesi su cosa questi possano mostrare. Possiamo inviare i numeri nel più grande insieme di computer [cluster] che il mondo abbia mai visto e lasciare che algoritmi statistici trovino modelli [statistici] dove la scienza non può. […] Imparare a usare un computer di questa scala può essere sfidante. Ma l’opportunità è grande: la nuova disponibilità di un’enorme quantità di dati, unita con gli strumenti statistici per elaborarli, offre una modalità completamente nuova per capire il mondo. La correlazione soppianta la causalità e le scienze possono avanzare addirittura senza modelli teorici coerenti, teorie unificate o una qualche tipo di spiegazione meccanicistica» (Chris Anderson, Wired 16.07, 26 giugno 2008)

Le derive estreme sono il fondamento del cosiddetto movimento postumano, che sembra un termine uscito da un libro di fiction, mentre invece è un movimento – con basi filosofiche e scientifiche molto serie (anche se non sempre condivisibili). Basta leggere un frammento di uno dei suoi numerosi manifesti (ad esempio l’incipit del “The Posthuman Manifesto” pubblicato da Robert Pepperell nel 2003) per capire la portata (e le implicazioni) del loro pensiero: «1) It is now clear that humans are no longer the most important things in the universe. This is something the humanists have yet to accept. 2) All technological progress of human society is geared towards the transformation of the human species as we currently know it. 3) In the posthuman era many beliefs become redundant – not least the belief in human beings.»

Gli umanisti, invece, continuano ostinatamente a considerare le macchine strumenti e non fini (“una città è smart non perché è piena di larga banda ma perché si vive meglio”) e guardano con preoccupazione lo strapotere delle tecnologie e il suo drenare quantità enormi di risorse su temi ”auto-generati” (si pensi per esempio all’auto senza guidatore …) e non necessariamente prioritari nel risolvere i grandi problemi del mondo (fame, povertà, migrazioni, aumento delle malattie mentali, inquinamento … e da ultimo disoccupazione crescente per la diffusa automazione), che possono diventare opportunità grazie ad un uso sapiente della tecnica).

Un importante aspetto dell’approccio umanista – che verrebbe da chiamare “umano” – su questo tema è la centralità del senso del limite, è l’accettare che non tutto è spiegabile, dominabile, riparabile, trasformabile. Si tratta di un rispetto del sacro – non inteso necessariamente come qualcosa di codificato dalle religioni ma come qualcosa che ci trascende e – in qualche modo – ci determina. La storia ha dimostrato che vi è una contrapposizione solo apparente fra metodo scientifico e sensibilità a ciò che ci trascende. Molti scienziati sono ferventi religiosi e alcuni di essi – alla fine della loro vita – hanno cercato addirittura di rileggere fenomeni refrattari alla spiegazione scientifica uscendo dai perimetri della scienza.

Per questo motivo le riflessioni umaniste stanno ritornando nel cuore della scienza. Ne è un esempio il Future of Life Institute (http://futureoflife.org/) fondato, tra gli altri, da Elon Musk e Stephen Hawking. Il suo motto è: “Technology has given life the opportunity to flourish like never before … or to self destruct”. Ha destato particolare clamore la lettera aperta presentata da questo istituto il 27 luglio 2015 durante la International Joint Conference on Artificial Intelligence di Buenos Aires e firmata da centinaia di ricercatori ed esperti di intelligenza artificiale. La petizione chiede alle nazioni del mondo di bandire l’utilizzo bellico dell’intelligenza artificiale e – in particolare – gli armamenti autonomi (gli autonomous weapons sono dispositivi bellici in grado di scegliere e ingaggiare i propri bersagli senza la guida di un operatore umano). I proponenti ritengono che questa interdizione sia essenziale per impedire un’escalation militare paragonabile a quelle avvenute con lo sviluppo delle armi da fuoco e l’avvento delle bombe atomiche.

Per tornare ai processi decisionali, il punto è saper conciliare il senso del limite con la voglia di superarlo; è un’attitudine sofisticata, importante e oggi molto richiesta dalle aziende eccellenti perché consente di gestire con efficacia incertezza e ambiguità senza disorientarsi. Di accettare obiettivi “quasi impossibili” senza perdersi d’animo. L’ambiguità è sempre più presente nei contesti lavorativi (vedi Ambiguità e VUCA: abitare l’imprevedibilità del business) e il saperla gestire – o meglio saperla abitare – sarà una dote fondamentale dei leader. Come ci ricorda McKinsey in un recente articolo, «Executives in the era of brilliant machines will be able to make the biggest difference through the human touch. By this we mean …. That includes tolerating ambiguity». (McKinsey Quaterly, “Manager and the machine. The new leadership equation”, settembre 2014)

Efficace – io credo – è il motto dei gesuiti, che dà un’indicazione pratica a questo dilemma: «Lavora come se il successo dipendesse dai tuoi sforzi, ma abbi fede come se tutto dipendesse da Dio». A una lettura superficiale, la richiesta sembrerebbe paradossale, irrealistica … eppure per chi ha saputo leggerla in profondità è diventata autentico viatico per gestire e valorizzare il senso del limite.
I gesuiti erano eccellenti nell’operatività. Richard J. Neutra li considera veri e propri “maestri” del fare (del project management diremmo oggi) e li chiama «gli uomini dell’azione progettata» (nel libro “Progettare per sopravvivere. Le emozioni hanno una forma?”). Ma i gesuiti, anche nel pieno dell’operatività, non hanno mai rinunciato alla contemplazione, apparentemente inconciliabile con l’iper-attivismo. «Simul in actione contemplativus» (che potrebbe essere tradotta – perdendo ovviamente la sua efficacia … – «Conserva il più profondo raccoglimento anche nel bel mezzo dell’attività più frenetica») era infatti una delle raccomandazioni del fondatore dell’ordine – Ignazio di Loyola.

Che fare ?

Dobbiamo accettare il limite e la finitudine senza rinunciare a fare il massimo per comprendere e agire è il dilemma che sottende ogni autentico processo decisionale e richiede – per essere gestito – di introdurre una dimensione etica che si affianca alla dimensione prettamente tecnico-economica (che si concentra sulla massimizzazione dell’utilità).

Nel caso del digitale il tema è molto evidente. Ogni tecnologia – ad esempio la pistola o l’energia nucleare –può essere usata per fare sia del bene (nel nostro esempio difenderci dai criminali o curare il cancro) che del male (uccidere un innocente o costruire una bomba atomica). Ma l’uso di piattaforme digitali non si limita a opzioni binarie (“fa del bene o dei danni?”), ma apre a un ventaglio amplissimo di opzioni e quindi di possibili impatti … E le opzioni sono molto più articolate della polarizzazione “bene o male” (come invece accade con l’uso della pistola o dell’energia atomica). Per questo motivo serve capacità di discernimento (che richiede la capacità di ipotizzare anche gli impatti e gli effetti collaterali) e non basta la conoscenza tecnica o la modellistica economica.

Roland Barthes spiega il concetto come lo ha interpretato il fondatore dei gesuiti: «discernere è distinguere, separare, scartare, limitare, enumerare, valutare, riconoscere la funzione fondatrice della differenza; la discretio, parola ignaziana per eccellenza, designa un gesto così originale che si può trovare applicato tanto a comportamenti e a giudizi che a discorsi». Come ha spiegato papa Francesco, discernimento è «la grazia di “discernere” – separare e distinguere – lo spirito buono da quello cattivo».

Il dubbio che vi siano rischi crescenti se si consente uno sviluppo non controllato della scienza, che punti esclusivamente alla massimizzazione di alcune “utilità” (allungare il più possibile la vita, guidare senza conducente, riempire la nostra vita di dispositivi digitali, dare agli algoritmi il compito di rimpiazzare le relazioni fiduciarie (da qui il grande interesse sul blockchain), …) è ormai conclamato e incomincia a preoccupare perfino gli scienziati e gli innovatori più visionari e coraggiosi.

Non solo i rischi di una intelligenza artificiale che assuma un potere tale da diventare un Golem incontrollabile so¬no stati denunciati – come abbiamo visto poc’anzi – con una petizione del 2015 lanciata da Stephen Hawking e Elon Musk, sostenuti da Bill Gates e da molti scienziati. Ma anche il dibattito sugli algoritmi che guidano la “macchina senza guidatore” ad evitare gli incidenti “scegliendo il male minore” incominciano a destare preoccupazione. E nel dibattito che ne segue, fanno capolino le riflessioni dei filosofi etici – ancora una volta una tema che richiede discernimento. Una per tutti il cosiddetto “Trolley Problem” formulato per la prima volta dalla filosofa Philippa Foot nel 1967 e che afferma: «un tram ferroviario ha perduto il controllo. Il guidatore non può frenare ma può solo azionare lo scambio tra i binari. A un certo punto si trova di fronte a un bivio: seguendo il percorso previsto, ci sono cinque persone sul binario; mentre sull’altro binario – che può percorrere solo decidendo di azionare lo scambio – ce n’è solo una. In entrambi i casi, le persone moriranno nell’impatto. Cosa deve fare il guidatore? Subire passivamente quanto programmato e assistere alla morte di 5 persone o azionare deliberatamente lo scambio e ucciderne “solo” una?». Sembra un esercizio teorico, ma una delle possibili soluzioni a questo dilemma diventerà un algoritmo dentro quelle auto e produrrà decisioni …

Che fare dunque? Tre sono, a mio avviso, le possibili ricette per passare – nel caso delle tecnologie – da semplici decisioni a un più maturato ed equilibrato discernimento:

1. Adottare il “principio di precauzione”
2. Non spegnere mail il senso critico
3. Monitorare sempre l’output delle nostre decisioni legate al digitale

Vediamo brevemente ciascun punto. Innanzitutto l’adozione del “principio di precauzione”. Hans Jonas – filosofo del diritto, allievo di Martin Heidegger e compagno di studi di Hannah Arendt – ha scritto nel 1979 “Il principio di responsabilità”, opera dedicata ai delicati problemi etici e sociali sollevati dall’applicazione incessante della tecnologia in tutti gli aspetti della vita. Il tema che mette al centro della sua riflessione è: «Agisci in modo che le conseguenze della tua azione siano compatibili con la sopravvivenza della vita umana sulla terra». Le sue riflessioni sono alla base del principio legislativo di precauzione sancito nella Conferenza delle Nazioni Unite sull’Ambiente e lo Sviluppo di Rio de Janeiro nel 1992 e della formulazione del Protocollo di Kyoto sulla riduzione delle emissioni di gas ad effetto serra.
La proiezione di Hans Jonas è verso le generazioni future, e si ricollega in modo particolare alla emersione, in tempi recenti, di un fenomeno sconvolgente, quale è quello dell’ambiente inquinato, con le sue conseguenze a largo raggio e di lungo periodo. L’imperativo fondato sul principio di responsabilità, che nella sua forma semplice presuppone una tendenziale ipotizzabilità delle conseguenze, deve essere pertanto adattato al fatto che questa responsabilità si estende ora all’ignoto.
Il principio di precauzione” – che dovrebbe essere sempre adottato quando in gioco vi sono impatti importanti (soprattutto quando si estendono alle nuove generazioni), soprattutto quelli legati all’adozione di nuove tecnologie – può essere definito in questo modo: le autorità pubbliche, di fronte a un rischio la cui esistenza sembra plausibile ma non è o non è ancora scientificamente dimostrata, possono prendere misure di controllo o di interdizione proporzionale alla gravità del rischio potenziale individuato. Il nocciolo della questione è dunque la “responsabilità intergenerazionale”: come rappresentare gli interessi delle generazioni future, che oggi non hanno potere di rappresentanza (formale e autorevole) su ciò che condizionerà il loro presente?

In secondo luogo la centralità del pensiero critico. Non intendo quella critica ipocrita della volpe e l’uva né quella tendenziosa (il “dubitare per dubitare”) il cui fine ultimo è lo scetticismo e l’antimodernismo. Quello che serve è il dubbio metodico che Cartesio metteva alla base del suo metodo scientifico: una “prova del fuoco” per eliminare tutte quelle credenze e stereotipi – prodotti sia dalle ingenuità e incompetenze degli utenti che dalle sofisticazioni e manipolazioni dei produttori di soluzioni digitali – e riportare in superficie la vera natura del digitale. Quel senso che Ernest Hemingway, in una celebre intervista del 1954, ha descritto con grande efficacia: «Every man should have a built-in automatic crap detector operating inside him». L’uomo ha certamente bisogno di luoghi comuni, di certezza da applicare automaticamente … il rischio è però che la praticità che si trasformi in necessità, il pre-giudizio in verità inconfutabile … Come ha scritto Primo Levi, «quante sono le menti umane capaci di resistere alla lenta, feroce, incessante, impercettibile forza di penetrazione dei luoghi comuni?». Si deve dunque fondare la “ragione tecnica” su solide basi; Cartesio sosteneva infatti che il dubbio fosse l’origine della saggezza e che l’errore consistesse semplicemente nel fatto che «non sembra esser tale». Ciò implica – nell’era della tecnica – anche di non fidarsi troppo di macchine e software … e delle promesse fatte dai loro costruttori.

Infine il monitoraggio delle soluzioni digitali adottate, per vedere se effettivamente i benefici promessi si sono avverati … o continuano ad esser validi. Il digitale crea sistemi socio-tecnici, il cui comportamento nasce dalla interazione reciproca fra funzionalità tecnologiche e comportamenti umani … è un sistema complesso di cui è “per costruzione” difficile prevedere i comportamenti e le evoluzioni – soprattutto nel medio periodo. Per questo motivo i teorici della complessità hanno introdotto il concetto di proprietà emergente: il comportamento non è deducibile matematicamente ma emerge man mano che il sistema evolve … e quindi risulta fondamentale il monitoraggio continuo.

Il caso della posta elettronica docet: da sistema rivoluzionario di comunicazione e strumento di miglioramento della produttività si sta trasformando – sempre più frequentemente – in un vero e proprio incubo. Non è infrequente trovare persone che ricevono anche 300 mail al giorno e alcune aziende hanno calcolato che molti manager dedicano alla gestione della loro casella di mail quasi un giorno alla settimana. È chiaramente un processo “scappato di mano”; ma non perché si è “guastato” il sistema di posta elettronica; è il processo risultante dalla interazione fra tecnologia e comportamenti umani che si è trasformato ed è diventato critico. Con poche mail scambiate il problema non era apparente; ma una volta superata una certa soglia, il sistema si “ammala” e incomincia a degradare. Nel caso della posta elettronica, le cause sono sostanzialmente tre:
. Volumi eccessivi (pensiamo al numero di messaggi di email o all’esplosione delle informazioni da elaborare) senza conseguenti azioni di contenimento né la ricerca di applicazioni più “robuste”.
. Uso improprio e stabilizzato di comportamenti da neofita, imparati e assimilati appena ci si è avvicinati allo strumento (che spesso presenta funzioni molto sofisticate che richiedono però diverse fasi di addestramento).
. Abuso consapevole dello strumento, per fini personali o volutamente lesivi per l’azienda.

Per questo vanno monitorati i processi di utilizzo del digitale. Ma soprattutto dobbiamo rafforzare la nostra cultura umanistica, unico antidoto capace di contrastare le dimensioni problematiche del digitale e in grado sia di cogliere le dimensioni simboliche e le valenze etiche del digitale e sia – soprattutto – di evitare che lo strumento si trasformi in fine (di cui l’utilizzatore diventa strumento). Solo adottando questi criteri potremmo buttarci a capofitto nella rivoluzione digitale ed ottenerne il massimo. Altrimenti – come dice un vecchio detto hacker: «se non usi bene la tecnologia, sarà lei a usare te».