Wild card - L’ipotesi del “mondo vulnerabile”: come evitare una nuova “palla nera”
Il direttore del Future of humanity institute, Nick Bostrom, l'umanità rischia di trovarsi in crisi catastrofiche legate ai rischi di tipo tecnologico, ossia prodotti dallo sviluppo tecno-scientifico di natura antropogenica.
di Roberto Paura, Italian Institute for the Future
La possibilità che, lungo la traiettoria verso il futuro, la nostra civiltà possa imbattersi in un rischio catastrofico, è stata paragonata da Nick Bostrom, direttore del Future of humanity institute dell’Università di Oxford, all’estrazione di una palla nera da un’urna. Finora, abbiamo estratto solo palle bianche o grigie, ossia eventi con rischio nullo o minimo; ma in un suo recente articolo, pubblicato nel novembre 2019 sulla rivista Global Policy, Bostrom ha avanzato l’ipotesi del “mondo vulnerabile” (Vulnerable world hypothesis, Vwh), secondo cui prima o poi all’umanità toccherà in sorte una palla nera. Potremmo pensare che la predizione di Bostrom si sia già avverata: ma la pandemia di Covid-19 non rientra, in realtà, nella casistica bostromiana, perché l’ipotesi dell’autore è legata ai rischi di tipo tecnologico, ossia prodotti dallo sviluppo tecno-scientifico di natura antropogenica. In passato, Nick Bostrom ha legato la sua notorietà alla definizione di “rischio esistenziale”, per la cui mitigazione ha fondato a Oxford il Future of humanity institute. Ma mentre il rischio esistenziale può anche essere di natura esogena o naturale (un virus, appunto, oppure un asteroide che impatta la Terra), la Vwh ha un altro obiettivo: ragionare su come rendere l’accelerazione del progresso tecno-scientifico sicura per la civiltà.
L’umanità è stata molto vicina a estrarre una di queste palle nere, secondo Bostrom. In particolare con la nascita della bomba atomica: cosa sarebbe accaduto se avessimo scoperto che per ottenere una bomba atomica non occorreva uranio o plutonio, oltre a un’avanzata infrastruttura tecnologica, ma giusto un pezzo di vetro, un po’ di metallo e una batteria? È un esperimento mentale, di tipo controfattuale, tipico del ragionamento di Bostrom. In questo scenario, che chiama easy nuke (“nucleare facile”), la potenza devastante dell’atomica sarebbe alla portata di chiunque e l’umanità rischierebbe seriamente l’autodistruzione. È un bene, allora, che per scatenare i processi di fissione del nucleo atomico occorra una tecnologia sofisticata e un materiale piuttosto raro che richiede, peraltro, un lungo processamento. Ma, se lo scenario easy nuke fosse stato reale, cosa avremmo potuto fare? Magari il governo degli Stati Uniti, messo al corrente della possibilità, avrebbe chiuso tutti i dipartimenti di fisica e ingegneria, per evitare che qualche studente potesse realizzare la bomba in laboratorio. Anche così, prima o poi qualcuno sarebbe giunto a scoprire il processo di fissione nucleare. Ancora più facilmente oggi, in un’epoca in cui l’informazione è facilmente diffusa su Internet, la possibilità di sopprimere la conoscenza di una tecnologia distruttiva ma facilmente realizzabile sarebbe minima, a meno di non voler imporre un sistema di sorveglianza di massa.
Questa possibilità spinge Bostrom a fare un’importante precisazione alla sua ipotesi: la Vwh è vera solo nel caso in cui l’umanità non riuscisse a emergere dalla sua condizione di semi-anarchia. La condizione di semi-anarchia è definita come l’esito di tre caratteristiche distintive dell’attuale ordine internazionale: una limitata capacità di politiche di prevenzione, attraverso sistemi di controllo di massa in tempo reale; una limitata capacità di governance globale, per risolvere efficacemente i problemi mondiali; e la presenza di motivazioni diverse e divergenti, vale a dire che Stati, culture, gruppi diversi del mondo hanno sistemi di valori e insiemi di motivazioni non identici. In uno scenario easy nuke, infatti, sarebbe comunque possibile, in linea teorica, evitare l’inevitabile attraverso una sorveglianza di massa, mediante la messa al bando mondiale dei mezzi necessari a realizzare la tecnologia distruttiva, per quanto abbondanti (anche il vetro, per esempio, potrebbe essere messo al bando), oppure assumendo che l’intera società sia orientata verso il bene comune e consideri inutile e immorale lo sviluppo di una tale tecnologia.
Per comprendere quest’ultima condizione, Bostrom fa altri esempi. Nel primo, definito safe first-strike, egli osserva come durante la Guerra fredda ci siano stati momenti in cui gli Stati Uniti erano in condizione di assestare un colpo nucleare definitivo all’Unione sovietica senza rischiare ritorsioni di uguale magnitudine (first-strike). Quando sussistono queste condizioni, la propensione a utilizzare una tecnologia distruttiva in modo apparentemente sicuro aumenta sensibilmente. Ma in un ordine internazionale in cui non esistono motivazioni divergenti (com’era invece nel caso del conflitto bipolare), il problema semplicemente non si porrebbe. Nel secondo scenario, definito worse global warming, Bostrom prende in considerazione uno scenario peggiore di cambiamento climatico (global warming) rispetto a quello attuale: per esempio, se anziché di 2-3° C la temperatura media globale dovesse aumentare di 20°C per rendere il cambiamento climatico devastante, difficilmente gli Stati del mondo agirebbero per mitigare le emissioni di gas serra. Se i combustibili fossili fossero molto più facilmente estraibili, oppure se le energie sostenibili fossero molto più costose di quanto non siano, gli Stati avrebbero un forte incentivo ad aumentare anziché mitigare le emissioni climalteranti. In uno scenario semi-anarchico, dunque, è possibile pescare una palla nera a causa del fatto che gruppi diversi hanno incentivi a perseguire una situazione di rischio fino a provocare una catastrofe in grado di coinvolgere l’intera civiltà.
Nei giorni immediatamente precedenti il test Trinity – il primo test della bomba atomica – furono svolti dei calcoli aggiuntivi per scongiurare la possibilità che la fissione atomica potesse incendiare l’atmosfera terrestre in una reazione a catena in grado di distruggere la vita sul pianeta. Fortunatamente, si scoprì che non esisteva una simile possibilità. Nel 1954, durante il test Castle Bravo in cui fu sperimentata la prima bomba termonucleare, i calcoli degli scienziati si basavano sulla possibilità che dei due isotopi di litio impiegati, solo il litio-6 avrebbe alimentato la reazione a catena, generando una potenza di 6 megatoni. Invece, durante l’esplosione si innescò anche la reazione del litio-7 e la potenza generata fu di 15 megatoni, con il risultato di distruggere importanti attrezzature e di generare un fallout radioattivo oltre l’area prevista, contaminando l’equipaggio del peschereccio giapponese Fukuryū Maru. Bostrom definisce “scenario Castle Bravissimo” quello in cui un calcolo errato nel rischio di una certa tecnologia sia in grado di compromettere la sopravvivenza della civiltà, come sarebbe potuto accedere nel 1945. Anche in questo caso, secondo la sua ipotesi è la condizione di semi-anarchia del sistema internazionale a favorire un simile scenario. Ipotizzando un rischio dell’1% che la bomba atomica potesse incendiare l’atmosfera, in un frangente come quello della Seconda guerra mondiale, con il timore che la Germania potesse aver sviluppato a sua volta una bomba atomica, il governo americano avrebbe probabilmente corso ugualmente il rischio, ritenendolo sufficientemente basso se confrontato al rischio di non usare la bomba. Viceversa, in presenza di una governance globale retta da sistemi di valori condivisi, una simile possibilità non potrebbe mai verificarsi.
Che possibilità abbiamo, allora, di mitigare l’ipotesi del mondo vulnerabile? Bostrom analizza quattro opzioni. La prima, quella di imporre restrizioni allo sviluppo tecnologico, la ritiene inattuabile, perché significherebbe condannare l’umanità alla stagnazione, senza contare che lo sviluppo di alcune tecnologie potrebbe invece impedire scenari distruttivi a venire (per esempio una tecnologia in grado di deviare un asteroide in rotta di collisione con la Terra). La seconda è di impedire che una palla nera possa finire nelle mani di gruppi anche piccoli con motivazioni divergenti da quelle della maggioranza dell’umanità: per esempio, un gruppo terroristico o uno Stato-canaglia. Per riuscirci, si potrebbe prevenire la diffusione di informazioni sensibili, porre restrizioni all’accesso di materiali, strumentazioni e infrastrutture specifiche, o rendere inoffensivi gruppi malintenzionati. Ma si tratta di opzioni difficilmente in grado di azzerare del tutto il rischio. Resta allora la possibilità di imporre una sorveglianza di massa. Bostrom ipotizza uno scenario futuro in cui ogni persona sul pianeta – o perlomeno nei paesi che appartengono all’ordine internazionale – accetti di indossare sistemi di sorveglianza audio-video settati in modo da allertare le autorità nel caso in cui qualcuno tenti di sviluppare tecnologie distruttive. Perché le persone accettino di sottoporsi a una simile limitazione delle libertà, occorrerebbe che il rischio sia davvero estremo. È interessante osservare che Bostrom immagina la fattibilità di una simile politica di prevenzione nel caso in cui l’umanità prendesse atto della potenzialità distruttiva di una palla nera: per esempio, la distruzione di molte grandi città in uno scenario easy nuke. Allora, le persone sarebbero disposte ad accettare forti limitazioni alla privacy pur di evitare che un simile scenario si ripeta. L’attuale dibattito su sistemi di sorveglianza di massa (che Bostrom chiama high-tech panopticon) per prevenire nuove ondate di pandemia sembrerebbe dar ragione alle sue speculazioni.
I rischi di una simile soluzione sono tuttavia connessi all’ultima soluzione analizzata nell’articolo, quella di una nuova governance globale. Se è vero che proprio in questi giorni aumentano le pressioni per un nuovo ordine internazionale in cui problemi globali come una pandemia virale vengano risolti attraverso soluzioni globali, il rischio di una governance globale consiste nella possibilità che essa finisca preda di ideologie distruttive. In presenza di istituzioni globali e accentrate, infatti, è paradossalmente molto facile che un’ideologia estremista (simile al nazismo tedesco, per esempio) si imponga su scala globale attraverso queste istituzioni, cosicché l’ordine democratico verrebbe compromesso. Se tutta l’umanità è controllata da istituzioni centralizzate, la possibilità che tali istituzioni cadano nelle mani di élite malintenzionate è di per sé un rischio globale, forse addirittura superiore ai vantaggi legati alla minimizzazione della Vwh. Potendo far affidamento su un sistema di sorveglianza di massa, peraltro, un governo mondiale potrebbe mettersi al riparo da qualsiasi rischio di essere rovesciato da movimenti popolari. Nulla impedisce, inoltre, che sempre a causa di ideologie distorte il gruppo al potere scateni il potenziale distruttivo di una palla nera: per esempio, un’arma biologica per rendere sterili certi gruppi, con finalità eugenetiche o razziste, così facendo compromettendo la sopravvivenza di una parte significativa della specie umana (nella Vwh, infatti, la distruzione dell’intera umanità non è l’unica possibilità: Bostrom fa ricadere tra le opzioni anche quella della morte di una percentuale superiore al 15% della popolazione mondiale o di un crollo del PIL superiore al 50% per oltre un decennio).
In conclusione, la Vwh di Bostrom è un’ipotesi che dovrebbe essere presa in seria considerazione con l’obiettivo di elaborare un framework in grado di anticipare efficacemente potenziali effetti collaterali globali di nuove tecnologie o grandi esperimenti scientifici futuri (nell’articolo si cita il classico scenario dello strangelet: un esperimento di fisica delle particelle che per errore produce materia strana, in grado di distruggere l’intero pianeta). Nessuna delle soluzioni proposte da Bostrom risulta efficace, benché sia evidente che l’autore propenda per lo scenario della governance globale. Ma vale la pena analizzare altre possibilità, con l’obiettivo imprescindibile di rendere la nostra civiltà meno vulnerabile nel prossimo futuro.