Wild Cards – Evitare il precipizio

Ci troviamo davvero su un precipizio, come s’intitola il libro di Toby Ord The Precipice?

di Roberto Paura

Toby Ord, senior research fellow all’università di Oxford, dove collabora con il Future of humanity institute, una delle principali organizzazioni dedicate allo studio e alla mitigazione dei rischi esistenziali, ha scritto The precipice poco prima della pandemia di Covid-19, quindi il precipizio di cui parla non ha a che vedere con la stretta attualità. Eppure, proprio a ricordare quanto la previsione sociale e l’anticipazione dei rischi esistenziali sia essenziale per la nostra civiltà, un capitolo è dedicato proprio ai rischi pandemici, tra cui la possibilità di fughe accidentali di agenti patogeni ingegnerizzati per finalità di ricerca scientifica da laboratori di massima sicurezza BSL-4, come quello di Wuhan. 

Da quando, nel 2001, il collega di Ord, il celebre filosofo Nick Bostrom, coniò il concetto di “rischio esistenziale”, definendolo come un rischio per l’esistenza stessa della specie umana oppure per la sopravvivenza della civiltà tecnologica come la conosciamo, la ricerca e il dibattito su questi temi si sono moltiplicati, anche se perlopiù limitatamente al mondo anglosassone. Con The Precipice, il cui sottotitolo è appunto Existential Risk and the Future of Humanity, Toby Ord cerca di fare il punto sul dibattito, soffermandosi sui principali rischi esistenziali che corre l’umanità e sulle strategie per mitigarli. Ma perché saremmo su un precipizio? Perché, dalla metà dello scorso secolo, l’umanità ha iniziato a dotarsi di strumenti in grado di spazzare via la civiltà tecnologica e forse persino ogni essere vivente complesso sul pianeta. Con la bomba atomica, infatti, il potere distruttivo dell’atomo è stato messo al servizio dei progetti bellici di diverse nazioni. Anche se le preoccupazioni di alcuni scienziati del progetto Manhattan, secondo cui un’esplosione atomica avrebbe potuto incendiare l’atmosfera rendendo la Terra inospitale, si sono rivelate per nostra fortuna errate, il rapido sviluppo degli arsenali atomici in potenza e quantità da parte di Stati Uniti e Unione Sovietica durante la guerra fredda ha portato più volte il mondo a un passo dalla “mezzanotte”, ossia da una guerra nucleare globale in grado non solo di distruggere centinaia di grandi città del mondo, uccidendo in pochi minuti o ore centinaia di milioni di persone, ma innescando anche un “inverno nucleare” a causa delle ceneri proiettata in atmosfera, tale da provocare carestie di massa e la morte conseguente di altri miliardi di esseri umani.

Siamo stati più volte sull’orlo del precipizio nucleare, come ci ricorda Ord. In particolare, durante la crisi dei missili cubani nel 1962, la tensione tra americani e sovietici giunse a un passo dal disastro e solo il sangue freddo di alcuni comandanti e dei leader politici impedì il lancio delle atomiche. Il caso della crisi dei missili cubani è esemplificativo di uno dei concetti-chiave di Ord: anche se il rischio esistenziale è sempre estremamente basso, quanto più a lungo perdurano particolari condizioni di incertezza, tanto più la probabilità di una catastrofe cresce. Nel caso specifico, la lunga durata della guerra fredda ha favorito la moltiplicazione di eventi in cui, anche accidentalmente, una guerra nucleare sarebbe potuta scoppiare. Anche la durata dello stallo sulla crisi dei missili cubani ha favorito più di un evento in cui, quasi per accidente, la guerra poteva scoppiare. Per questo, uno dei principali obiettivi di mitigazione del rischio consiste nel contrastare i fenomeni di instabilità che favoriscono i rischi accidentali, soprattutto di tipo accidentale. Una guerra tra superpotenze è una classica situazione in cui la corsa agli armamenti, l’indebolimento delle catene di comando, la messa in discussione di principi etici, la fragilità dei sistemi democratici, il potere estremo messo nelle mani di pochi individui può aumentare il rischio esistenziale in modo proporzionale alla durata del conflitto.

L’esempio delle armi nucleari serve anche a comprendere che uno dei principali fattori di rischio nel corso di questo secolo è lo sviluppo tecnologico. L’ingegneria genetica, le nanotecnologie, l’intelligenza artificiale sono tutti sviluppi recenti che stanno subendo una fase di accelerazione esponenziale in grado di generare importanti effetti benefici per l’umanità, ma anche rischi di tipo esistenziale, esattamente come la scoperta della fissione nucleare ha portato sia allo sviluppo di una fonte di energia per uso civile di enorme potenza, sia un’arma di distruzione di massa. Per questo, il “precipizio” per Ord è dato soprattutto dalla velocità dell’innovazione tecno-scientifica degli ultimi decenni, che sta fornendo all’umanità un potere che forse non è ancora in grado di gestire.

Il rischio antropogenico – derivante da tecnologie prodotte dall’Uomo – è maggiore per Ord rispetto al rischio naturale. A dimostrarcelo è, d’altra parte, la storia stessa. L’evoluzione della specie umana è proseguita negli ultimi due milioni di anni senza finire estinta per eventi naturali. Di recente sono state raccolte prove a sostegno di un evento catastrofico che avrebbe ridotto significativamente la popolazione umana a poche migliaia di individui circa 75.000 anni fa (Teoria della catastrofe di Toba), un evento legato all’eruzione di un supervulcano. I supervulcani rappresentano uno dei rischi esistenziali naturali più noti, e al momento esistono almeno due casi (Yellowstone e Campi Flegrei) la cui eruzione nello scenario più catastrofico potrebbe coinvolgere l’intero pianeta, ma le possibilità che ciò avvenga in tempi ragionevoli è estremamente bassa. Oltre ciò, siamo ormai quasi certi che l’impatto con un grande asteroide sia stato responsabile dell’estinzione dei dinosauri, ma dopo quell’evento occorso 66 milioni di fa non risultano altri impatti di asteroidi o comete in grado di minare la sopravvivenza della vita sulla Terra. È possibile, inoltre, che almeno una delle cinque grandi estinzioni di massa del passato sia stata causata da un fenomeno astronomico: l’estinzione dell’Ordoviciano-Siluriano di 445 milioni di anni fa, secondo alcune teorie, potrebbe infatti essere stata provocata dagli effetti di un gamma-ray burst (un lampo gamma ad alta energia) prodotto da una supernova vicina.

Ma, anche se tali teorie fossero confermate, si tratta di eventi talmente rari da rendere irrisorie le possibilità che si verifichino nel corso del XXI secolo o giù di lì. Ord calcola per la precisione che ci sia 1 probabilità su un miliardo che un’esplosione stellare possa interessare la Terra nei prossimi cento anni e 1 su un milione che il pianeta sia interessato da un impatto con un asteroide o una cometa (una media tra le probabilità di gran lunga maggiori – circa 1 su 120.000 – di impatto con un asteroide di diametro fino a 10 km, e quelle molto basse – circa 1 su 150 milioni – di un impatto con un corpo superiore a 10 km come quello che provocò l’estinzione dei dinosauri). Decisamente più probabile un’eruzione di un supervulcano, con una probabilità di 1 su 10.000 di verificarsi entro questo secolo. Se invece guardiamo alle stime per i rischi antropogenici, le probabilità crescono in modo allarmante. Una pandemia naturale in grado di rappresentare un autentico rischio per l’umanità è data a 1 su 10.000, in considerazione del fatto che nessuna delle grandi pandemie del passato (dalle ondate di peste all’influenza spagnola) ha mai rappresentato una minaccia estintiva, mentre le possibilità salgono a 1 su 1000 per una guerra nucleare entro i prossimi cento anni, a 1 su 1000 che il cambiamento climatico distrugga la nostra civiltà, ma addirittura a 1 possibilità su 30 appena che si verifichi una pandemia “ingegnerizzata” (non tanto per ragioni di guerra batteriologica, quanto per fughe accidentali di agenti patogeni dai laboratori di ricerca) e addirittura 1 possibilità su 10 che un’intelligenza artificiale con scopi divergenti dai nostri (Unaligned artificial intelligence) distrugga la specie umana.

Potrà sembrare fantascienza, ma Ord è in buona compagnia nel sostenere che gli sviluppi dell’intelligenza artificiale rappresentino potenzialmente il maggior rischio esistenziale per l’umanità nei prossimi decenni. La preoccupazione è per esempio condivisa dal CEO di SpaceX e Tesla, Elon Musk, che ha fondato nel 2015 OpenAI, una fondazione che ha per obiettivo quello di sviluppare l’intelligenza artificiale generale (AGI) in modo collaborativo e open, appunto, per evitare che l’esigenza di segretezza o l’obiettivo di tagliare il traguardo prima dei concorrenti possa generare passi falsi. La logica è quella che Ord presenta in questo libro e a cui abbiamo accennato riguardo ai rischi di una guerra nucleare: se si riducono i fattori di rischio, la probabilità che una minaccia esistenziale si avveri si riduce in modo proporzionale. Nello specifico, evitando una nuova “corsa agli armamenti” che abbia per oggetto l’IA, si eviterebbe ciò che è accaduto con il progetto Manhattan: che un’applicazione militare della scoperta (e il suo impiego tattico) preceda l’applicazione civile. Una bomba nucleare può uccidere milioni di persone in un colpo solo. Un’AGI in grado di superare l’intelligenza umana (superintelligenza, o super-IA) sarebbe in grado di distruggere l’intera umanità, se i suoi obiettivi divergessero in modo radicale dai nostri al punto da considerare la nostra esistenza una minaccia alla sua sopravvivenza o al perseguimento della sua agenda.

Oltre alla mitigazione dei fattori di rischio, tra le altre strategie che Ord suggerisce c’è quella di potenziare la cooperazione internazionale in materia di sviluppo tecnologico (gli accordi per il controllo e la riduzione degli arsenali nucleari hanno giocato un ruolo determinante nel ridurre il rischio di un conflitto distruttivo), di investire nella ricerca su futuri rischi esistenziali oggi non ancora immaginabili, di avviare una discussione globale sul futuro a lungo termine dell’umanità, che possa irrobustire la nostra capacità di pensare a lungo termine, i nostri principi etici e la nostra preoccupazione per le generazioni a venire. Ord non è tra i sostenitori di un “piano B” che preveda di espandere quanto più rapidamente possibile la civiltà umana fuori dalla Terra: alcuni dei rischi esistenziali più probabili, come appunto lo sviluppo di un’IA fuori controllo o una guerra nucleare, potrebbero interessare l’umanità ovunque si trovi. Prima di espanderci tra le stelle, dunque, dovremmo imparare a contenere e controllare questo tipo di rischi.

A partire dai cambiamenti climatici, di cui Ord sottovaluta gli effetti. Anche ammettendo che un aumento delle temperature globali fino a 13°C nel 2300 non comporti l’estinzione della specie umana, anche ipotizzando che la perdita di biodiversità e una sesta estinzione di massa non intacchino il potenziale di sopravvivenza dell’umanità, è difficile immaginare che lo sviluppo umano – inteso non solo come sviluppo tecnologico, come invece fa Ord nel suo libro – non ne venga irrimediabilmente compromesso. Senza contare che, data la nostra ancora incompleta comprensione dei meccanismi di retrofeedback che l’effetto serra potrebbe produrre, molti dei rischi connessi ai cambiamenti climatici sono forse ancora ignoti e di là da venire. Se è vero, come ci sollecita Toby Ord, che il nostro principale obiettivo deve essere quello di saper anticipare le minacce prima che compaiano all’orizzonte, allora più che a un’intelligenza artificiale fuori controllo – rischio su cui la fantascienza ci ha già messo in guardia da oltre cinquant’anni – dovremmo forse dedicare maggiore attenzione al precipizio su cui ci troviamo oggi.

 

di Roberto Paura, Italian Institute for the Future

Mercoledì 29 Luglio 2020