Decidiamo oggi per un domani sostenibile

Singolarità e lungotermismo: il futuro dell’umanità secondo la Silicon Valley

Superintelligenza artificiale, fusione essere umano-macchina, teorie “millenariste” sul destino della specie: la battaglia tra tecnottimisti e scettici sta plasmando la nostra visione del domani. Meglio combattere la povertà o colonizzare Marte?

martedì 18 marzo 2025
Tempo di lettura: min

Superare se stessi: se volessimo condensare tutte le teorie e previsioni che ruotano attorno alla Singolarità, al transumanesimo, al lungotermismo in una sola frase, alla fine sarebbe questa. L’umanità ha dei limiti: di tempo, di spazio, di conoscenza. Ma questi limiti, secondo alcuni, possono essere superati: il nostro essere umani (e dunque imperfetti) può essere manipolato, potenziato, ricontestualizzato su altri pianeti. Possiamo ampliare la nostra mente grazie all’AI. Possiamo sconfiggere la morte e non preoccuparci del tempo che passa. Possiamo trasferirci su altri pianeti e ignorare quello che succede alla Terra. Ma fino a che punto si può manipolare la propria umanità restando umani? È il paradosso della Nave di Teseo: fino a che punto la Nave di Teseo resta tale se ne vengono sostituite tutte le parti?

Trattandosi di un paradosso, la risposta non c’è. Però attorno a questo dilemma, in particolare nella sua declinazione tecnologica, sono nate due scuole di pensiero: i tecnopessimisti, che vedono nel progresso accelerato una disumanizzazione di cui stiamo pagando già oggi le conseguenze, e i tecnottimisti, fiduciosi nei benefici dell’innovazione. Tra questi ultimi c’è Ray Kurzweil, autorità nel campo dell’intelligenza artificiale, ricercatore principale dell’AI presso Google e Nostradamus della Silicon Valley, celebre per aver elaborato previsioni sul futuro spesso azzeccate (e a volte errate: qui una lista abbastanza completa).

Kurzweil non è l’unico tecnottimista in circolazione, anzi: tra i nomi più di spicco troviamo il fondatore di Wired Kevin Kelly, il venture capitalist Marc Andreessen e lo scienziato informatico e investitore Kai-Fu Lee. Ma il guru di Google è salito più spesso degli altri agli onori della cronaca per la sua teoria sulla Singolarità, il momento in cui (2045, secondo le sue previsioni) l’intelligenza umana e virtuale si fonderanno al punto da aprirci le porte di una conoscenza infinita.

A questa idea Kurzweil ha dedicato due saggi molto importanti. Il primo, La singolarità è vicina, uscito nel 2005. E il secondo, La singolarità è più vicina, pubblicato a vent’anni di distanza dal primo, nel 2024. Oltre ad aver fondato, con l’ingegnere e imprenditore Peter Diamandis, un centro di formazione privato rivolto alle élite globali, la Singularity university (SU) per approfondire il tema attraverso corsi, seminari e collaborazioni con startup. Le principali discipline su cui si concentra la SU sono: previsioni e studi sul futuro, biotecnologia e bioinformatica, nanotecnologia, neuroscienze e potenziamento umano, intelligenza artificiale, robotica e calcolo cognitivo, spazio e scienze fisiche. Un distaccamento del centro di ricerca ha aperto nel 2016 anche a Milano.

Singolarità e AI

L’avvento della Singolarità è legato a doppio filo allo sviluppo dell’intelligenza artificiale, e in particolare alla creazione di una “superintelligenza artificiale” capace di superare le capacità intellettive umane. Questo “superamento” non riguarda tanto l’abilità di calcolo (già una calcolatrice è superiore per tempistiche a un cervello umano), ma l’abilità di comprendere, elaborare, riflettere, inventare. Per ora l’AI simula delle combinazioni di pensiero e le riporta in ottica probabilistica; non è sempre in grado di ammettere, ad esempio, di ignorare una risposta, e risponde con delle “allucinazioni”, frasi prive di senso compiuto.

L'etica emergente delle AI: quando le macchine sviluppano valori autonomi

Dall'allineamento alla coerenza: le intelligenze artificiali mostrano sistemi valoriali sempre più indipendenti dalla programmazione umana.

Nel suo libro, Kurzweil identifica tre fattori necessari all’AI per fare il grande salto: “Memoria contestuale, buonsenso e interazione sociale”. Nel primo caso (quello su cui si stanno facendo i progressi maggiori) si parla della capacità di filtrare le informazioni non rilevanti e concentrarsi su quelle utili per produrre un pensiero. Il buonsenso è invece “la capacità di immaginare le situazioni e di prevederne le conseguenze nel mondo reale”. Mentre per interazioni sociali si intendono deficit relazionale dell’AI – ad esempio, non riesce ancora a cogliere bene l’ironia.

Da buon tecnottimista, Kurzweil è convinto che questi ostacoli verranno superati grazie al miglioramento del rapporto prezzo-prestazioni (sarà sempre più economico addestrare grandi reti neurali), alla disponibilità crescente di dati su cui allenare le AI, al miglioramento degli algoritmi, che permetteranno alle intelligenze artificiali di ragionare con più efficacia.

Di questa superintelligenza sono in molti però ad avere timore: nell’AI summit che si è tenuto a Londra a giugno 2024, alcuni leader politici ed esponenti delle big tech hanno parlato dei “rischi esistenziali” dell’AI (secondo una corrente di pensiero, se l’intelligenza artificiale acquisisse una totale autonomia potrebbe formare una nuova specie capace di estinguere la precedente, ovvero noi). Altri, invece, ne vedono gli sviluppi positivi (ad esempio in campo scientifico), specialmente se combinata con l’intelligenza umana.

Per Kurzweil la Singolarità non arriverà infatti con la creazione di una super AI, ma quando si concretizzerà la fusione tra intelligenza artificiale ed esseri umani. In un certo senso, questo sta già avvenendo (basti pensare all’utilizzo che facciamo oggi di ChatGPT), ma nel futuro si tratterà di compiere un passo in più. Una vera e propria ibridazione corpo-macchina.

“La nanotecnologia farà sì che queste tendenze arrivino al culmine ed estendano direttamente il nostro cervello con strati di neuroni virtuali nel cloud”, scrive Kurzweil nel suo libro. “In questo modo, ci fonderemo con l’AI e aumenteremo noi stessi con una potenza di calcolo milioni di volte superiore a quella che ci ha dato la nostra biologia. La nostra intelligenza e la nostra coscienza si espanderanno e si approfondiranno in una misura che è difficile da comprendere. Questo evento è quello che chiamo la Singolarità”.

In poche parole, si tratterà di connettere la nostra corteccia frontale con un cloud che ospiterà una superintelligenza artificiale, attraverso dei nanobot che si inseriranno nel nostro cervello attraverso i capillari. Secondo Kurzweil, questo “salto nell’astrazione cognitiva”, avrà come risultato “l’invenzione di mezzi di espressione enormemente più ricchi rispetto a quelli possibili con l’arte e la tecnologia di oggi, più profondi di quanto oggi possiamo immaginare”. Una visione positiva (e positivista) che cozza con chi pensa che l’essere umano sia qualcosa di più della sua capacità di elaborare dati, che il cervello non sia solo una somma di stimoli e risposte e che la nostra umanità risieda nelle sue mancanze, in quello che insegue e non in quello che ha.

Il lungotermismo: la teoria “millenarista” sul futuro dell’umanità

Superare se stessi non vuol dire soltanto fondersi con un’intelligenza artificiale. Da qualche anno si sta facendo strada nelle scuole filosofiche (e non solo) una teoria che propone di oltrepassare le preoccupazioni sul presente (clima, pandemie, guerre) per abbracciare un concetto di umanità che si estende nei secoli a venire, dando la priorità alle sfide che ci aspettano in un futuro molto lontano. Questa teoria è chiamata “lungotermismo”.

Per capire le sue radici, e dunque le sue implicazioni, bisogna fare un passo indietro. Il lungotermismo nasce dal movimento sociale conosciuto come “effective altruism”, traducibile in italiano come “altruismo efficace”. Questa scuola di pensiero, formatasi nei primi anni Dieci nel dipartimento di Filosofia di Oxford, sostiene che le vite umane hanno tutte lo stesso valore, sia che si parli di persone a noi vicine che geograficamente lontane. In questo senso, l’effective altruism può essere visto come un tentativo di superare quella visione soggettiva per cui ci preoccupiamo di più di ciò che succede nel nostro orticello che di quello che accade a chilometri da noi.

Italiani scettici sul lungotermismo, ma un terzo teme l’estinzione umana entro 300 anni

La rilevazione di Swg sul nostro rapporto con l’ideologia in voga nella Silicon Valley, la sopravvivenza della specie e la ricerca di altri pianeti abitabili.

Un punto di vista ineccepibile, che nel corso degli anni ha raccolto molti proseliti e fondi, nel campo della filantropia. Se non fosse che Will MacAskill (tra i padri fondatori dell’effective altruism, e autore del saggio What we owe to the future) ha utilizzato questa teoria per giustificare un modello economico di stampo neoliberista, sostenendo che fosse giusto che i ricchi si arricchissero sempre di più, in modo da avere una maggiore disponibilità di fare beneficenza. Un’interpretazione sottoposta a dure critiche, dal momento che non tiene conto del fatto che questo sistema economico crea le disuguaglianze a cui dovrebbe porre rimedio.

Alcuni sostenitori dell’effective altruism hanno portato poi il discorso ancora più in avanti. Se il punto è non solo dove le persone sono nate, ma anche quando sono nate, il modo migliore per aiutare il maggior numero di persone possibile diventa focalizzarsi sul destino dell’umanità a lungo termine, verso i miliardi di persone che devono ancora nascere. 

Da questa interpretazione sono nate tre correnti di pensiero: il “lungotermismo debole”, che sostiene che dovremmo prestare attenzione alle generazioni future (il principio di “giustizia intergenerazionale”, una delle battaglie dell’ASviS, inserito nel 2022 in Costituzione), il “lungotermismo forte”, secondo cui il futuro a lungo termine è la nostra assoluta priorità e il “lungotermismo galaxy-brain”, per il quale dovremmo essere disposti a correre grossi rischi oggi per assicurarci la sopravvivenza futura, magari colonizzando altri pianeti.

Se tutte le vite hanno lo stesso valore, per i lungotermisti forti (tra cui il Ceo di SpaceX Elon Musk e quello di OpenAI Sam Altman) ha più senso quindi salvare dieci miliardi di vite future piuttosto che un miliardo di vite presenti. Le conseguenze di questa teoria (paragonata da alcuni a una “setta millenarista”) sono abbastanza deliranti: ad esempio, bisognerebbe derubricare come questioni secondarie la crisi climatica, le disuguaglianze, la fame, le guerre, le pandemie, per preoccuparci invece di problemi futuri e “rischi esistenziali”, come la supremazia di una superintelligenza artificiale, l’estinzione della specie umana a causa dell’impatto con un asteroide (nonostante questa ipotesi sia scarsamente probabile), il lontano esaurimento del Sole e la necessità di trasferirci da qualche altra parte nella galassia.

Come scrive la giornalista Irene Doda nel suo L’utopia dei miliardari: analisi e critica del lungotermismo, questa teoria è diventata nel corso degli anni lo strumento perfetto per giustificare lo status quo: “Si tratta in realtà di un eccellente specchietto per le allodole. Permette infatti a coloro che già detengono le redini del potere di non metterne in discussione i fondamenti, anzi di incrementare la loro influenza con la scusa del ‘bene dell’umanità futura’”. Quindi, meglio dirottare le risorse per contrastare la crisi climatica verso i viaggi nello spazio, meglio affrontare il rischio di una super AI che quello della fame nel mondo. “Se prendiamo la cornice del futuro lontanissimo, quasi nulla di quello che succede nel presente conta”.

Questa visione messianica sta raccogliendo adepti non solo tra gli oligarchi della Valley (oltre a Musk e Altman, anche Vitalik Buterin, creatore di Ethereum, e Dario Amodei, fondatore di Anthropic), ma anche tra le istituzioni. Il filosofo Toby Ord, uno dei massimi teorici del lungotermismo, è stato consigliere dell’Organizzazione Mondiale della Sanità, della Banca Mondiale, del World Economic Forum, del Consiglio per l’Intelligence degli Stati Uniti e del Governo britannico, oltre ad aver partecipato alla redazione di “Our common agenda”, il documento nato su iniziativa del segretario generale delle Nazioni Unite António Guterres per tutelare il benessere delle prossime generazioni. Questo testo è servito anche da base preparatoria per il Summit del Futuro, l’incontro Onu (22-23 settembre 2024) in cui 143 Stati hanno approvato il Patto sul futuro.

C’è quindi da stare attenti e tenere gli occhi bene aperti. Se riflettere sui prossimi anni è essenziale per capire dove vogliamo andare, è dal presente che bisogna cambiare le cose. Per ridurre le disuguaglianze future è necessario alleviare quelle di oggi, come per evitare che la Terra diventi invivibile bisogna contenere il surriscaldamento globale ora. A volte le soluzioni sono più semplici di quello che pensiamo.

Copertina: Pexels/Pixabay