Gli scienziati al Papa: una guida morale per gestire gli sviluppi della AI
Nel corso del World meeting on human fraternity in Vaticano, un gruppo di esperti ha sottoscritto un appello elencando i rischi di uno sviluppo tecnologico incontrollato, ma riconoscendo anche le difficoltà di una regolamentazione globale. TESTO INTEGRALE
Il nuovo Papa dedica attenzione alle prospettive dell’intelligenza artificiale e si è saputo che la prossima enciclica, la prima di Leone XIV, riguarderà il tema della povertà ma anche dell’AI, nello spirito col quale il precedente papa Leone XIII nel 1891 affrontò i cambiamenti sociali nella “Rerum novarum”.
Importanti elementi di riflessione, ma anche di allarme, sono arrivati al Pontefice dal gruppo di lavoro sull’intelligenza artificiale che si è riunito in Vaticano in occasione del World meeting on human fraternity di venerdì 12 e sabato 13 settembre. Del meeting ha parlato anche il direttore scientifico dell’ASviS Enrico Giovannini nell’appuntamento settimanale su Radio Radicale “Scegliere il futuro”.
Coordinato dal giornalista Riccardo Luna, il Working group of experts on artificial intelligence and fraternity che ha sottoscritto l’appello durante la due giorni è composto da Geoffrey Hinton, psicologo e informatico, premio Nobel per la fisica nel 2024; Yoshua Bengio, pioniere delle reti neurali artificiali e dell'apprendimento profondo; Max Tegmark, cosmologo, fisico ed esperto di learning machine; Stuart Russell, informatico noto per i suoi contributi allo sviluppo dell'intelligenza artificiale; Nnenna Nwakanma, attivista e già Direttrice ad interim della World wide web foundation; Jimena Viveros, componente dell'organo consultivo di alto livello del Segretario generale delle Nazioni Unite sull'intelligenza artificiale; Lorena Jaume-Palasi, fondatrice e direttrice esecutiva della Ethical tech society; Abeba Birhane, scienziata cognitiva esperta di apprendimento automatico e pregiudizi algoritmici; Valerie Pisano, presidente e Ceo del Quebec artifical intelligence institute; Antal Kuthy, presidente e Ceo dell'E-Group; Ernesto Belisario, esperto di amministrazione digitale e docente presso l'Università di Pisa; Marco Trombetti, imprenditore e fondatore di Translated; Cornelius Borsch, esperto di tecnologia aerospaziale.
Il documento prodotto dal gruppo di lavoro elenca le sfide poste dall’intelligenza artificiale al futuro dell’umanità e raccomanda una serie di interventi legislativi e anche etici per evitare che questa nuova tecnologia sfugga al controllo umano, un rischio che il premio Nobel Hinton aveva già segnalato in un’intervista a Luna sul Corriere della Sera alla vigilia dell’incontro in Vaticano.
Gli estensori non nascondono l’estrema difficoltà di questa sfida, che richiederebbe un accordo internazionale vincolante tra tutti i Paesi, ma si rivolgono al Papa perché usi la sua autorità morale per favorire una presa di coscienza collettiva su un tema che mette a rischio il futuro stesso dell’umanità.
Nell’appello rivolto “a Sua Santità Papa Leone XIV, a tutti i leader globali, a tutte le persone di buona volontà” si avverte fin dal preambolo:
Le scelte che facciamo oggi nell’ambito dell’intelligenza artificiale incideranno radicalmente sul mondo che lasceremo alle future generazioni. L'AI sta già causando danni significativi: accentua le disuguaglianze, concentra il potere nelle mani di pochi attori e produce effetti nocivi sull’ambiente. Somme ingenti e sempre più cospicue sono destinate allo sviluppo di tecnologie agenti che con il potenziale di superare le capacità cognitive umane: ciò che molti esponenti della ricerca nell’ambito dell’AI definiscono “superintelligenza”. Queste sfide richiedono una leadership morale e interventi concreti e tempestivi.

Ogni prompt ha un prezzo: l’impronta invisibile dell’AI su clima e risorse
Ogni richiesta a ChatGPT consuma 0,34 wattora e 0,322 ml di acqua: piccoli numeri che, moltiplicati per miliardi di interazioni quotidiane, diventano un macigno. Secondo l’Iea, entro il 2030 i data center consumeranno più elettricità del Giappone.
Si elencano poi “principi e limiti invalicabili, con l’obiettivo di favorire il dialogo e la riflessione su come l’intelligenza artificiale possa servire al meglio l’intera umanità”. Ecco alcuni punti in sintesi.
Vita e dignità umane: “L’intelligenza umana, la nostra capacità di saggezza, ragionamento e orientamento verso la verità e la bellezza non devono essere svalutate da un’elaborazione artificiale per quanto sofisticata”.
Uso della AI “come strumento e non come autorità: “Lo sviluppo di tecnologie e di intelligenza artificiale di super intelligenza non dovrebbe essere consentito fino a quando non sarà non vi sarà un ampio consenso scientifico sul fatto che sarà fatto in modo sicuro e controllabile e vi sarà un chiaro e ampio consenso pubblico”.
Responsabilità: all’AI non può essere concessa la personalità giuridica o “diritti".
Decisione di vita o di morte: “Ai sistemi di intelligenza artificiale non deve mai essere consentito di prendere decisioni di vita o di morte, specialmente nelle applicazioni militari durante i conflitti armati o in tempo di pace, nell'ambito dell'ordine pubblico, nel controllo delle frontiere, nell'assistenza sanitaria o nelle decisioni giudiziarie”.
Sviluppo sicuro ed etico: “Prima della distribuzione e durante l'intero ciclo di vita devono essere richiesti test indipendenti e un'adeguata valutazione del rischio”.
Custodia e responsabilità: “I governi, le imprese e chiunque altro non dovrebbero trasformare l’AI in uno strumento di dominio, di guerra di aggressione illegale, coercizione, manipolazione, social scoring o sorveglianza di massa ingiustificata”.
Progettazione responsabile: “L'AI dovrebbe essere progettata e valutata in modo indipendente per evitare effetti imprevisti e catastrofici sugli esseri umani e sulla società, ad esempio attraverso una progettazione che possa generare inganno, illusione, dipendenza o perdita di autonomia”.
Nessun monopolio dell'IA: “I benefici dell'AI (economici, medici, scientifici, sociali) non devono essere monopolizzati”.
Nessuno svilimento umano: “La progettazione e l'implementazione dell'AI dovrebbero far prosperare gli esseri umani nelle loro attività elettive, non rendere l'umanità ridondante, estromessa, svalutata o sostituibile”.
Responsabilità ecologica: “Il nostro uso dell'AI non deve mettere in pericolo il nostro pianeta e gli ecosistemi. Le vaste richieste di energia, acqua e terre rare dell'AI devono essere gestite in modo responsabile e sostenibile lungo tutta la catena di approvvigionamento”.
Nessuna concorrenza globale irresponsabile: “Dobbiamo evitare una corsa irresponsabile tra aziende e paesi verso un'AI sempre più potente”.
Rispettare questi principi, dicono gli estensori, non sarà facile. Richiede coraggio morale, una responsabilizzazione efficace, una leadership lungimirante da parte di tutti i settori della società e un trattato internazionale vincolante che stabilisca i limiti invalicabili e un'istituzione di controllo indipendente con poteri coercitivi e sanzionatori. Pertanto, chiediamo una leadership morale per l'era dell'AI.
Pubblichiamo il testo integrale in italiano e l’originale inglese.