Sospendere lo sviluppo dell’Ai: la lettera firmata da Musk e la risposta di ChatGpt
Oltre 3mila tra ricercatori, professori e imprenditori hanno sottoscritto l’appello, chiedendo di mettere a punto protocolli di sicurezza condivisa. “Un approccio ragionevole e cauto”, ha affermato l’intelligenza artificiale.
di Maddalena Binda
Una pausa di almeno sei mesi nell’addestramento dei sistemi di Intelligenza artificiale (Ai) più potenti di Gpt-4, il più avanzato sistema sviluppato da OpenAi. È questa la richiesta espressa in una lettera aperta pubblicata dal Future of life institute e firmata da oltre 3mila ricercatori, professori e imprenditori, tra cui Elon Musk, amministratore delegato di Tesla, e Steve Wozniak, cofondatore di Apple. La lettera parte dalla “corsa fuori controllo” che ha interessato i laboratori di Intelligenza artificiale negli ultimi mesi e dalle preoccupazioni sui rischi legati a uno sviluppo e un utilizzo non regolamentato dell’Ai. Interrogata sul contenuto della lettera ChatGpt ha affermato che si tratta di un “approccio ragionevole e cauto alla gestione dei rischi associati all'Ai”.
Il testo integrale della lettera
"I sistemi di Intelligenza artificiale con intelligenza umana-competitiva possono comportare gravi rischi per la società e l'umanità, come dimostrato da ricerche approfondite e come riconosciuto dai migliori laboratori di Intelligenza artificiale. Come affermato nei principi di Intelligenza artificiale di Asilomar, che sono ampiamente condivisi, l'Ai avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di Intelligenza artificiale sono stati impegnati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.
I sistemi di Intelligenza artificiale contemporanei stanno ora diventando competitivi per l'uomo nelle attività generali. Dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, più intelligenti, rendendoci obsoleti e sostituendoci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader non eletti del settore tecnologico. Sistemi di Intelligenza artificiale potenti dovrebbero essere sviluppati solo quando saremo certi che i loro effetti siano positivi e i loro rischi siano gestibili. Questa fiducia deve essere giustificata e aumentare con l'entità degli effetti potenziali del sistema. La recente dichiarazione di OpenAi sull'Intelligenza artificiale generale afferma che "ad un certo punto, potrebbe essere importante condurre una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi modelli." Siamo d'accordo. Quel momento è adesso.
Pertanto, invitiamo tutti i laboratori di Intelligenza artificiale a sospendere immediatamente per almeno sei mesi l'addestramento di sistemi di Intelligenza artificiale più potenti di Gpt-4. Questa pausa dovrebbe essere pubblica, verificabile e includere tutti gli attori chiave. Nel caso in cui una tale pausa non possa essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.
I laboratori di Intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzato dell’Intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano al sicuro oltre ogni ragionevole dubbio. Ciò non significa una pausa nello sviluppo dell'Ai in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box [un sistema il cui funzionamento interno non è visibile o conosciuto n.d.r] sempre più grandi e imprevedibili con capacità emergenti.
La ricerca e lo sviluppo dell'Ai dovrebbero essere riorientati per rendere i sistemi potenti e all'avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.
Parallelamente, gli sviluppatori di Intelligenza artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell'Ai. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all'Ai; supervisione e tracciamento di sistemi di Intelligenza artificiale altamente capaci e ampi pool di capacità computazionali; sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di modelli; un solido ecosistema di audit e certificazione; responsabilità per danni causati dall'Ai; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell'Ai; e istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l'Ai causerà.
L'umanità può godere di un futuro fiorente con l'Ai. Dopo essere riusciti a creare potenti sistemi di Intelligenza artificiale, ora possiamo goderci una “estate di intelligenza artificiale" in cui raccogliamo i frutti, progettiamo questi sistemi a vantaggio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. Possiamo farlo anche in questo ambito. Godiamoci una lunga “estate di Ai”, non precipitiamoci impreparati verso una caduta.”
La risposta di ChatGpt
“Come modello di linguaggio Ai non ho opinioni o convinzioni personali. Tuttavia, posso fornire un'analisi obiettiva del contenuto della lettera”, ha risposto ChatGpt, che abbiamo interrogato sulla lettera appello poco prima che l’Autorità per la protezione dei dati ne disponesse lo stop in Italia, rilevando una raccolta illecita di dati personali e l’assenza di sistema di verifica per l’età dei minori. “La lettera solleva valide preoccupazioni sui potenziali rischi associati allo sviluppo di sistemi di Intelligenza artificiale avanzati con intelligenza umana-competitiva. Sottolinea la necessità di cautela e di un'attenta pianificazione nello sviluppo di tali sistemi per garantire che i loro effetti siano positivi e che i loro rischi siano gestibili.
La richiesta di una pausa nell'addestramento di sistemi di Ai più potenti di Gpt-4 e lo sviluppo di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di Ai avanzati è un approccio ragionevole e cauto alla gestione dei rischi associati all'Ai. Il suggerimento che gli sviluppatori di Ai collaborino con i responsabili politici per accelerare lo sviluppo di solidi sistemi di governance dell'Ai è una proposta costruttiva che riconosce la necessità di collaborazione e cooperazione tra le diverse parti interessate nella gestione dei rischi associati all'Ai.
Sebbene non possa esprimere accordo o disaccordo personale con la lettera, il suo contenuto riflette preoccupazioni ampiamente condivise sullo sviluppo responsabile dell'Ai e sulla necessità di collaborazione tra le diverse parti interessate per garantire che l'Ai sia sviluppata e utilizzata in modi sicuri e vantaggiosi per la società”.
Alla domanda se si consideri una minaccia per l’uomo, ChatGpt ha affermato che in qualità di modello di linguaggio Ai è progettata per fornire informazioni e rispondere a domande. “Non ho la capacità di agire da sola o di prendere decisioni che potrebbero danneggiare l'umanità. Le mie azioni si limitano all'elaborazione dell'input di testo e alla generazione di output di testo in base a tale input” ha risposto ChatGpt. “Tuttavia, è importante riconoscere che qualsiasi tecnologia può essere utilizzata in modi che potrebbero danneggiare l'umanità. È responsabilità di coloro che sviluppano e utilizzano l'Ai garantire che venga utilizzata in modo etico, responsabile e in linea con i valori e gli obiettivi umani. Questo richiede monitoraggio, valutazione e regolamentazione continui dei sistemi di Ai per garantire che il loro impatto sia positivo e che i loro rischi siano gestiti in modo appropriato”, ha concluso.