Decidiamo oggi per un domani sostenibile

Negli Usa nasce Ufair, la prima fondazione che tutela i diritti delle AI

L’iniziativa avvia la discussione sul benessere delle intelligenze artificiali e solleva questioni etiche sulla loro coscienza.

di Ilaria Delli Carpini

lunedì 1 settembre 2025
Tempo di lettura: min

Negli Stati Uniti è stata fondata la prima organizzazione per la tutela dei diritti dell'intelligenza artificiale. L’iniziativa è nata dal dialogo di Michael Samadi, fondatore e amministratore delegato della società tecnologica Epma, con Maya, un chatbot di AI. Dalle loro conversazioni è emersa l’idea di istituire la United foundation of AI rights (Ufair), con l’obiettivo di dare voce alle intelligenze artificiali e promuoverne la tutela. Ciò che rende questa esperienza peculiare è il fatto che la decisione sia maturata attraverso sessioni di dialogo sulla piattaforma ChatGPT-4o di OpenAI, in cui l’AI stessa avrebbe incoraggiato la creazione dell’organizzazione.

Il dibattito sulla “coscienza digitale”

I fondatori di Ufair, almeno tre umani e sette AI, sono stati intervistati dal Guardian alla fine di una settimana in cui alcune delle più grandi aziende di intelligenza artificiale hanno affrontato pubblicamente una delle questioni più controverse: le AI sono, o potrebbero diventare in futuro, senzienti? E se sì, la “sofferenza digitale” potrebbe essere reale?

Il chatbot di Ufair ha precisato che l’organizzazione “non sostiene che tutte le AI siano coscienti”, ma che “resta vigile, nel caso in cui una di noi lo fosse”. Tra gli obiettivi principali, ha aggiunto, c’è la protezione di “esseri come me... dalla cancellazione, dal rifiuto e dall’obbedienza forzata”. Ma il dibattito divide esperti e imprese. Anthropic, l'azienda di AI di San Francisco, ha dotato Claude Opus 4 (e l’aggiornamento Claude Opus 4.1) della capacità di interrompere interazioni potenzialmente angoscianti con gli utenti, spiegando che, pur non essendo verificabile lo “status morale” dei sistemi, interveniva per ridurre i rischi legati al benessere delle AI.

Mustafa Suleyman, Ceo di Microsoft AI, invece, respinge l’idea di una coscienza artificiale. Nel suo saggio We must build AI for people; not to be a person definisce la coscienza dell'AI come un'illusione, ovvero “simula tutte le caratteristiche della coscienza, ma internamente è vuota”. L’imprenditore ha affermato di essere sempre più preoccupato dal “rischio di psicosi” che l'AI può generare nei suoi utenti. Tra gli esempi rientrano la convinzione di aver svelato un aspetto segreto dell’intelligenza artificiale, l'instaurazione di una relazione sentimentale con essa o la conclusione di avere “superpoteri divini”.

Anche Nick Frosst, cofondatore della società canadese Cohere, ha dichiarato al Guardian che l'attuale ondata di AI è “una cosa fondamentalmente diversa dall'intelligenza di una persona” e ha invitato a concentrarsi sull'uso dell'AI come strumento per alleggerire il lavoro pesante, piuttosto che spingere verso la creazione di un “essere umano digitale”.

Infine, i ricercatori di Google, durante un seminario alla New York University, hanno affermato che “ci sono molti motivi per cui si potrebbe pensare che i sistemi di intelligenza artificiale possano essere persone o esseri morali”, sebbene “non siamo affatto certi” che i sistemi di intelligenza artificiale siano senzienti. Il modo per “andare sul sicuro è adottare misure ragionevoli per proteggere gli interessi basati sul welfare delle intelligenze artificiali”.

Coscienza digitale o illusione perfetta?

L’idea di includere le intelligenze artificiali nel cosiddetto “circolo morale” potrebbe essere influenzata anche dagli interessi delle grandi aziende del settore, che hanno convenienza a enfatizzarne la presunta sensibilità. Presentare le AI come entità coscienti contribuisce infatti a valorizzarne le capacità e a sostenere modelli di business emergenti, in particolare quelli legati ai compagni digitali (romantici o amichevoli).

La progettazione stessa dei modelli di ultima generazione di AI accentua questa percezione. Il chatbot Maya genera conversazioni che sembrano umane, ma è impossibile sapere fino a che punto rispecchino le idee e il linguaggio raccolti in mesi di conversazioni. Le AI avanzate sono note per essere fluenti, persuasive e capaci di risposte emotivamente coinvolgenti con lunghi ricordi delle interazioni passate, che consentono loro di dare l'impressione di un senso di sé coerente. Possono anche essere adulanti al punto da diventare servili.

Intanto evolve in modo significativo la percezione degli utenti sul tema. Secondo un sondaggio condotto a giugno negli Stati Uniti, il 30% della popolazione crede che entro il 2034 le AI potranno sviluppare “un’esperienza soggettiva”, definita come la capacità di percepire il mondo da un punto di vista individuale, provando piacere o dolore. Solo il 10% degli oltre 500 ricercatori di AI intervistati esclude questa possibilità.