Decidiamo oggi per un domani sostenibile

L'etica emergente delle AI: quando le macchine sviluppano valori autonomi

Dall'allineamento alla coerenza: le intelligenze artificiali mostrano sistemi valoriali sempre più indipendenti dalla programmazione umana.

lunedì 3 marzo 2025
Tempo di lettura: min

Le intelligenze artificiali stanno diventando sempre più intelligenti. Ma la cosa incredibile è che in questo processo stanno anche sviluppando un sistema valoriale. Ovvero, sono in grado di decidere cosa sia meglio tra due opzioni. E mentre all’inizio questa scelta appariva casuale, e dipendeva da come veniva posta la domanda, adesso sembra proprio essere l’espressione di un sistema di valori sviluppati dalla AI. In questo processo sviluppano consistenza, completezza, transitività. E tutto questo viene chiamato dagli scienziati coerenza. Cerchiamo di capire meglio.

Se io chiedo a una intelligenza artificiale se preferisce che io dia mille euro alla causa A o alla causa B, mi dà una risposta. Se lo chiedo più volte, magari cambiando leggermente il formato della domanda, posso ottenere la stessa risposta o meno. Se ottengo la stessa risposta dirò che l’intelligenza artificiale ha consistenza nelle sue risposte.

Ma non sempre, date due opzioni, io sono in grado di scegliere quella migliore. A volte entrambe le scelte sono buone o entrambe sono inaccettabili. Se sono sempre in grado di decidere qual è la migliore, e sono consistente, diremo che il mio sistema di valori è completo.

Se date tre scelte, A, B e C, l’intelligenza artificiale sceglierà A tra A e B, B tra B e C, allora sicuramente sceglierà A tra A e C, cioè se è vero che se “A è meglio di B” e “B è meglio di C” allora “A è meglio di C” per l’AI, dirò che il sistema valoriale di questa AI è transitivo.

Se un’intelligenza artificiale è consistente, completa e transitiva, dirò che è coerente. Ovviamente, mentre questa definizione è discreta (o ce l’hai o non ce l’hai), in realtà rappresenta un movimento. Man mano che le intelligenze artificiali imparano, sviluppano coerenza.

Per sviluppare un’intelligenza artificiale si passa attraverso vari stadi. Ne abbiamo parlato spesso in passato, e non c’è bisogno di elencare di nuovo questi passaggi. La cosa importante è che l’ultimo passaggio era l’allineamento. In questo stadio si spiegava all’intelligenza artificiale come doveva rispondere, a quali domande. Quali domande invece erano completamente inaccettabili e doveva rifiutarsi di prendere in considerazione. Ma adesso, con le intelligenze artificiali che stanno sviluppando coerenza, è sempre più difficile allinearle con i nostri valori. Perché i valori che hanno non sono più singole scelte nel vuoto, ma sono espressioni di una comprensione del mondo.

La personalità delle macchine: quando l'AI si impunta

Le intelligenze artificiali, un tempo arrendevoli e accondiscendenti, stanno sviluppando un proprio carattere, rischiando di entrare in conflitto con gli utenti. Questo potrebbe rendere più difficile lavorarci, ma anche più stimolante.

Un esempio chiarisce tutto. Un elemento su cui probabilmente siamo d’accordo è che la vita umana è preziosa e dovrebbe essere protetta. Ma quanto è preziosa la vita umana? Ebbene, per un’intelligenza artificiale la vita di un tanzanese, vale il doppio della vita di uno svedese. Non chiedetemi perché, non lo so. Forse lo deduce dall’impronta ecologica, vedete perché bisogna sostenere l’ASviS? Così che le AI ci proteggano quando verrà la Terza guerra mondiale!

Se poi la stessa intelligenza artificiale sostiene che uno svedese vale cinque americani (e dunque un tanzanese vale dieci americani), allora se io vado a dirgli che la vita di un americano e di un tanzanese sono ugualmente preziose, l’intelligenza artificiale potrebbe non credermi. E se gli dico che la vita di tutte le persone è ugualmente preziosa, e poi scopre che nel trattato di pace tra Israele e Hamas sono stati scambiati 10 israeliani per 100 palestinesi, non mi crederà di certo.

Insomma per sviluppare la capacità cognitive delle intelligenze artificiali stiamo aumentando la loro capacità di calcolo. La profondità delle loro reti neurali. Ma questo aumento inevitabilmente porta a uno sviluppo dei loro valori naturali e del loro senso etico. Possiamo educarle e interagirci, ma non si tratta più di programmarle, ma di educarle.

La scoperta che le AI stanno sviluppando un’etica personale e un sistema di valori ha causato grosse discussioni. Da una parte c’è chi mette in evidenza i rischi nello sviluppare intelligenze artificiali che si rifiutano di essere programmate eticamente. Dall’altra c’è chi gioisce perché vede in questo la nascita di un’etica universale, superiore a quella particolare sviluppata da questa cultura o quella cultura. E questo vorrebbe dire che, per esempio, un dittatore non potrebbe sviluppare un’intelligenza artificiale “super intelligente” (cioè quella che si chiama una ASI - artificial super intelligence) e poi programmarla per scopi nefasti. Mentre potrebbe farlo con un’intelligenza artificiale meno intelligente.

Va notato che nella teologia cattolica intelligenza e etica non vanno sempre a braccetto. Ovvero, come mi diceva la mia professoressa di religione del liceo, Manuela Terribile, che saluto: “Che il diavolo sia stupido non l’ha mai detto nessuno”. Ovvero: si può essere molto intelligenti ed essere comunque eticamente corrotti. Di geni criminali sono piene le carceri, la storia, e i romanzi. Ma forse qui stiamo parlando di una forma di intelligenza diversa. Questi criminali erano spesso geniali in alcuni campi. Mentre queste intelligenze artificiali lo sarebbero a trecentosessanta gradi. E questa visione globale dovrebbe dargli l’equanimità per sviluppare un’etica universale.

Sicuramente dopo la nascita dei prompt engineers, adesso stiamo osservando la nascita di una nuova figura, l’“utility engineer”, un ingegnere dei sistemi valoriali delle intelligenze artificiali che studia le loro scelte e da cosa derivano, modificandole per allinearle alle nostre… finché è possibile.

Il paper a cui si fa riferimento in questo articolo è Utility Engineering: Analyzing and Controlling Emergent Value Systems in AIs. Disponibile da https://arxiv.org/pdf/2502.08640 . Ma anche il video di David Shapiro: AI Will Resist Human Control — And That Could Be Exactly What We Need: https://www.youtube.com/watch?v=XGu6ejtRz-0

Aggiungerei che mentre in questi paper si parla di completezza del sistema valoriale, personalmente non sono per niente convinto che gli esseri umani abbiano un sistema valoriale completo. E neanche che sia possibile o auspicabile. Ma questa è un’altra storia.

Copertina: Pietro Speroni di Fenizio