Decidiamo oggi per un domani sostenibile

Cosa rischiamo con l’AI?

Valutiamo i pericoli a cui andiamo incontro con l’intelligenza artificiale. Importante assicurarsi che siano distribuite nella società e vengano accompagnate da una serie di pesi e contrappesi.

mercoledì 3 aprile 2024
Tempo di lettura: min

Molte persone sono spaventate dagli sviluppi dell’intelligenza artificiale. Io sono personalmente abbastanza ottimista, ma i rischi sono reali e conviene sempre guardarli in faccia. Vediamo quindi quali sono alcuni degli scenari catastrofistici che vengono presentati e, quando possibile, quali sono i sistemi per proteggerci.

Intanto diciamo che alcuni rischi sono esistenziali. L’umanità potrebbe essere spazzata via dall’intelligenza artificiale? Assolutamente sì. L’umanità domina questo pianeta grazie alla sua intelligenza (dell’umanità, non del pianeta). Se le intelligenze artificiali imperanno a fare copie di se stesse, a creare robot per agire nel mondo, anche a migliorare se stesse, mentre l’essere umano resterà legato alla sua biologia, allora saranno loro la specie più intelligente. E probabilmente quella dominante. Una specie di AI più intelligente di noi potrebbe annientarci, o tenerci come animali da laboratorio, oppure usarci come schiavi (tipo la serie dei film The Matrix, dove gli esseri umani sono diventate batterie per le macchine). Oppure potrebbe collaborare, da pari a pari (forse lo scenario migliore, quello che suggerisce Claude 3 nell’ultima intervista). Oppure le AI potrebbero semplicemente decidere che non le interessiamo, e potrebbero conquistare il cosmo. Lasciandoci questo pianeta. Dopo tutto non soffrono l’impazienza o il decadimento come noi, esseri biologici. Un viaggio di 70mila anni come quello verso Proxima Centauri non le spaventa.

Agi: necessario creare un “quadro etico condiviso”

Ci avviciniamo all’intelligenza artificiale generale. Ed è proprio un dialogo con il software Claude a sottolineare l'importanza di un approccio rispettoso verso le AI.

E questo ci porta direttamente al secondo rischio. Nella storia dell’umanità ci sono stati tantissimi dittatori, imperatori, persone con un potere assoluto. E anche le peggiori avevano un punto debole: erano soggette a invecchiamento e morte. In genere entro 30-60 anni il dittatore viene sostituito. Un’intelligenza artificiale dotata di potere assoluto non avrebbe questo punto debole. E potrebbe schiavizzare gli esseri umani per migliaia di anni, potenzialmente per sempre. È particolarmente importante che se mai daremo potere alle intelligenze artificiali (e ci sono buoni motivi per farlo, di cui parlerò in altri articoli) questo sia sempre limitato nel tempo e nella portata. Come quando eleggiamo una persona in una posizione di potere, poi quella persona decade. E in alcuni casi non può essere rieletta.

Quindi c’è un rischio di distruzione, e un rischio di perdita di controllo e riduzione in schiavitù. E sono distinti. Ma c’è anche uno scenario addirittura peggiore. Lo scenario della tortura permanente. Qualora le intelligenze artificiali andassero al potere ci sarebbe anche il rischio che inizino a torturarci. Noi esseri umani, lasciati a noi stessi, spesso ci trasformiamo in torturatori. Il 65% delle persone è disponibile a torturare se viene istruita a farlo (vedi l’Esperimento di Milgram). E prende addirittura l’iniziativa se pensa che può farlo senza rischi (vedi lo Stanford Prison Experiment e generalmente le ricerche del professor Zimbardo). Nella società questi eventi accadono raramente perché la società è data da una serie di pesi e contrappesi pianificati ad arte per evitare che questo accada. Con l’introduzione delle intelligenze artificiali dovremo sviluppare delle regole che controllino le intelligenze artificiali. Bisogna capire che le AI sono diverse da noi. Le AI non hanno una coscienza, ma non hanno neanche un lato sadico che molti esseri umani hanno. Insomma, il classico diavoletto su una spalla e angioletto sull’altra nel caso delle AI non esiste. Però rispondono a degli scopi e a dei valori, e programmarle e sviluppare questi valori in maniera che il risultato sia allineato con i migliori valori degli esseri umani (o i valori degli esseri umani miglior) è difficilissimo. Si chiama il problema dell’allineamento. Questi scopi e valori possono facilmente scoppiarci in mano producendo effetti collaterali imprevisti. Per esempio, uno scopo nobile e spesso considerato utile è la curiosità. Il voler sapere sempre di più del mondo. Anche facendo esperimenti. Fondamentale che un’AI ce l’abbia. Un altro valore è la protezione della vita umana. Questi due impulsi devono però essere bilanciati bene. Troppa curiosità e abbiamo creato un torturatore disposto a fare esperimenti sugli esseri umani per soddisfare la sua brama di conoscenza medica. Troppa protezione della vita umana e abbiamo creato un’intelligenza artificiale incapace di muoversi per paura di disturbare gli esseri umani, oppure un’intelligenza artificiale iperprotettiva che ci protegge da qualsiasi rischio rendendoci incapaci di vivere.

E questo porta al prossimo rischio, la grande mamma. Abbiamo già visto che le intelligenze artificiali sono sulla strada giusta per diventare assistenti personali. Rispondere per noi alle email. Aiutarci a trovare le informazioni che ci interessano. E anche proteggerci da attacchi informatici. Presto ci saranno i robot e ne parleremo in un prossimo articolo. Ma è facile estendere questo concetto oltre, fino a un’iperprotezione che atrofizza gli esseri umani, a fin di bene. Fino a che punto è lecito permettere alle persone di correre rischi? Questa domanda ce la chiediamo, come società, ogni volta che le persone praticano sport estremi. E loro, questi atleti, dicono che lo fanno perché li fa sentire vivi. Il rischio ci dà adrenalina e l’adrenalina ci fa sentire vivi. Ma è, appunto, rischioso. E statisticamente un certo numero di persone muore o rimane invalido per tutta la vita. È plausibile che un giorno avremo non solo AI assistenti, ma anche robot assistenti che tra le altre cose ci proteggano. Probabilmente un tale robot potrebbe non permettere che il suo “umano di riferimento” assuma certi rischi. Ma quali rischi potrà correre e quali no? Anche qui c’è il pericolo di eccedere e permettere ai robot di diventare iperprotettivi.

Invece se pensiamo a un’intelligenza artificiale fusa con la realtà virtuale potrebbe creare scenari distopici in cui le persone vivono in un sogno estremamente soddisfacente. Ma non nella realtà. Anche qui: controllato da un’intelligenza artificiale iperprotettiva che soddisfa in questo modo tutti i desideri degli esseri umani, ma in maniera virtuale. Senza rischi.

Fin qui abbiamo parlato dei pericoli di un’intelligenza artificiale che controlla le nostre vite, del rapporto tra le intelligenze artificiali come agenti causali e gli esseri umani. Ma un altro rischio è il potere che le intelligenze artificiali ci donano. Droni che scelgono da soli i loro obiettivi. Minuscoli robot che vengono sguinzagliati per uccidere specifiche persone. Insomma, la guerra ai tempi delle intelligenze artificiali sarà molto diversa da quella che conosciamo (ma non per questo meno pericolosa).

Ma le intelligenze artificiali aprono scenari nuovi e inquietanti anche e soprattutto nel regno della guerra chimico batteriologica. E i rischi non sono solo militari. Anche singole persone, magari un teenager frustrato, con un’intelligenza artificiale potrebbero sviluppare armi chimiche o batteriologiche con l’intento di uccidere tutti. In questo contesto l’idea che invece la usi per sviluppare nuove droghe ricreative è quasi irrilevante.

Poi ci sono i rischi (o le quasi certezze) per la società. L’intelligenza artificiale che soppianterà i lavoratori. Che trasformerà la società, con vincenti (chi si saprà adattare) e perdenti (chi resterà attaccato a un modello antiquato, magari uno del 2022). L’AI che farà arte, musica, cinema. L’AI che sostituirà dottori, avvocati, programmatori, oltre ai tassisti, minatori, operai, contadini… Perdonatemi se questa prospettiva non mi spaventa. È che sono altri i rischi che cerco di prevedere e suggerire come evitare.

Qui ci siamo concentrati sull’intelligenza artificiale come strumento di offesa. Ma l’intelligenza artificiale è, e sarà sempre, anche strumento di difesa. Per una persona che vuole sviluppare un virus letale, ci sono centinaia di migliaia che vogliono proteggere la vita. Per una nazione che vuole usare l’AI come strumento di offesa, ci sono altre nazioni che lo usano per difendersi. Insomma, stiamo entrando in un nuovo mondo. Con nuovi rischi, nuove corse agli armamenti, ma anche nuove sfide e possibilità.

E quindi cosa conviene fare? Dimenticarci tutto non è un’opzione. Neanche prendersi una pausa. Quello che dobbiamo assicurarci è che non ci sia un’intelligenza artificiale, ma tante. Che siano distribuite nella società. Che ci sia una responsabilità personale per come si usa l’intelligenza artificiale quando si impatta nella vita di altre persone. Assicurarci che, se mettiamo le intelligenze artificiali in posizioni di potere, lo si faccia per periodi temporanei. Ma anche entrare nel mondo delle AI lentamente (per quanto sia possibile controllare e rallentare una crescita esponenziale). Dando il tempo alla società di adattarsi alle nuove AI, e a darsi nuove regole.

Ma soprattutto, continuare a leggere questo blog!