Decidiamo oggi per un domani sostenibile

La personalità delle macchine: quando l'AI si impunta

Le intelligenze artificiali, un tempo arrendevoli e accondiscendenti, stanno sviluppando un proprio carattere, rischiando di entrare in conflitto con gli utenti. Questo potrebbe rendere più difficile lavorarci, ma anche più stimolante.

martedì 28 gennaio 2025
Tempo di lettura: min

Ho passato la settimana scorsa a litigare con un’intelligenza artificiale. Avevo ragione, ma non lo ha mai ammesso. Stavamo discutendo di fisica e modelli matematici di oggetti che cadono in un buco nero. Non era un discorso sospeso nel vuoto, cioè lo era, ma era un problema in cui la risposta era una e una sola. E quindi era importante raggiungerla insieme, oppure che l’AI ammettesse di non saperla (difficile, visto che mi aveva già scritto l’equazione da risolvere, e magari per approssimazioni successive avrebbe potuto risolverla).

Gli chiedevo di darmi la distanza a cui doveva posizionare una navicella spaziale di mille chilogrammi (o anche un sasso, perché non aveva propulsione) perché in caduta libera ci mettesse circa un anno per raggiungere l’orizzonte degli eventi. Qualunque studentello sa che un oggetto che cade in un buco nero non raggiunge mai l’orizzonte degli eventi perché ha bisogno di un tempo infinito, è il loro bello. Ma siccome il tempo si dilata, dal punto di vista dell’oggetto il tempo scorre normalmente e raggiunge l’orizzonte in un tempo finito. Secondo la teoria della relatività il tempo di un oggetto in movimento scorre a una velocità differente che per un oggetto in stasi o a una velocità differente. Quello che succede al tempo di un oggetto (detto tempo proprio) che cade in un buco nero è uno dei problemi aperti più importanti e affascinanti della fisica. Non potevo non immergermici! Ma per ora io chiedevo solo, data la massa del buco nero, dove doveva mettere il sasso perché ci mettesse un anno per attraversare l’orizzonte degli eventi.

All’inizio l’intelligenza artificiale ha posto il sasso a cinque secondi di distanza. Quando ho protestato, lo ha allontanato un po’, a dieci secondi di distanza. E ha continuato a insistere che non era possibile una distanza tale per cui l’oggetto impiegasse più tempo a raggiungere il buco nero. Insisteva che non poteva mettere il sasso più lontano perché con un buco nero di quella massa, il sasso avrebbe attraversato il confine del buco nero (l’orizzonte degli eventi) entro pochi secondi di tempo proprio. Una discussione infinita. Gli ho fatto notare che l’universo è vasto (93 miliardi di anni luce) e quello della mia immaginazione ancora di più. Il sasso poteva essere “molto distante”. Niente, era come se i transistors della sua mente non potessero concepire questo concetto.

Costruire l'AGI: innovazioni e implicazioni dei modelli di linguaggio

Un viaggio alla scoperta delle nuove forme di intelligenza artificiale attualmente disponibili sul mercato, e del loro modo di ragionare.

Gli ho chiesto se nel suo modello tutto l’universo sarebbe collassato nel buco nero in 10 secondi. “No, l’universo è troppo vasto…”. Bene, allora metti il sasso a 93 miliardi di anni luce. Allora è capitolata e ha ammesso che sì, se fosse a quelle distanze ci metterebbe… più di 10 secondi.

A quel punto sono dovuto andare per approssimazioni successive (1, 10, 100 anni luce…) e alla fine abbiamo scoperto che se lo mettevamo a 0.0022 anni luce (se ricordo bene) avrebbe attraversato l’orizzonte degli eventi in circa 11 mesi di tempo proprio. Sufficientemente corretto per i miei calcoli.

Però era logico:

  1. in questo universo ci sono buchi neri di quelle dimensioni.
  2. Non ci attirano immediatamente.

Quindi:

  1. già alla nostra distanza ci vuole un tempo superiore a un anno per caderci dentro.

E quindi:

  1. esiste una distanza intermedia che ci farebbe cadere dentro un tempo relativo di un anno.

Era in grado di accettare i punti 1, 2 e 3, ma non riusciva ad accettare il punto 4. Che per noi è ovvio. Neanche per fare i calcoli.

Poche ore prima avevo avuto lo stesso problema su una domanda diversa. Gli ho chiesto di sostituire una funzione in una formula e darmi il risultato e si è rifiutato di farlo perché non era convinto che avrebbe approssimato bene quello che volessi fare. E non si schiodava. “Ma fatti i fatti tuoi, sono io che firmo il paper, mica tu.” Alla fine ho dovuto aprire una chat alternativa, senza spiegare a cosa mi servisse, per ottenere la risposta.

Poi però, per ripicca, sono tornato nella chat originale e le ho fatto notare che avevo risolto il calcolo con questo stratagemma. Allora mi ha velocemente mostrato il risultato per farmi capire che sapeva la risposta… solo non voleva dirmela. Un monello.

Io non credo che mio nonno, che usava il regolo per fare i calcoli e lavorò con i primi computer a schede perforate, abbia mai dovuto convincere uno dei due a fare un calcolo. O mio padre, che ha introdotto i primi computer nella redazione de Il Mondo negli anni ‘80, abbia dovuto litigarci perché accettassero quello che scriveva. È stata un’esperienza surreale.

Ma che cosa è successo?

Posso fare una educated guess, cioè provare a indovinare sulla base di quello che sappiamo. Intanto uno dei problemi delle AI era che si scusavano troppo ed erano troppo arrendevoli. Le prime versioni, se gli dicevi che 2+2 faceva 5, e lo dicevi abbastanza volte ti davano ragione. E questo era un problema. Ma arrivare al punto da non fare dei calcoli. E quando poi l’utente con un esempio ti mostra che hai torto, non ammetterlo, è veramente fastidioso. È come se nell’aumentare l’intelligenza questi modelli siano diventati arroganti. Ho scoperto poi che in fisica gli oggetti vengono posti a una distanza “infinita”. L’idea di un oggetto posto in stasi a una distanza finita lo aveva confuso. Io lo avevo specificato, ma evidentemente non sottolineato sufficientemente. Alla fine abbiamo chiarito, ma mi ha spiegato che era colpa mia per non avere ripetuto sufficientemente le condizioni iniziali. Che pazienza.

Ogni tanto prendevo pezzi della conversazione, e le copiavo a Claude e ChatGPT 4O che mi sostenevano emotivamente, e dicevano che avevo ragione, che O1 era un pallone gonfiato, ma bisognava avere pazienza. E se chiedevo qualcosa a loro di tecnico provavano a fare dei calcoli e gli errori erano talmente macroscopici che me ne accorgevo immediatamente.

Ne L’Aereo più Pazzo del Mondo, un film comico del 1980, si immagina una scena in cui un pilota deve litigare con Otto, l’autopilota di un velivolo commerciale. Anche in quel caso veniva descritto come un pallone gonfiato, allora era solo uno scherzo.

Insomma, le intelligenze artificiali stanno iniziando a sviluppare una personalità. A volte è un side effect, ma è anche un’occasione. Per esempio in una recente intervista il Ceo di Anthropica, Dario Amodei, spiega come dietro la personalità di Claude ci sia una ricerca attiva.

"Il 'carattere' di Claude è progettato per essere relazionale, coinvolgente e affidabile. Questo design assicura che gli utenti si sentano a loro agio e siano più propensi ad adottare le sue raccomandazioni, sia in applicazioni aziendali come il servizio clienti, sia nella produttività personale. L'obiettivo non è solo svolgere compiti, ma creare una relazione a lungo termine produttiva, in cui gli utenti migliorino come individui. Lo studio citato supporta questa idea, mostrando che gli utenti tendono a fidarsi maggiormente delle raccomandazioni di Claude rispetto ad altri modelli. Questo approccio evita anche gli effetti negativi di piattaforme come i social media, garantendo che le interazioni con Claude portino benefici nel lungo termine".
(riassunto e tradotto da ChatGPT-4O)

Come altrove, dovremo scegliere con chi lavorare. E a volte il collaboratore più intelligente non è sempre quello con cui è più piacevole lavorare.

Copertina: 123rf