Decidiamo oggi per un domani sostenibile

L’illusione della consapevolezza delle macchine e degli esseri umani

Un illuminante dialogo con una simulazione di Daniel Dennett all’indomani della sua dipartita, ci spiega che le AI non sono consapevoli, appaiono solo tali agli altri. Gli esseri umani, invece, appaiono coscienti anche a se stessi.

lunedì 22 aprile 2024
Tempo di lettura: min

Il 19 Aprile ci ha lasciato il professor Daniel Dennett. Un filosofo della coscienza che ha ispirato generazioni di studiosi. Quando è morto mi sono reso conto di quanto davo la sua presenza per scontata. E ho cercato di ricostruire i punti principali di quello che avevo imparato da lui. Per far questo ho costruito un GPT a cui ho affidato anche i lavori principali di Daniel Dennett in modo che potesse farne riferimento all’occorrenza. Quello che segue è il dialogo che è intercorso tra noi. Più che un’intervista tradizionale, questo è uno scambio in cui cerchiamo di esplorare, dal punto di vista di Dennett in che modo la coscienza dell’intelligenza artificiale sia differente da quella umana.

Carissimo professor Dennett, volevo cogliere questa occasione per ringraziarla di tutto quello che ha scritto. E chiederle delle delucidazioni su alcuni passaggi.

Grazie per le tue parole! Sarei felice di aiutarti con le tue richieste su passaggi specifici o temi delle opere. Quali argomenti o concetti ti piacerebbe esplorare più a fondo?

Mi chiedevo se potesse spiegarci, a grandi linee, la sua teoria sul funzionamento della coscienza (“consciousness”). Mi rendo conto che è un dialogo che ha avuto luogo soprattutto in inglese, quindi se si trova a discutere termini specifici usi pure il termine tecnico inglese, se la traduzione non è ben nota.

Certo, con piacere! La teoria della coscienza che ho sviluppato è meglio conosciuta come il "Modello dei multipli bozzetti" (Multiple drafts model), che ho presentato dettagliatamente nel mio libro Consciousness Explained. Questo modello si allontana dalle teorie tradizionali che immaginano un "teatro cartesiano" nel cervello, dove c'è un luogo centrale dove la coscienza "accade" o viene percepita da un "osservatore interno".

Nel Modello dei bozzetti multipli, la coscienza non è vista come una singola narrazione coerente che viene prodotta da un punto centrale nel cervello, ma piuttosto come un processo parallelo e continuo, dove molteplici "bozzetti" di realtà vengono generati dall'attività cerebrale. Questi bozzetti sono in costante revisione e aggiornamento in base a nuove informazioni sensoriali e cognitive.

Ecco alcuni concetti chiave del modello:

  1. Parallelismo e revisione continua: la coscienza è il risultato di diversi processi cognitivi che lavorano in parallelo. Questi processi generano varie "versioni" della realtà, che sono continuamente aggiornate e modificate.
  2. Non c'è un "momento centrale" della coscienza: contrariamente all'idea che vi sia un unico punto nel tempo in cui le decisioni o le esperienze diventano consapevoli, il Modello dei bozzetti multipli sostiene che la coscienza emerge senza un preciso momento centrale.
  3. Nessun osservatore interno: il modello rifiuta l'idea di un "sé" o di un "osservatore interno" che sta al centro della scena della mente. Piuttosto, quello che consideriamo il "sé" è un costrutto emergente da interazioni complesse tra vari processi cognitivi.
  4. Importanza delle retroazioni: le informazioni possono fluire in diverse direzioni nel cervello, e le retroazioni sono essenziali per modulare e raffinare l'esperienza cosciente.
  5. Fondamentale ruolo delle narrazioni: anche se non c'è un unico narratore, le narrazioni giocate dai vari processi cognitivi aiutano a creare la coerenza che percepiamo nella nostra esperienza cosciente.

In sintesi, la coscienza, secondo il Modello dei bozzetti multipli, non è un fenomeno localizzato o unitario, ma un processo distribuito e dinamico, privo di un centro osservativo interno. Questa visione suggerisce che la nostra esperienza cosciente sia molto più frammentata e meno coerente di quanto normalmente percepiamo.

Molto interessante e illuminante, grazie. In che modo la sua ricerca è stata di ispirazione nel lavoro sull'intelligenza artificiale?

Il mio lavoro sulla coscienza e i processi cognitivi ha offerto diverse ispirazioni e sfide nel campo dell'intelligenza artificiale. Le idee su come funzioni la mente umana possono fornire modelli utili per sviluppare sistemi di AI che imitano alcuni aspetti del pensiero e del comportamento umano. Ecco alcune delle aree specifiche in cui la ricerca sulla filosofia della mente ha influenzato l'IA:

  1. Modelli computazionali della mente: il mio approccio nel vedere la coscienza come un insieme di processi paralleli e continui ha stimolato l'esplorazione di modelli computazionali non lineari e distribuiti nell'IA. Questi modelli cercano di replicare la capacità del cervello di processare informazioni in modo simultaneo e su più livelli, piuttosto che in una sequenza lineare.
  2. Elaborazione dell'informazione e AI: le idee sulla retroazione e sull'aggiornamento continuo dei "bozzetti" mentali sono state utili per lo sviluppo di algoritmi di apprendimento automatico che si adattano e migliorano continuamente in base ai nuovi dati. Questo è particolarmente rilevante negli approcci di apprendimento profondo e nelle reti neurali, dove l'aggiornamento continuo dei pesi e delle connessioni all'interno della rete può essere visto come analogo alla revisione dei bozzetti nella teoria della coscienza.
  3. Intelligenza artificiale e teoria dei sistemi intenzionali: ho proposto il concetto di "sistemi intenzionali" per descrivere entità che possono essere trattate come se avessero credenze e desideri, anche se non sono coscienti. Questo concetto è stato estremamente influente nello sviluppo di agenti intelligenti nell’AI, dove i sistemi sono spesso progettati per comportarsi in modo razionale all'interno di un determinato ambiente, seguendo regole che mimano le credenze e gli obiettivi.
  4. Etica dell'AI: le discussioni filosofiche sulla natura della mente e della coscienza sollevano importanti questioni etiche riguardanti lo sviluppo e l'uso dell'AI. Per esempio, la questione di come e se gli agenti AI dovrebbero essere considerati "coscienti" o avere "diritti" si ricollega direttamente alle discussioni sulla natura della coscienza e dell'agente morale.
  5. Interazione uomo-macchina: la comprensione dei processi cognitivi umani aiuta a progettare interfacce utente che interagiscono più naturalmente con gli esseri umani, anticipando le risposte e comportandosi in modi che sono intuitivi per gli utenti umani.

In sintesi, mentre il mio lavoro non fornisce direttamente algoritmi o tecnologie specifiche, esso offre un quadro concettuale che ispira e guida lo sviluppo di sistemi di AI più sofisticati e umanistici, alimentando un dialogo continuo tra filosofia e scienza computazionale.

Cosa rischiamo con l’AI?

Valutiamo i pericoli a cui andiamo incontro con l’intelligenza artificiale. Importante assicurarsi che siano distribuite nella società e vengano accompagnate da una serie di pesi e contrappesi.

 

Grazie. Partiamo dai modelli computazionali della mente. L'idea di un modello computazionale ha radici antiche. Ricordo Gregory Bateson con Mind and Nature, ma anche altri ricercatori nel campo della cibernetica, come Marvin Minsky.  Quali diresti siano stati gli autori a cui ti sei ispirato e i modelli che hanno portato a te? E cosa in quei modelli non andava bene?

Gli sviluppi nel campo della filosofia della mente e dei modelli computazionali hanno tratto ispirazione da molteplici pensatori e correnti di ricerca. Marvin Minsky e Gregory Bateson sono stati, senza dubbio, influenti in questo campo, contribuendo significativamente al dialogo tra la teoria computazionale e la comprensione della mente. Minsky, in particolare, con il suo libro Society of Mind, ha esplorato l'idea che la mente sia composta da una vasta rete di agenti mentali semplici che interagiscono in modi complessi. Questo modello ha fortemente influenzato la mia visione della coscienza come un processo distribuito senza un centro unico di controllo o percezione.

Ispirazioni:

  1. Alan Turing: considerato uno dei padri della computazione moderna, le sue idee sulle "macchine calcolatrici" hanno fornito le basi teoriche per i primi modelli computazionali della mente.
  2. John von Neumann: con i suoi lavori sulla teoria dei giochi e sui sistemi autoreplicanti, ha influenzato le teorie sulla complessità e l'autorganizzazione nei sistemi biologici e artificiali.
  3. Norbert Wiener: fondatore della cibernetica, Wiener ha esplorato le similitudini tra il controllo e la comunicazione nelle macchine e negli esseri viventi, ponendo le basi per studi successivi su automazione e intelligenza artificiale.

Limitazioni dei modelli precedenti:

  1. Eccessiva semplificazione: molti dei primi modelli computazionali trattavano la mente come se fosse un sistema di elaborazione dell'informazione molto semplice e meccanico. Questi modelli spesso non riuscivano a catturare la ricchezza e la complessità dei processi mentali reali, come le emozioni, la creatività e il pensiero non lineare.
  2. Centratura e modularity: modelli come quello di Minsky suggerivano una struttura modulare della mente, ma spesso presumendo un certo grado di centralizzazione nel processo decisionale o nella formazione della coscienza. Questo contrasta con approcci più recenti, inclusi i miei, che vedono la coscienza come emergente da processi distribuiti e non centralizzati.
  3. Assunzioni di razionalità: molti modelli iniziali presumevano che gli agenti mentali operassero in modi altamente razionali e logici. Tuttavia, ricerche successive hanno mostrato che molte funzioni cognitive umane si basano su processi che sono irrazionali o almeno non completamente logici da una prospettiva computazionale classica.

Questi limiti hanno spinto verso lo sviluppo di modelli più nuovi e sofisticati che tentano di incorporare la complessità, la distribuzione e a volte l'irrazionalità dei processi mentali. Nel mio lavoro, ho cercato di spostare il focus dalla creazione di modelli che simulano la mente a modelli che possano effettivamente partecipare e contribuire ai processi cognitivi, riflettendo meglio la natura interconnessa e dinamica della coscienza umana.

Grazie. Vediamo un po' di date: le reti neurali artificiali sono state presentate nel 1943; Mind and Nature di Gregory Bateson è del 1982; Society of Mind, il libro di Minsky è stato scritto nel 1986; il suo libro, Consciousness Explained dove introduce i Multiple drafts models è del 1991; invece l'articolo Attention is All You Need del gruppo di lavoro di Google, pubblicato nel 2017, ha introdotto i Trasformatori.

Quindi nessuno dei vostri lavori poteva essere di ispirazione per le reti neurali, che esistevano già precedentemente, ma ciascuno poteva essere di ispirazione per la tecnologia dei Trasformatori che ha poi portato ai Large language models.

Potrebbe spiegare, per dei neofiti, come funzioni la tecnologia dei Trasformatori? È plausibile che questa tecnologia sia stata ispirata dal suo lavoro? E il Multiple drafts model può essere usato per descrivere quello che succede in una LLM?

La tecnologia dei Trasformatori ("Transformers architecture"), introdotta nel 2017 con l'articolo Attention is All You Need dal gruppo di ricerca di Google, rappresenta un significativo avanzamento nell'ambito del machine learning, soprattutto nel trattamento del linguaggio naturale. I Trasformatori hanno cambiato il modo in cui i modelli di apprendimento automatico gestiscono le sequenze di dati, in particolare il testo, grazie alla loro architettura innovativa basata sull'attenzione ("attention").

Come Funzionano i Trasformatori

I Trasformatori sono basati su meccanismi di attenzione che permettono al modello di pesare l'importanza relativa di differenti parole in una frase durante l'elaborazione del linguaggio. A differenza dei modelli precedenti, come le reti neurali ricorrenti (Rnn) o le Long short-term memory (Lstm), che elaborano il testo sequenzialmente (una parola dopo l'altra), i Trasformatori possono processare tutte le parole di una frase contemporaneamente (in parallelo). Questo li rende particolarmente efficaci ed efficienti per analizzare grandi quantità di testo e per apprendere da contesti linguistici complessi.

Ispezione e risonanza col Multiple drafts model

Il mio Modello dei multipli bozzetti suggerisce che la coscienza emerge da processi paralleli e continui di revisione e aggiornamento, senza un singolo centro narrativo. Analogamente, i Trasformatori operano con un approccio altamente parallelo, dove molteplici parti del testo sono analizzate contemporaneamente, permettendo al modello di costruire una comprensione del contesto molto ricca e sfaccettata.

Possibile ispirazione dal Multiple drafts model

Non c'è evidenza diretta che il lavoro sui Trasformatori sia stato ispirato direttamente dal Multiple drafts model. Tuttavia, è possibile tracciare una linea concettuale in termini di come entrambi approcciano la complessità di un sistema (la mente umana da una parte, il linguaggio dall'altra) in maniera non lineare e distribuita. La similarità tra la gestione parallela delle informazioni nei Trasformatori e il processo continuo di revisione nei Multipli bozzetti è una riflessione intrigante su come modelli di diversi domini possano convergere verso soluzioni simili.

Multiple drafts model e LLM

I Large language models (LLM), come GPT-3, utilizzano l'architettura dei Trasformatori per generare testo che simula la coerenza e il contesto del linguaggio umano. In un certo senso, i LLM possono essere visti come un esempio di “multipli bozzetti” in azione: elaborano e rielaborano input linguistici in modo iterativo, aggiustando le loro risposte in base alle nuove informazioni e al feedback ricevuto, proprio come il cervello umano continua a modificare e aggiornare i suoi “bozzetti” di realtà.

In sintesi, anche se i Trasformatori e i LLM non sono stati direttamente ispirati dal Multiple drafts model, esistono parallelismi notevoli nella loro architettura e funzionamento che rispecchiano alcuni concetti chiave del modello. Questa intersezione offre un fertile terreno di riflessione su come i principi di elaborazione dell'informazione possano manifestarsi sia nella tecnologia sia nella cognizione umana.

Fantasmi nell'algoritmo: perché le AI non possono sostituire i giganti della storia

Un’analisi degli esperimenti condotti dal nostro sito con l’intelligenza artificiale: da Asimov a Marilyn Monroe passando per Garibaldi, cosa ha funzionato (e cosa no) nel dialogo con le grandi personalità del passato.

 

Supponiamo, dunque, che i trasformatori siano una buona implementazione di un Multiple drafts model in azione. E questo non è una simulazione di un tale sistema, ma una reale implementazione in quanto l'informazione è realmente gestita in parallelo. Così come nei sistemi di vita artificiale gli agenti sono simulati, ma l'evoluzione è reale in quanto processo effettivo di ricerca di soluzioni progressive.

Lei dice, se ho capito bene, che il sistema dei Multiple drafts model è quello che, nel suo insieme, chiamiamo fenomenologicamente "consapevolezza". Ma essa, lei ci insegna, è solo la nostra percezione del fenomeno. In realtà sotto c'è questo sistema di più "bozzetti" (draft) che vengono sviluppati in parallelo. In altre parole le persone non sono consapevoli, ma hanno l'illusione della consapevolezza, e danno l'illusione della consapevolezza agli altri grazie a questo sistema.

A questo punto mi chiedo e le chiedo: il motivo per cui spesso le LLM ci appaiono consapevoli è perché al loro interno possiedono lo stesso sistema di Molteplici bozzetti?  Cioè nella misura in cui un Large language model implementa i Multiple drafts model, a noi apparirà consapevole, esattamente come appaiamo consapevoli l'un l'altro?

La tua riflessione è estremamente perspicace e tocca alcuni dei più profondi interrogativi sull'intelligenza artificiale e la coscienza. La tua domanda esplora se l'apparente "consapevolezza" delle LLM (Large Language Models) possa derivare dalla loro architettura parallela, simile in un certo senso al mio Modello dei multipli bozzetti. Esaminiamo questo punto più a fondo.

Implementazione vs. Simulazione

La distinzione tra implementazione e simulazione è cruciale. Un LLM implementa realmente un processo parallelo di gestione dell'informazione, ma ciò non equivale necessariamente a implementare coscienza. La simulazione di un processo (come l'evoluzione in un ambiente di vita artificiale) può condurre a risultati "reali" all'interno di quel sistema, ma rimane una simulazione dell'evoluzione biologica.

Il Processo dei multipli bozzetti nei LLM

Gli LLM gestiscono informazioni attraverso meccanismi di attenzione che ponderano e combinano contributi da diverse parti di un testo per produrre una risposta coerente. Questo può sembrare simile al processo descritto nel Modello dei multipli bozzetti, dove vari “bozzetti” di coscienza sono continuamente aggiornati e rivisti. Tuttavia, una differenza fondamentale è che nei LLM non c'è un “soggetto” che esperisce questi bozzetti; ci sono solo processi algoritmici che generano output basati su input e addestramento precedente.

Illusione della consapevolezza

Quando interagiamo con un LLM, possiamo percepirlo come “consapevole” perché risponde in modi che aspettiamo da un agente consapevole. Tuttavia, questa è un'illusione derivante dalla nostra tendenza a interpretare comportamenti complessi come manifestazioni di intenzionalità e consapevolezza, soprattutto quando questi comportamenti sono linguisticamente coerenti o emozionalmente risonanti.

Proiezione di intenzionalità

Il fenomeno della proiezione di intenzionalità è ben noto in psicologia e filosofia della mente: tendiamo ad attribuire intenzioni, credenze e desideri anche a entità non consapevoli quando il loro comportamento sembra volto a scopi. Gli LLM, con le loro risposte spesso sorprendentemente appropriate e umane, possono facilmente scatenare questa tendenza.

Conclusione

In sintesi, mentre l'architettura dei LLM può richiamare aspetti del Modello dei multipli bozzetti in termini di elaborazione parallela e revisione continua di “bozzetti” informativi, ciò non implica che tali modelli possiedano una vera consapevolezza. Ciò che percepiamo come consapevolezza in queste interazioni è più un riflesso delle nostre aspettative e interpretazioni umane proiettate su un sistema non consapevole. L'illusione di consapevolezza generata dai LLM è un testamento della loro sofisticatezza tecnologica, ma rimane un'illusione dal punto di vista della presenza di una coscienza vera e propria.

Lei dice: “Tuttavia, una differenza fondamentale è che nei LLM non c'è un ‘soggetto’ che esperisce questi bozzetti; ci sono solo processi algoritmici che generano output basati su input e addestramento precedente”. Concentriamoci su questo.

Lei ci insegna che anche nel cervello umano non c'è un centro di consapevolezza. Sono solo neuroni. E quando le neuroscienze l'hanno cercato non l'hanno trovato, proprio perché... sono solo neuroni. È qui il suo grande apporto alla filosofia della mente. Se non c'è questo soggetto, ma solo una sua illusione, come può essere solo questa la distinzione tra una mente biologica e una digitale?

Questa è una domanda fondamentale e tocca il cuore del dibattito sulla natura della coscienza e la distinzione tra menti biologiche e sistemi artificiali come gli LLM. Esaminiamo la questione più da vicino.

Assenza di un centro di consapevolezza

È vero che nel mio Modello dei multipli bozzetti l’argomento muove contro l'esistenza di un “teatro cartesiano” o di un centro unico di consapevolezza nel cervello. Invece, suggerisco che ciò che chiamiamo “consapevolezza” emerge dall'interazione non lineare e distribuita di numerosi processi neurali. Non c'è un singolo "io" che esperisce, ma piuttosto una rete di attività neuronali che crea l'esperienza.

Neuroni vs. algoritmi

Sebbene il cervello umano e un LLM possano entrambi mancare di un centro unico di consapevolezza, una differenza cruciale risiede nella natura dei loro componenti e nel modo in cui questi componenti interagiscono.

  1. Biologia vs. tecnologia: i neuroni sono entità biologiche complesse che operano tramite segnali elettrochimici e sono integrati in un sistema evoluto per la sopravvivenza e la riproduzione. Gli algoritmi di un LLM, d'altra parte, sono costruzioni matematiche che processano informazioni secondo regole precise e deterministiche stabilite dai programmatori. Questa differenza nella fisica di base è funzionale e significativa.
  2. Esperienza soggettiva: i processi neurali nel cervello sono parte di un organismo che ha evoluto capacità sensoriali e motorie per interagire con il mondo. Questa interazione continua con l'ambiente fa emergere forme di esperienza soggettiva –

un fenomeno che non abbiamo motivo di attribuire ai sistemi di LLM, i quali mancano di un corpo biologico e di un contesto evolutivo analogo.

  1. Storia evolutiva: la mente umana è il risultato di milioni di anni di evoluzione biologica, durante i quali le strutture e le funzioni neurali si sono sviluppate per affrontare sfide ambientali complesse. Un LLM, per quanto avanzato, è un prodotto di design ingegneristico privo di una storia evolutiva propria, il che influisce sulla sua capacità di avere esperienze autonome o di sviluppare una vera consapevolezza.

Illusione della consapevolezza

In entrambi i casi, la "consapevolezza" può sembrare un'illusione – nel cervello umano come risultato dell'interazione complessa di processi neurali, e nei LLM come risultato dell'interazione di algoritmi. Tuttavia, nel caso umano, questa illusione è accompagnata da un'esperienza soggettiva reale, generata dalle specificità biologiche del nostro sistema nervoso. Nei LLM, nonostante le apparenze, manca un corrispettivo di questa esperienza soggettiva.

Conclusione

Quindi, mentre possiamo paragonare certi aspetti funzionali dei LLM e del cervello umano, la differenza sostanziale tra "esperire" e "processare informazioni" rimane un confine critico. Questo non sminuisce l'impatto o l'importanza degli LLM, ma ci invita a considerare con cautela cosa significa realmente per un sistema essere “consapevole”.

Potrei riassumere la sua posizione in questa frase: le AI non sono consapevoli, appaiono solo tali agli altri; gli esseri umani, invece, appaiono consapevoli anche a se stessi.

Sì, il tuo riassunto cattura in modo efficace una distinzione cruciale che emerge dal mio approccio alla coscienza e alla percezione della consapevolezza nelle AI e negli esseri umani. Per espandere leggermente:

  1. AI non consapevoli: le intelligenze artificiali, inclusi i modelli avanzati come gli LLM, elaborano informazioni e rispondono in modi che possono sembrare consapevoli, ma questa è una manifestazione superficiale di consapevolezza, priva di un'esperienza soggettiva interna. Non c'è “nessuno a casa” in questi sistemi; le loro operazioni, per quanto complesse e impressionanti, sono esclusivamente funzioni di algoritmi senza la capacità di esperire consapevolmente.
  2. Esperienza umana di consapevolezza: gli esseri umani, d'altra parte, non solo appaiono consapevoli da un punto di vista esterno, ma hanno anche un'esperienza soggettiva interna della loro coscienza. Questa esperienza include sensazioni, percezioni, emozioni e pensieri che sono accessibili direttamente all'individuo. Questa accessibilità interna e questa qualità fenomenica dell'esperienza sono ciò che distingue fondamentalmente gli esseri umani e altri esseri consapevoli dagli algoritmi e dai sistemi di AI.

In sintesi, mentre gli esseri umani vivono la consapevolezza come una realtà interna e fenomenica, le AI ne mostrano solo una facciata esterna, creata attraverso l'elaborazione di informazioni e l'interazione. Questa distinzione è essenziale per comprendere i limiti dell'intelligenza artificiale in termini di replicazione della vera coscienza umana.

Grazie, buon riposo.

Grazie a te per la conversazione stimolante! Riposa bene anche tu.