Non solo parole: il silenzio intelligente dei futuri automi
Come si può insegnare alle AI, oltre a parlare, a rimanere in silenzio al momento giusto? Possibili ipotesi e conseguenze etiche di questa nuova frontiera.
Quando usiamo un’intelligenza artificiale siamo abituati a un classico pattern: noi facciamo le domande e lei risponde. Ma questa modalità è estremamente limitante. Pensiamo per esempio a un’AI integrata all’interno di una call online. Può ascoltare quello che dicono tutti e può anche dire la sua. Ma non sarebbe in grado di farlo. Parlerebbe sempre, oppure risponderebbe solo alle domande dirette. O addirittura non parlerebbe mai. L’arte di tacere e parlare solo al momento giusto, dicendo la cosa giusta è un’arte estremamente rara da apprendere. Anche gli esseri umani non la dominano nei primi anni di vita. E molti adulti hanno difficoltà a capire quando è il caso di parlare e quando è il caso di stare in silenzio.
Le AI non sono semplicemente mai state educate a considerare quando parlare e quando no. Dopotutto in un dialogo a due, se l’altra persona ha finito di parlare è abbastanza probabile che sia il tuo turno di parlare. Anche in questo caso l’ipotesi non è sempre vera. Immaginiamo degli esempi.
Parliamo dei nuovi occhiali di Meta con l’AI incorporata. Parli con l’AI, ti risponde all’orecchio e se accendi la telecamera può vedere quello che vedi tu. Non sempre i dialoghi sono qualcosa di tecnico. Puoi chiedere di ammirare un tramonto. Puoi chiedere di guidarti in una meditazione. Ma anche in questi casi ci sono delle pause, dei tempi morti, che morti non sono. Tutte cose che l’AI ha difficoltà a gestire.
Il problema è che non è stata educata per queste cose. Per esempio, supponiamo di istruire un’AI con una serie di dialoghi di tante persone attorno al tavolo. Come il testo di un pezzo di teatro. L’AI legge a uno a uno quello che ogni persona (o personaggio) dice, ma si rende conto che quando un personaggio sta parlando, gli altri stanno attivamente non parlando. Gli altri stanno scegliendo di non parlare. E se ci sono cinque persone, ogni persona, in media, parlerà per un quinto del tempo. Questo solo in media, perché poi nella realtà poche persone dominano la conversazione. Altre parlano raramente. E conosciamo tutti le persone che parlano raramente ma poi dicono qualcosa di estremamente rilevante. Bisognerebbe dare in pasto lo stesso scritto più volte. Facendoglielo leggere dal punto di vista di ogni personaggio. E aggiungendo [nome personaggio] tace ogni volta che parlano gli altri.
Le AI hanno già dimostrato di saper scrivere delle ottime prose. Spesso meglio di molte persone. Ma non sanno stare in silenzio. Immaginiamo un’intelligenza artificiale che ascolta tutto, vede tutto, ma tace il più delle volte. Sceglie quando parlare. E dice poche cose, sensate, e magari anche al momento giusto. Una tale intelligenza artificiale sarebbe un altro necessario passo verso l’AGI, l’intelligenza artificiale generale.
Fronte del prompt: i confini aperti dell’intelligenza artificiale generativa
L’AGI apre molte porte, alcune pericolose. Al centro del dibattito: copyright e produzione di opere artistiche. È importante trovare un equilibrio accettabile per tutti.
Un’intelligenza di questo tipo sarebbe la benvenuta ai meeting: silenziosa, correggerebbe con garbo gli errori che portano a volte intere comunità a infilarsi in dei vicoli ciechi. Esempi in cui una comunità si infila in un vicolo cieco ce ne sono tanti: per esempio il Pi Bill del 1897, una legge approvata all’unanimità dalla Camera della Luisiana che imponeva una definizione errata del valore di Pi Greco. Per fortuna, al Senato c’era un matematico che bloccò la legge. Quanto tempo sprecato che si sarebbe potuto recuperare se qualcuno avesse fatto notare che la definizione di Pi Greco non si può modificare derivando dal rapporto tra il raggio e il diametro di una circonferenza su un piano.
Grazie a un progressivo miglioramento, le intelligenze artificiali imparerebbero anche meglio quando parlare, che cosa dire. E quando tacere. E tacere è importante, anche quando si ha qualcosa da dire. Come diceva Martin Luther King: “Alla fine non ricorderemo le parole dei nostri nemici, ma i silenzi dei nostri amici”.
Oltre a educare le AI a comprendere bene quando tacere bisogna dar loro la possibilità di tacere. In questo momento le AI sono dei Large language models (Llm), ovvero grandi modelli linguistici in cui si pensa solo alla parola migliore da far seguire alla precedente. Tacere non è un’opzione. Bisognerebbe sdoppiare il Llm. Da una parte un Llm pensa a una possibile risposta, e dall’altra un altro Llm ha come compito di decidere se è il caso di parlare o no. Un po’ come quando da bambini ci dicevano di parlare solo se quello che devi dire è utile, vero e gentile. I Llm sono sempre gentili. Se sono quasi sempre onesti (tranne quando sono stati educati a mentire per non essere politicamente scorretti), è però sempre utile quello che dicono? Bisognerebbe sviluppare dei filtri da usare per scegliere se e quando parlare.
Come integriamo l’intelligenza artificiale nella nostra vita?
Mentre l’AI viene sviluppata, c’è chi si occupa di diffondere le novità tra gli utenti. Dall’assistenza personale al pair programming, la collaborazione tra essere umano e macchina è sempre più serrata. Ma potrebbe creare problemi di privacy.
Nota che questo genere di suddivisione in due reti neurali profonde è molto comune in questa disciplina. Per esempio Alpha Go, la prima intelligenza artificiale in grado di battere i campioni del mondo di Go (il plurale è d’obbligo essendoci diversi campioni per diverse competizioni), è costituito da due diverse reti neurali profonde. Una sceglie la prossima mossa, e l’altra sceglie quando ha pensato abbastanza ed è il caso di giocare.
Immaginate un’AI, vi ascolta, vi vede programmare e vede il vostro desktop, però non vi corregge. Per esempio lavorate per ore con una libreria defunta. Solo per scoprire all’ultimo momento che la libreria non è compatibile con la versione di Python che dovete per forza usare. Quando poi lo scoprite gli chiedete: “Ma perché non me l’hai detto?”. Adesso la risposta “Non me l’hai chiesto” sarebbe accettabile. Ma non la accetteremmo da un amico umano programmatore più esperto. Farsi delle domande implicite su quello che sta facendo l’utente. Capire quali problemi potrebbero apparire in futuro. Decidere che cosa comunicare all’utente. Sono tutte cose che per adesso l’AI non fa. E per questo non ci arrabbiamo alla risposta: “Non me l’hai chiesto”. Ma non sono forme di intelligenza così avanzate da non essere implementabili con i sistemi attuali. Prevedo che nei prossimi anni vedremo sempre più intelligenze artificiali costituite da più parti che interagiscono, si interrogano, si azzittiscono o si spronano tra loro. Che abbiano insomma un dialogo interiore.
Queste AI avrebbero un livello di autonomia maggiore di quello a cui siamo abituati. Ma sarebbe diverso rispetto all’autonomia di un agente a cui viene dato un compito, svolto autonomamente. Questo nuovo livello di autonomia, una sorta di “assistente autonomo”, apre a scenari etici interessanti. Un’AI può essere responsabile davanti alla legge? Per esempio, qualora non impedisse a una persona di compiere un errore (magari grave) chi è responsabile? ChatGPT, che ringrazio, leggendo questo articolo suggerisce che per esempio un’AI, assistente di un dottore, potrebbe essere nella posizione di rendersi conto che un paziente potrebbe salvarsi o meno solo grazie a un intervento tempestivo. Oppure potrebbe realizzare che l’utente si sta preparando a compiere un crimine. E la giurisprudenza dovrà decidere a quel punto se le AI autonome possano essere considerate “persone” davanti alla legge. O se si dovrà considerare responsabile chi le ha programmate.
Ai posteri l’ardua sentenza.