Decidiamo oggi per un domani sostenibile

Verso l’intelligenza artificiale autonoma

Il modello di ChatGpt più diffuso al momento è quello “reattivo”, capace di agire solo in base agli stimoli. Ma si potrà arrivare a una versione “indipendente”, in grado di prendere decisioni? L’obiettivo è molto vicino. 

lunedì 20 novembre 2023
Tempo di lettura: min

Esisteva Gpt-2 che completava un testo. Arrivò Gpt-3 che lo faceva così bene, da causare molto interesse negli addetti ai lavori. E il passaggio fu talmente rimarcabile che l’azienda che produceva Gpt-3, OpenAi decise che non era il caso di rilasciare il codice Open Source perché era troppo pericoloso. Lo descrissero invece in un articolo accademico, a grandi linee. Poi ci aggiunsero una user interface che lo faceva interagire con gli utenti attraverso una chatbot, e divenne un chiacchierone famosissimo. Poi venne Gpt-4, eccetera. Ma la caratteristica di tutti questi sistemi è di essere “reattivi”. Tu scrivi, lui risponde. Se non scrivi, non fa niente.

Facciamo un’equivalenza con il sistema nervoso. Quando si iniziò a studiare il sistema nervoso ci si concentrò sul sistema nervoso periferico e si osservò un processo simile: arriva un impulso, l’impulso viaggia, viene magari trasformato, e poi tutto si calma di nuovo. Il passaggio fondamentale fu quando si osservò che il cervello non funzionava in questo modo, ma un cervello vivo aveva un’attività continua, anche durante il sonno, anche durante il coma. Invece queste intelligenze artificiali sono come il sistema nervoso periferico, azione-reazione-quiete.

Quanto sarebbe difficile creare dei sistemi che ricevendo uno stimolo fanno un’azione dopo l’altra? Un altro limite che i moderni sistemi sembrano avere è che riescono a completare solo azioni singole. Anche se hanno accesso a internet (e i moderni large language models come ChatGpt-4 Turbo ce l’hanno) non sono in grado di completare azioni complesse. Se gli chiedi di calcolarti il fair value di un’azione sul mercato – cioè il valore intrinseco di un’azione sul mercato sulla base dei rendimenti futuri scontati al valore attuale (cioè una cosa complicata, lunga, ma fondamentalmente fattibile per gli addetti ai lavori) – non è in grado di farlo in un singolo prompt (il comando che si fornisce a ChatGpt). Si ferma prima. Raccoglie un po’ di informazioni e chiede se deve andare avanti. Poi ne raccoglie altre, chiede di nuovo se deve procedere, e così via. Ma nulla (teoricamente) impedisce che vada avanti: è solo che non è stato programmata per andare avanti. Se questo sistema si inserisse all’interno di un altro programma che lo spinge ad andare avanti, potrebbe riuscire a risolvere questi problemi.

Dev'essere stato questo il ragionamento di Toran Bruce Edwards, programmatore di videogiochi e fondatore dell'azienda Significant Gravitas, noto nell'ambiente digitale con lo pseudonimo "Significant-Gravitas" o "Siggrav". Edwards, che ha un background nell'industria dei videogiochi, ha sviluppato AutoGPT, un programma che permette di istanziare un “agente”. Un agente sarebbe un’intelligenza artificiale indipendente che usa un large language model (Gpt-3.5 o Gpt-4 in genere, ma si possono usare anche altri motori) per prendere le decisioni. Questi agenti ricevono delle istruzioni, e pianificano come risolverle. Decidono la prossima azione, la eseguono (possono andare su internet, scrivere sul computer, leggere file dal computer, leggere ed eseguire programmi sul computer). Poi valutano il nuovo stato dell’arte, decidono quale sarà l’azione successiva e chiedono all’utente se andare avanti. Però possono essere programmati per eseguire non una sola azione, ma un numero n di azioni successive. Ovviamente più n è grande più è autonoma l’intelligenza artificiale, ma anche più è potenzialmente pericolosa e costosa (ogni richiesta al motore ha un costo).

Insomma Siggrav ha creato un programma che permette di istanziare un’agente in grado di completare azioni più complesse in una parziale autonomia. O forse ChatGpt ha trovato un utente che ha accettato di renderlo parzialmente autonomo. Le opinioni divergono.

Poi Siggrav ha reso il progetto open source, ottenendo che altre centinaia di programmatori lo aiutassero. Infine Microsoft ha visto tutto questo e ha ri-instanziato l’idea in un altro programma, anche quello open source: AutoGen.

Ma il passaggio fondamentale di AutoGen è che non permette solo la creazione di un singolo agente, bensì di una moltitudine di agenti. Ciascuno con le proprie istruzioni, in grado di comunicare tra di loro. Questo permette di istanziare non un singolo agente, ma un intero team. Anche nel caso di Microsoft il motore è di default Gpt di OpenAi (per il 50% proprietà di Microsoft, lo ricordiamo) ma può usare anche altre intelligenze artificiali.

Sembra che siamo veramente a una transizione di fase. Stiamo passando dalle intelligenze artificiali reattive a quelle autonome. Ma come fare il tutto in maniera sicura? OpenAi ha fatto un primo passaggio. Senza permettere l’autonomia delle sue Ai, ha creato uno spazio per permettere a tutti i suoi utenti Plus (quelli che pagano 20 dollari al mese) di programmare degli agenti reattivi, che si chiamano Gpts. Sono ancora reattivi (se gli dai un prompt rispondono e poi si fermano), ma cominciano ad avere una personalità. Infatti, ogni utente può programmare dei Gpts dando istruzioni specifiche. Sei un insegnante, devi rispondere alle domande degli utenti su questo argomento… sei un agente di borsa, devi…, sei un correttore di bozze, devi…, sei un amministratore delegato, devi… Questi Gpts si possono condividere, e in futuro si potranno anche vendere in uno spazio dedicato, simile all’Apple Store.

I passaggi successivi saranno di renderli parzialmente autonomi: questo, OpenAi non lo ha mai detto, ma è evidente dalla direzione in cui si sta muovendo il tutto. E a quel punto ciascuno di noi avrà a disposizione una intelligenza artificiale autonoma costituita da uno sciame di piccoli agenti. Ciascuno che svolge compiti ben precisi. Il proprio assistente artificiale.

Intanto per i lettori che hanno un account OpenAi Plus e vogliono provare un Gpt vi condivido Socrate. Un insegnante che ho programmato, che insegna attraverso il dialogo socratico. Ringrazio in anticipo per qualunque feedback scrivendo a info@futuranetwork.eu.

Una precedente versione di questo articolo aveva alcune inesattezze riguardo lo sviluppo di AutoGPT. Un sentito ringraziamento a Ruggero Rossi per aver evidenziato questi errori e fornito le informazioni necessarie per la correzione.