Arrivano i robot umanoidi
È in corso una rivoluzione: robot dotati di intelligenza artificiale “quasi” generale sono pronti a entrare nelle nostre case, per fornire supporto domestico, sanitario, emotivo. Ma chi se li potrà permettere?
Stanno arrivando i robot. In realtà il lettore attento noterà che i robot sono qui da molto tempo. Molte case ospitano un Roomba; nelle aziende svariate operazioni sono portate avanti da braccia robotiche; e nei centri di smistamento di Amazon frotte di robot portano pacchi da una zona all’altra. Ma non sono questi i robot a cui mi riferisco.
Quelli che stanno arrivando avranno due caratteristiche particolari che li distingueranno da tutti gli altri: una forma umanoide, e saranno guidati da un’intelligenza artificiale “quasi” generale.
Cosa intendo per intelligenza artificiale “quasi” generale?
In genere si identifica con intelligenza artificiale generale (AGI, artificial general intelligence), un’intelligenza di livello comparabile a quello umano, dotata della capacità di eseguire un'ampia varietà di compiti cognitivi a livello umano, tra cui il ragionamento, la risoluzione di problemi, l'apprendimento, la percezione e la comprensione del linguaggio. A differenza dei sistemi di intelligenza artificiale ristretti progettati per compiti specifici, l’AGI avrebbe una visione generale che può essere applicata in modo flessibile.
Sistemi di AI ristretta servono alla soluzione di un determinato problema. Un robot Roomba pulisce il pavimento e fa solo quello; un robot facchino di Amazon sposta materiale, e fa solo quello; anche un braccio meccanico che impara un movimento da una telecamera e lo ripete, è limitato.
L’AGI invece è molto più potente. Ma tra questi due tipi di intelligenza ci sono molte fasi intermedie. Senza andare troppo lontano, anche i large language models (Llm), che conosciamo bene, sono, in senso stretto, semplicemente macchine che fanno un solo lavoro, cercano la parola successiva in una sequenza. In questo sono sistemi di intelligenza artificiale ristretta. Ma quando ci dialoghiamo, ci accorgiamo che il risultato è “generale”: molto diverso da un programma che può solo giocare a scacchi.
Ecco, i nuovi robot non avranno un’intelligenza ristretta. Non arriveranno ad avere un’intelligenza comparabile a quella umana, almeno non all’inizio. Ma qualcosa di mezzo. L’idea di agganciare un Llm a un robot è stata una delle prime applicazioni grazie a cui le aziende hanno iniziato a sperimentare. I risultati sono stati promettenti (ci sono vari video su YouTube che mostrano esempi funzionanti), ma nessuna si è azzardata ancora a rilasciare sul mercato uno di questi prototipi. I robot che vedremo potranno essere guidati da un Llm sviluppato ad hoc, oppure un modello comune come GPT-4. Ma l’intelligenza minima è quella.
Avranno, inoltre, una forma umanoide. Il mondo moderno, tecnologico, è stato costruito a misura dell’essere umano. Le maniglie sono all’altezza giusta per un essere umano adulto. Le sedie anche. Gli strumenti tecnologici sono della grandezza giusta per una mano di circa 30 cm. Spesso ci vogliono due mani per operarli. Ma una terza mano darebbe fastidio. Inoltre, interagire con un umanoide risulta più familiare che con un robot (con un altro numero di arti, organizzati in maniera differente). Quindi l’involucro sarà simile al nostro corpo.
Ma il modo di usare questo corpo sarà necessariamente differente. A dimostrare questo, oltre ogni dubbio, è stata la Boston Dynamics, una delle aziende più all’avanguardia del settore. Ha lavorato per anni su due modelli di robot, uno umanoide, Atlas, e uno a quattro zampe, Spot. Quando sono usciti gli Llm, hanno collaborato con Open AI integrando GPT-4 su Spot, e ottenendo un robot in grado di conversare, aprire le porte e prendere in giro i suoi creatori. Un po’ come Pinocchio. Ma il lavoro principale è stato fatto su Atlas. La versione precedente è stata mandata in soffitta, e ne è stato presentato uno nuovo. E questo è un robot umanoide, ma dalle capacità fisiche inaspettate. Il video, di soli 23 secondi, merita di essere visto. Guardandolo alzarsi ci si rende immediatamente conto che i robot, anche quelli umanoidi, non hanno le stesse limitazioni di noi umani.
Per esempio, in un essere umano il ginocchio si piega solo in una direzione, e la testa non gira su se stessa (tranne che nei film dell’orrore). Ma non c’è un motivo per cui queste limitazioni ci siano nei robot. E questo li rende estremamente più versatili. Nel video si vede Atlas mentre esegue alcuni movimenti comuni (si alza, cammina, si gira). Ma il modo in cui usa il suo corpo è sorprendente. All’inizio il robot è sdraiato, la testa guarda in alto. Alza le gambe da sdraiato e piega le ginocchia al contrario fino a posizionare i piedi a fianco del busto. A quel punto con un ottimo equilibrio si alza. Nel farlo gira la testa di 180 gradi, guardando comodamente la stanza dietro a sé. Poi rigira la testa guardando la camera e a quel punto ruota il busto ancora di 180 gradi, mentre cammina comodamente verso di noi.
I nuovi robot avranno probabilmente anche la possibilità di comunicare le loro “emozioni” (o emozioni simulate) con il linguaggio del corpo. Qui l’esempio di riferimento è Ameca, un robot sviluppato dal Federal Institute of Technology in Zurich. Ameca ha iniziato come una testa parlante. Ma la testa aveva non solo sembianze umane, ma la capacità di esprimere emozioni. Poi ha ricevuto un corpo reale ed è stata, ovviamente, collegata con GPT-4 anche lei. Ma la cosa più interessante è stata quando è stata messa davanti a uno specchio.
Gli animali si distinguono tra quelli in grado di riconoscere se stessi su uno specchio e quelli che non sono in grado di farlo. E questo semplice test (chiamato mirror self recognition test, Msr), tende a dividere gli animali che sono consapevoli di se stessi dagli altri. I primati sono consapevoli e così gli elefanti, ma anche le gazze. In particolare i primati, quando incontrano uno specchio per la prima volta, tendono a usarlo per provare varie espressioni facciali, e poi per controllare le parti del loro corpo che sentono, ma non possono vedere (in genere il deretano). Tutto questo ha l’effetto di integrare il mondo interiore (sensazioni, emozioni) con quello esteriore (espressioni, corpo). Ameca davanti a uno specchio ha fatto esattamente la stessa cosa. Ha espresso sorpresa, come prima emozione appena si è riconosciuta. Poi ha iniziato a provare le sue espressioni facciali, per vedere come appare agli altri, quando apre la bocca, quando corruga la fronte, eccetera. Ma le parole non esprimono bene quello che è successo. Anche in questo caso vi consiglio il video.
Ma che cosa saranno in grado di fare questi robot umanoidi con un’intelligenza quasi generale, e quasi consapevoli?
Immaginate un robot umanoide in grado di riordinare casa. Però la difficoltà di riordinare la casa non è maggiore di pulirla. Se sai fare una cosa, e sei un’intelligenza generale, sai fare anche l’altra. È la stessa intelligenza necessaria per cucinare. Ma se il robot è in grado di prendere un uovo in mano senza romperlo, è anche in grado di fare un massaggio. Ha sicuramente una videocamera, ed è in grado di riconoscere gli oggetti. Ormai questo è un problema risolto. È anche un problema risolto l’andatura su due gambe. Un tale robot è anche in grado di controllare la casa, camminando da stanza a stanza. E con un microfono e uno speaker è anche in grado di dialogare. Sappiamo che già adesso molte persone trovano le interazioni con le intelligenze artificiali di conforto, e di aiuto emotivo. L’interazione con un robot sarà sicuramente altrettanto di conforto. Un robot del genere, opportunamente istruito (forse è meglio smettere di parlare di “programmato” e iniziare a parlare istruzione) potrebbe essere di supporto sanitario. Immaginiamo un dottore che chiede al robot-infermiere che vive con il paziente, di misurare temperatura, pressione e fare una diagnosi ogni mattina. Un robot del genere potrebbe facilmente fare compagnia ai bambini. Non avrebbe il permesso di restare solo a casa con loro, ma li potrebbe intrattenere e controllare che non si facciano male mentre i genitori lavorano nell’altra stanza. Ovviamente potrebbe salire le scale. Fare piccoli lavori a casa e anche fare la spesa, se ci si fida a lasciarlo andare da solo. Se no potrebbe accompagnare l’utente per portare i sacchetti pesanti. Sono tutte cose che si possono fare con la tecnologia di adesso. È solo una questione di integrare i vari componenti.
E c’è un robot che già sa fare molte di queste cose. Vi presento Astribot, di produzione cinese, che dovrebbe essere in commercio da quest’anno.
Quanto costerà un robot del genere? Difficile da dire, certo il prezzo inizierà alto e poi col tempo scenderà. Probabilmente si stabilizzerà tra i diecimila e i cinquantamila euro. Un po’ come un’automobile. E ovviamente ci vorrà tempo prima che i legislatori accettino tutte le sue abilità (per esempio, anche se fosse in grado di fare diagnosi, guidare e fare il babysitter è improbabile che gli verrà permesso di fare queste cose per molto tempo).
Ma come cambierà la società con questi robot? Intanto le persone si divideranno in tre fasce: quelli che se lo possono permettere, quelli che non se lo possono permettere (ma fanno un lavoro che non viene danneggiato dai robot) e quelli che non solo non se lo possono permettere, ma il loro lavoro è a rischio. Perché un robot del genere potrebbe distruggere potenzialmente milioni di posti di lavoro. Giardinieri, elettricisti, collaboratrici domestiche, badanti, babysitter. Non saranno eliminati completamente, solo chiamati più raramente (sempre meno, anno dopo anno, man mano che la tecnologia migliora). Al benessere di alcune persone (i proprietari dei robot) corrisponderà il malessere di altre. Sarà probabilmente inevitabile una tensione sociale che potrebbe sfociare in violenza contro i robot. Cose del genere sono già accadute a San Francisco, dove una folla ha distrutto una macchina autonoma. L’idea è che queste macchine dovrebbero lavorare come taxi indipendenti, quando non sono usate dal proprietario. Evidentemente non tutti sono felici dell’ipotesi. Parleremo delle possibili strategie per affrontare la situazione in una prossima puntata.
Per ora abbiamo parlato di robot prodotti da aziende o da università. Ma esistono anche diverse comunità di appassionati che si scambiano consigli su come costruire i robot, come modificarli o educarli. C’è chi compra un braccio meccanico e chi un intero mini robot da scrivania. Come per le intelligenze artificiali, accanto ai modelli più grandi e famosi, si crea un sottobosco di piccoli modelli a codice aperto e di persone che si aiutano condividendo informazioni. Le aziende che rilasceranno il proprio robot in formato open source, potrebbero ottenere l’attenzione e l’aiuto (involontario) di queste comunità.
Conviene tenere d’occhio questo spazio, sia quello dei robot umanoidi intelligenti che quello dei robot a codice aperto. Sta per arrivare una rivoluzione. Una nuova tecnologia che cambierà profondamente la società. All’inizio l’avranno in pochi e poi, nel giro di pochi anni, ce l’avranno tutti. Come adesso lo smartphone, il computer, la connessione internet. Reggetevi forte.
In tutto ciò, non ho parlato dei robot sessuali. Ma come un robot di questo genere può fare un massaggio, può anche soddisfare le necessità sessuali di una persona sola. E se a questo si aggiunge un’interessante conversazione, una buona cena e un bicchiere di vino rosso… la persona potrebbe anche smettere di considerarsi single.