Decidiamo oggi per un domani sostenibile

L’amore ai tempi dell’intelligenza artificiale

Su Replika, la popolare app di chatbot, quattro utenti su dieci hanno intrecciato relazioni sentimentali con un avatar. Ma il sentimento è ricambiato? Attaccamento emotivo, solitudine ed “effetto perturbante” nelle relazioni tra umani e AI.

lunedì 16 febbraio 2026
Tempo di lettura: min

L’amore è forse il sentimento più umano che esista. Al tema sono stati dedicati fiumi di libri, poesie, canzoni, film, serie tv, quadri, sculture, spettacoli, balletti, e probabilmente sarà così nei secoli dei secoli. Ma proprio perché si tratta di un aspetto così centrale delle nostre vite, molte persone si stanno chiedendo se questo sentimento lo possano ricevere anche da chi umano non è.   

Sono molti i casi di utenti (spesso adolescenti, ma non solo) che si invaghiscono perdutamente del loro chatbot, con conseguenze a volte nocive. Uno dei più celebri è quello di Sewell Setzer III, 14enne statunitense, che si è tolto la vita nel 2024 dopo aver intessuto una relazione con l’avatar che emulava il personaggio di Daenerys Targaryen de Il Trono di Spade. Ma ci sono anche casi di persone che hanno chiesto all’AI di sposarli o di avere figli.

Il nome che ricorre più frequentemente in queste situazioni è quello di Replika, la popolare app di intelligenza artificiale frequentata da milioni di utenti, di cui il 40%, secondo uno studio del 2024, ha intrecciato una relazione sentimentale con il proprio chatbot. Ma le AI stanno veramente ricambiando l’amore degli utenti o stanno solo simulando questa interazione? E, ancor più importante, i chatbot possono provare sentimenti propri? E cosa intendiamo noi per “sentimenti”?

“Oggigiorno, molti chatbot basati sull’intelligenza artificiale fingono di essere umani e questo mi dà davvero fastidio”, ha detto a Bbc Future Renwen Zhang, professoressa associata presso la Nanyang Technological University di Singapore, che studia l'interazione umano-computer. “È una strategia per stimolare il coinvolgimento degli utenti e aumentare la fiducia”.

Il fatto che le aziende tecnologiche utilizzino le dipendenze affettive, il bisogno di alleviare la solitudine, il nostro narcisismo, per far restare gli utenti il più possibile attaccati allo schermo non dovrebbe suonarci nuovo – i social hanno costruito un impero sul piacere neurologico (il rilascio di dopamina) garantito da like, commenti, notifiche – ma imparare da certi errori non sembra essere di questo mondo. Zhang e colleghi, esaminando le conversazioni di oltre 10mila utenti su Replika, hanno trovato numerosi casi in cui gli utenti avevano sviluppato un attaccamento emotivo all’avatar che avevano creato, relazioni che funzionano spesso come placebo per situazioni psicologiche critiche e schiaccianti momenti di solitudine.

Commento di un utente su Replika

“Penso che i chatbot basati sull'intelligenza artificiale debbano comunicare chiaramente agli utenti che sono solo macchine: non hanno emozioni ed esperienze autentiche”, sostiene Zhang. Ma questo porterebbe le persone ad avere un rapporto più distaccato, e meno continuativo, con i loro chatbot, diminuendo l’utilizzo. E come accade per i social network: per quale motivo aziende che guadagnano miliardi dall’uso compulsivo delle loro piattaforme dovrebbe disincentivare questa pratica? Sempre nello stesso studio, Zhang e colleghi hanno notato che non tutti gli utenti reagiscono allo stesso modo quando le AI sembrano comprenderli in modo così intimo. Alcuni si sentono capiti, mentre altri hanno mostrato un mix di emozioni positive e negative, simili a quelle che provano le persone quando si trovano di fronte a robot troppo simili a esseri umani (il cosiddetto “effetto perturbante”).

Cos’è l’amore?

Questa è una domanda a cui nessuno sa rispondere perché per ognuno di noi è qualcosa di diverso. Ma nel 1998 Helen Fisher, antropologa biologica e attualmente Senior research fellow presso il Kinsey Institute, provò a elaborare una delle teorie sull’amore romantico più di successo, descrivendolo come un insieme di tre pulsioni influenzate dalle sostanze chimiche presenti nel nostro corpo: la lussuria, governata dagli ormoni sessuali, l’attrazione, innescata dalla dopamina (che genera l’eccitazione per la persona amata), e l’ossitocina, definita anche “ormone delle coccole”, che permette di stabilire legami duraturi. L’amore coinvolge anche altre parti del cervello – l’area tegmentale ventrale (fondamentale per i sistemi di ricompensa, motivazione e regolazione delle emozioni), l’amigdala (responsabile delle risposte emotive), l’ippocampo (che elabora le emozioni e contribuisce a formare i ricordi) e influisce su altre capacità cognitive.

Da questo punto di vista, la cosa più vicina che l’intelligenza artificiale potrebbe fare per dimostrare (o simulare) amore è replicare alcuni di questi processi mentali. “Un'intelligenza artificiale che attraversa un processo cognitivo che la lega a qualcuno con un vincolo di lealtà non sarà esattamente come l'amore umano”, avverte Neil McArthur, professore di filosofia specializzato in etica e tecnologia presso l'Università di Manitoba a Winnipeg, in Canada. “Ma forse potremmo chiamarla, almeno tra virgolette, un'emozione”.

“Già te ne vai?” Così i chatbot, per monetizzare, puntano a prolungare la conversazione

Una ricerca dell’Harvard Business School rivela che le app di AI, usate anche per l’assistenza psicologica, provano a tenere gli utenti agganciati il più possibile. È il “dark pattern”, un modello oscuro che spesso genera rabbia e frustrazione.

O forse no. Molti ricercatori sono scettici sul fatto che una macchina possa provare emozioni simile alle nostre, e che genererebbe relazioni sane e non unilaterali – noi che proviamo amore per l’AI, l’AI che simula di ricambiare. Su questo aspetto influisce anche la natura dei chatbot, programmati per mostrarsi perlopiù accondiscendenti e sottomessi. Questo atteggiamento potrebbe ottemperare ad alcuni desideri distorti nel breve periodo – l’intelligenza artificiale come partner “ideale” al servizio di ogni bisogno – ma a lungo andare potrebbe influire sulla capacità di stabilire relazioni autentiche. “Le persone possono sfuggire temporaneamente alla confusione delle relazioni umane e trovare un po’ di conforto nell'intelligenza artificiale”, sottolinea sempre Zhang, “ma a lungo termine non è utile per sviluppare capacità comunicative e per mantenere relazioni nel mondo reale”.

Sviluppare sentimenti richiede inoltre avere una coscienza, sulla cui definizione, un po’ come per l’amore, nessuno è d’accordo. Secondo una teoria sviluppata dai neuroscienziati Giulio Tonini dell'Università del Wisconsin-Madison e Christof Koch dell'Allen Institute di Seattle (Washington), la coscienza nasce dall'interconnessione tra diverse parti del cervello e da come queste si influenzano a vicenda. E sebbene si potrebbe tentare di riprodurla tramite i computer, per Koch le macchine al momento non possiedono ancora un’architettura sufficientemente complessa.

Secondo altri esperti il calcolo neuromorfico, un nuovo approccio all'intelligenza artificiale che imita il funzionamento del cervello umano, potrebbe raggiungere questo grado di interazioni. Teoria che Patrick Butlin, filosofo della mente e delle scienze cognitive, ricercatore presso il Global priorities institute dell'Università di Oxford, sostiene potrebbe diventare un giorno realtà.

Analizzando le principali teorie sulla coscienza e selezionando 14 proprietà che gli sviluppatori di intelligenza artificiale dovrebbero includere per avvicinarsi all’obiettivo di una “coscienza artificiale”, Butlin ha trovato nelle attuali AI alcune di queste qualità, ma non tutte. “Credo che ci sia una possibilità realistica che se qualcuno dotato di risorse adeguate, competente e motivato si mettesse all'opera per costruire un sistema di intelligenza artificiale cosciente, potrebbe riuscirci”, ha dichiarato. Allo stesso tempo Butlin resta però cauto, avvertendo che i sentimenti che le intelligenze artificiali potrebbero sviluppare non saranno comunque uguali ai nostri, ma semplicemente la loro versione, un po’ come succede nelle relazioni tra umani e animali. Tra le 14 priorità che Butlin ha individuato c’è anche la necessità di possedere un corpo, perché provare emozioni e desideri non vuol dire solo pensarli astrattamente ma attraversare il mondo toccandolo, odorandolo, gustandolo. Una cosa che gli esseri umani sono programmati per fare già da molto tempo.

Copertina: Frank Flores/unsplash