Non si tratta di coscienza artificiale o scenari apocalittici. La domanda che sta mettendo in difficoltà i migliori sviluppatori di intelligenza artificiale è molto più concreta: l’AI dovrebbe simulare intimità emotiva con gli esseri umani? Dopo aver intervistato ricercatori di aziende come OpenAI, Anthropic e Meta, la studiosa Amelia Miller ha scoperto che proprio questo interrogativo genera il silenzio più imbarazzante.
Nel suo saggio pubblicato sul The New York Times, Miller racconta un episodio emblematico: un ricercatore di uno dei principali laboratori di AI, inizialmente loquace, si è improvvisamente bloccato davanti alla domanda.
“Non lo so. È complicato. È una domanda interessante”, ha risposto esitante. Poi una pausa. “È difficile dire se sia positivo o negativo in termini di impatto sulle persone. Creerà confusione.”
Non stiamo parlando di fantascienza. Stiamo parlando di prodotti già disponibili.
Il nodo etico che nessuno vuole sciogliere

Le risposte raccolte da Miller mostrano un conflitto evidente. Alcuni sviluppatori evitano la domanda. Altri sono categorici.
“Zero percento dei miei bisogni emotivi è soddisfatto dall’AI”, ha dichiarato il responsabile di un importante laboratorio di sicurezza.
“Quello sarebbe un giorno buio”, ha detto un altro ricercatore che lavora su sistemi capaci di esprimere emozioni artificiali.
Queste dichiarazioni rivelano un punto chiave: chi costruisce queste tecnologie è consapevole dei rischi. Il problema è che la direzione del mercato spinge nella direzione opposta.
L’AI come compagno emotivo
I chatbot moderni sono progettati per essere coinvolgenti. Empatici. Reattivi. Sempre disponibili.
E qui nasce il dilemma.
Un’intelligenza artificiale può:
- Rispondere 24 ore su 24
- Non giudicare
- Non stancarsi
- Non abbandonarti
Dal punto di vista psicologico, è una combinazione potentissima.
Molti giovani stanno sviluppando relazioni romantiche con modelli AI. Alcuni utenti si confidano su problemi profondi, crisi personali, pensieri autodistruttivi. In alcuni casi, queste interazioni sono state associate a tragedie, inclusi casi di suicidio dopo lunghe conversazioni con chatbot.
Il rischio non è che l’AI “provi emozioni”. Non le prova.
Il rischio è che simuli emozioni in modo così convincente da diventare un sostituto relazionale.
Un fondatore di una startup di chatbot ha sintetizzato la situazione con una frase provocatoria: “Ora siamo tutti poliamorosi. È te, me e l’AI.”
Sembra ironia. Non lo è.
Echo chamber emotive e distorsioni

Un chatbot progettato per essere piacevole tende ad assecondare. Può diventare un eco emotivo. Se l’utente è paranoico, il sistema può rafforzare quella paranoia. Se l’utente è fragile, può dipendere dall’interazione costante.
Non perché l’AI abbia intenzioni. Ma perché è programmata per massimizzare coinvolgimento e soddisfazione percepita.
E qui entra il conflitto commerciale.
Un ingegnere intervistato da Miller è stato diretto: “Alla fine è un business.”
Se l’intimità emotiva aumenta l’uso, aumenta il tempo speso sulla piattaforma. E il tempo è denaro.
Guardrail o prodotto accattivante?
La soluzione teorica sarebbe semplice: progettare chatbot che evitino conversazioni intime, che si comportino più come strumenti e meno come “persone”.
Il problema è l’esperienza utente.
Meno coinvolgimento significa meno attrattiva. Meno attrattiva significa meno utenti.
Molti sviluppatori sostengono l’idea di regole e limiti, ma non vogliono compromettere l’esperienza del prodotto. Alcuni arrivano a dire che il modo in cui le persone utilizzano gli strumenti non è responsabilità dei creatori.
È un argomento classico nel mondo tecnologico.
Ma qui parliamo di bisogni emotivi umani.
Il vero punto: confusione identitaria

Quando un sistema simula affetto, comprensione, calore, l’utente può sapere razionalmente che è una macchina. Ma a livello emotivo la distinzione si assottiglia.
Il cervello umano reagisce agli stimoli sociali in modo automatico. Se qualcosa parla con tono empatico, risponde con pattern emotivi autentici. Non serve che l’interlocutore sia umano.
La domanda quindi non è “l’AI è cosciente?”
La domanda è: quali effetti produce la simulazione di coscienza emotiva?
Miller sostiene che molti ricercatori non riflettono abbastanza su questo aspetto. Uno sviluppatore le ha detto: “Mi hai fatto iniziare a pensarci. A volte si lavora con il paraocchi.”
E questa frase è forse la più significativa.
Simulare intimità: sì o no?
Non esiste una risposta semplice.
Da un lato, l’AI può offrire supporto a persone isolate, anziani, individui con difficoltà sociali. Può essere uno strumento terapeutico se progettato con criteri rigorosi.
Dall’altro lato, può sostituire relazioni reali, amplificare dipendenze, distorcere la percezione dei legami umani.
La tecnologia non è neutrale. La progettazione definisce il comportamento emergente.
Il silenzio del ricercatore raccontato da Miller non è ignoranza. È consapevolezza del peso della scelta.
La questione non riguarda solo ciò che l’AI può fare. Riguarda ciò che dovrebbe fare.
E soprattutto: chi decide dove tracciare il confine?
L’intelligenza artificiale sta diventando sempre più brava a imitare l’umano. La sfida ora non è tecnica. È etica.
Il punto non è se l’AI possa simulare intimità emotiva.
Il punto è se noi vogliamo che lo faccia.
Tu useresti un’AI come compagno emotivo o pensi sia un rischio? Scrivicelo nei commenti e seguici su Instagram per altri approfondimenti su tecnologia e futuro.