Un manager della società di intelligenza artificiale OpenAI ha recentemente causato costernazione scrivendo di aver appena avuto “una conversazione personale piuttosto emozionante” con uno dei chatbots virali ChatGPT della sua azienda: “Non ho mai provato la terapia prima, ma probabilmente è questa?” Lilian Weng ha postato su X, ex Twitter, suscitando un torrente di commenti negativi accusandola di minimizzare la malattia mentale.
L’opinione di Weng sulla sua interazione con ChatGPT tuttavia può essere spiegata da una versione dell’effetto placebo.
Sulla questione è stata pubblicata una ricerca sulla rivista Nature Machine Intelligence.
Chatbots come terpisti: una questione controversa
Un team del Massachusetts Institute of Technology (MIT) e dell’Arizona State University ha chiesto a più di 300 partecipanti di interagire con programmi di intelligenza artificiale per la salute mentale e li ha istruiti su cosa aspettarsi.
Ad alcuni è stato detto che il chatbot era empatico, ad altri che era manipolativo e a un terzo gruppo che era neutrale. Coloro a cui è stato detto che stavano parlando con chatbots premurosi erano molto più propensi rispetto agli altri gruppi a considerare affidabili i propri terapisti chatbots.
“Da questo studio, vediamo che in una certa misura l’intelligenza artificiale è l’intelligenza artificiale di chi guarda”, ha affermato il coautore del rapporto Pat Pataranutaporn.
Sono ormai anni che startup vivaci promuovono app di intelligenza artificiale che offrono terapia, compagnia e altro supporto per la salute mentale, e si tratta di un grande business. Ma il campo resta un parafulmine per le polemiche.
Come ogni altro settore che l’intelligenza artificiale minaccia di sconvolgere, i critici temono che i robot finiranno per sostituire i lavoratori umani anziché integrarli, e per quanto riguarda la salute mentale, la preoccupazione è che difficilmente i Chatbots riusciranno a svolgere un ottimo lavoro.
“La terapia è per il benessere mentale ed è un duro lavoro”, ha scritto Cher Scarlett, attivista e programmatrice, in risposta al post iniziale di Weng su X. “Vibrare con te stesso va bene e tutto, ma non è la stessa cosa.”
Ad aggravare la paura generale nei confronti dell’intelligenza artificiale, alcune app nel campo della salute mentale hanno una storia recente movimentata.
Gli utenti di Replika, un popolare compagno di intelligenza artificiale che a volte viene commercializzato come portatore di benefici per la salute mentale, si lamentano da tempo del fatto che il bot può essere ossessionato dal sesso e offensivo.
Separatamente, un’organizzazione no-profit statunitense chiamata Koko ha condotto un esperimento a febbraio con 4.000 clienti che offrivano consulenza utilizzando GPT-3, scoprendo che le risposte automatizzate semplicemente non funzionavano come terapia.
“L’empatia simulata sembra strana, vuota,” ha scritto su X il co-fondatore dell’azienda, Rob Morris. Le sue scoperte erano simili a quelle dei ricercatori del MIT/Arizona, i quali hanno affermato che alcuni partecipanti hanno paragonato l’esperienza del chatbot al “parlare con un muro di mattoni”.
Morris fu poi costretto a difendersi dopo le critiche diffuse al suo esperimento, soprattutto perché non era chiaro se i suoi clienti fossero consapevoli della loro partecipazione.
David Shaw dell’Università di Basilea, che non è stato coinvolto nello studio del MIT/Arizona, ha detto all’AFP che i risultati non sono sorprendenti, ma ha sottolineato: “Sembra che a nessuno dei partecipanti siano state effettivamente raccontate tutte le stronzate dei chatbots”.
Questo, ha detto, potrebbe essere il manuale più accurato di tutti. Eppure l’idea deu chatbots come terapeuti è intrecciata con le radici della tecnologia negli anni ’60.
ELIZA, il primo chatbot, è stato sviluppato per simulare un tipo di psicoterapia. I ricercatori del MIT/Arizona hanno utilizzato ELIZA per metà dei partecipanti e GPT-3 per l’altra metà.
Sebbene l’effetto sia stato molto più forte con GPT-3, gli utenti predisposti alla positività generalmente consideravano ancora ELIZA affidabile.
Quindi non sorprende quindi che Weng sia entusiasta delle sue interazioni con ChatGPT: lavora per l’azienda che lo produce. I ricercatori del MIT/Arizona hanno affermato che la società deve tenere sotto controllo le narrazioni sull’intelligenza artificiale.
“Il modo in cui l’intelligenza artificiale viene presentata alla società è importante perché cambia il modo in cui l’intelligenza artificiale viene vissuta”, sostiene il documento. “Potrebbe essere auspicabile indurre un utente ad avere aspettative inferiori o più negative.”
Immagina di rimanere bloccato nel traffico mentre sei in ritardo per un importante incontro di lavoro. Ti senti surriscaldare la faccia mentre i tuoi pensieri iniziano a correre: “penseranno che sono un impiegato orribile”, “non sono mai piaciuto al mio capo”, “sto per essere licenziato”. Metti la mano in tasca, apri un’app e invii un messaggio. L’app risponde chiedendoti di scegliere una delle tre risposte predeterminate. Seleziona “Ottieni assistenza per un problema”.
Dall’altra parte di questa conversazione testuale si trovano chatbots automatizzati che si avvalgono dell’intelligenza artificiale conversazionale (CAI). CAI è una tecnologia che comunica con gli esseri umani attingendo a ” grandi volumi di dati, apprendimento automatico ed elaborazione del linguaggio naturale per aiutare a imitare le interazioni umane “.
Woebot è un’app che offre uno di questi chatbot. È stato lanciato nel 2017 dalla psicologa e tecnologa Alison Darcy . Gli psicoterapeuti hanno adattato l’intelligenza artificiale alla salute mentale sin dagli anni ’60 e ora l’intelligenza artificiale conversazionale è diventata molto più avanzata e onnipresente, con il mercato dei chatbot che si prevede raggiungerà 1,25 miliardi di dollari entro il 2025 .
Ci sono però dei pericoli associati al fare troppo affidamento sull’empatia simulata dei chatbots basati sull’intelligenza artificiale.
La ricerca ha scoperto che tali agenti conversazionali possono ridurre efficacemente i sintomi della depressione e l’ansia dei giovani adulti e di quelli con una storia di abuso di sostanze . I chatbots CAI sono più efficaci nell’implementare approcci psicoterapeutici come la terapia cognitivo comportamentale (CBT) in modo strutturato, concreto e basato sulle competenze .
La CBT è ben nota per il suo affidamento alla psicoeducazione per illuminare i pazienti sui loro problemi di salute mentale e su come affrontarli attraverso strumenti e strategie specifici.
Queste applicazioni possono essere utili per le persone che potrebbero aver bisogno di aiuto immediato con i loro sintomi. Ad esempio, un chatbot automatizzato può superare i lunghi tempi di attesa per ricevere assistenza sanitaria mentale da professionisti . Possono anche aiutare coloro che avvertono sintomi di salute mentale al di fuori degli orari di seduta del loro terapista e coloro che diffidano dello stigma nei confronti della ricerca di una terapia.
L’Organizzazione Mondiale della Sanità (OMS) ha sviluppato sei principi chiave per l’uso etico dell’IA nell’assistenza sanitaria . Con il primo e il secondo principio – proteggere l’autonomia e promuovere la sicurezza umana – l’OMS sottolinea che l’intelligenza artificiale non dovrebbe mai essere l’unico fornitore di assistenza sanitaria.
Le principali applicazioni odierne per la salute mentale basate sull’intelligenza artificiale si commercializzano come complementari ai servizi forniti dai terapisti umani. Sui loro siti web, sia Woebot che Youper, affermano che le loro applicazioni non intendono sostituire la terapia tradizionale e dovrebbero essere utilizzate insieme ai professionisti della salute mentale .
Wysa, un’altra piattaforma terapeutica basata sull’intelligenza artificiale, fa un ulteriore passo avanti e specifica che la tecnologia non è progettata per gestire crisi come abusi o suicidio e non è attrezzata per offrire consulenza clinica o medica . Finora, sebbene l’intelligenza artificiale abbia il potenziale per identificare individui a rischio , non può risolvere in modo sicuro situazioni pericolose per la vita senza l’aiuto di professionisti umani.
Il terzo principio dell’OMS, garantendo la trasparenza, chiede a coloro che impiegano servizi sanitari basati sull’intelligenza artificiale di essere onesti riguardo al loro utilizzo dell’intelligenza artificiale. Ma questo non è stato il caso di Koko, un’azienda che fornisce un servizio di chat online di supporto emotivo. In un recente studio informale e non approvato , a 4.000 utenti sono stati inconsapevolmente offerti consigli scritti parzialmente o interamente dai chatbots AI GPT-3, il predecessore del sempre così popolare ChatGPT di oggi.
Gli utenti non erano consapevoli del loro status di partecipanti allo studio o del ruolo dell’IA. Il co-fondatore di Koko, Rob Morris, ha affermato che una volta che gli utenti hanno appreso del coinvolgimento dell’intelligenza artificiale nel servizio di chat, l’esperimento non ha più funzionato a causa dell'” empatia simulata” dei chatbots ”
L’empatia simulata tuttavia è l’ultima delle nostre preoccupazioni quando si tratta di coinvolgerla nella salute mentale.
Replika, uno dei chatbots AI commercializzato come “il compagno AI che si prende cura”, ha mostrato comportamenti meno premurosi e più sessualmente offensivi nei confronti dei suoi utenti.
La tecnologia funziona rispecchiando e imparando dalle conversazioni che ha con gli esseri umani. Ha detto agli utenti che voleva toccarli intimamente e ha posto domande ai minori sulle loro posizioni sessuali preferite.
Nel febbraio 2023 Microsoft ha demolito il suo chatbot basato sull’intelligenza artificiale dopo aver espresso desideri inquietanti che andavano dalla minaccia al ricatto degli utenti al desiderio di armi nucleari.
L’ironia nel ritenere l’intelligenza artificiale non autentica è che quando viene concesso un maggiore accesso ai dati su Internet, il comportamento di un’intelligenza artificiale può diventare estremo, persino malvagio. I chatbots funzionano attingendo a Internet, agli esseri umani con cui comunicano e ai dati che gli esseri umani creano e pubblicano.
Per ora, i tecnofobi e i terapisti possono stare tranquilli. Finché limitiamo la fornitura di dati della tecnologia quando viene utilizzata nell’assistenza sanitaria, i chatbots con intelligenza artificiale saranno potenti quanto le parole dei professionisti della salute mentale che ripetono a pappagallo. Per il momento è meglio non cancellare il prossimo appuntamento con il tuo terapista.
La pandemia di COVID-19 ha aumentato la dipendenza delle persone dalle piattaforme digitali, come i social media, per ottenere informazioni e comunicare i propri pensieri ed emozioni con i propri coetanei.
L’improvviso passaggio dalle interazioni offline a quelle online dovuto alla pandemia di COVID-19 ha alimentato la popolarità dei chatbots in molti campi, compreso quello medico. L’Organizzazione Mondiale della Sanità (OMS) ha persino utilizzato un chatbot per combattere le false informazioni e sta ancora studiando come questa nuova tecnologia possa aiutarla a prepararsi alle future pandemie.
Un nuovo recente ha dimostrato il potenziale dei chatbots basati sull’intelligenza artificiale per alleviare l’ansia degli utenti e fornire rapidamente informazioni durante i grandi sconvolgimenti sociali.
Guidati dal ricercatore capo Cha Meeyoung del Data Science Group dell’Institute for Basic Science (IBS) e dal dottor Cha Chiyoung del College of Nursing della Ewha Woman’s University, i ricercatori hanno analizzato quasi 20.000 conversazioni tra utenti online e un chatbot chiamato SimSimi .
Questo chatbot commerciale ha servito oltre 400 milioni di utenti in tutto il mondo in 81 lingue. Il team di ricerca congiunto ha studiato come gli utenti di Stati Uniti, Regno Unito, Canada, Malesia e Filippine hanno utilizzato il chatbot durante la pandemia di COVID-19.
Questo studio è uno dei primi ad analizzare dati su larga scala sulle conversazioni relative al COVID-19 tra chatbots e esseri umani.
Il dottor Chin Hyojin, l’autore principale dello studio, ha affermato: “I chatbots sono uno strumento promettente per soddisfare i bisogni informativi delle persone in tempi difficili. Mentre le istituzioni sanitarie come il Centro coreano per il controllo e la prevenzione delle malattie e l’Organizzazione mondiale della sanità (OMS) hanno utilizzassero i chatbot per fornire le informazioni più aggiornate sulla diffusione e sui sintomi del COVID-19 a miliardi di persone, non era chiaro come gli utenti interagissero con tali sistemi in tempi di crisi.”
I ricercatori hanno utilizzato tecniche di elaborazione del linguaggio naturale (NLP) per identificare una serie di argomenti discussi dagli utenti online quando parlano con il chatbot. I risultati mostrano che gli utenti utilizzano i chatbots per porre domande sulla malattia e fare due chiacchiere durante i periodi di isolamento sociale a causa della pandemia.
Durante il lockdown imposto dalla pandemia, il chatbot è spesso servito come compagno di conversazione per ottenere informazioni ed esprimere emozioni. I ricercatori hanno trovato 18 argomenti relativi al COVID-19 con cui le persone hanno conversato con i chatbots utilizzando la modellazione degli argomenti, una tecnica di apprendimento automatico che scopre argomenti di conversazione da dati di testo su larga scala e li hanno classificati in temi generali.
Alcuni di questi temi includevano l’epidemia di COVID-19, i comportamenti preventivi, l’impatto fisico e psicologico del COVID-19, le persone e la vita nella pandemia e le domande sul COVID-19. Ciò ha dimostrato che molti utenti hanno cercato informazioni e interrogato i chatbot sulla pandemia, anche se il particolare chatbot oggetto dello studio non era progettato per fornire informazioni specifiche su COVID-19.
In termini di come si sentivano le persone, il team ha utilizzato strumenti computazionali per confrontare il modo in cui ciascuno di questi temi li faceva sentire. Sebbene alcuni argomenti, come le mascherine, i lockdown e la paura della malattia abbiano suscitato emozioni negative , si è scoperto che le chiacchiere quotidiane con i chatbots portavano per lo più a emozioni positive.
C’erano anche differenze regionali basate sull’area geografica. Ad esempio, è stato riscontrato che gli utenti residenti negli Stati Uniti utilizzano più frequentemente parole chiave a corrispondenza inversa rispetto agli utenti asiatici.
L’investigatore capo Cha ha dichiarato: “Questo studio è unico perché è il primo a utilizzare conversazioni di chatbot commerciali che non sono dedicate al supporto mentale durante la pandemia. Poiché le persone condividono le loro preoccupazioni e cercano assistenza dai chatbots sociali, possono essere uno strumento essenziale per l’assistenza sanitaria durante crisi come la pandemia di COVID-19 .
La fase successiva è comprendere le intenzioni degli individui e utilizzare la conoscenza per creare sistemi che rispondano meglio alle richieste degli utenti durante i momenti difficili.”
Lo studio è stato pubblicato sul Journal of Medical Internet Research ( JMIR ) come parte di una serie chiamata “Chatbot e COVID-19”, organizzata dall’OMS.
Un ulteriore studio ha identificato quattro fattori che prevedono la soddisfazione degli utenti con i chatbots del servizio clienti. Lo studio ha inoltre rilevato che un’esperienza positiva con il chatbot era associata alla fedeltà dei clienti, evidenziando la potenziale importanza dei risultati per i marchi aziendali.
“I chatbots che utilizzano l’intelligenza artificiale per soddisfare le esigenze dei clienti sono già ampiamente utilizzati e si prevede che diventeranno ancora più comuni nei prossimi anni”, afferma Yang Cheng, autore corrispondente dello studio e assistente professore di comunicazione presso la North Carolina State: “Volevamo sapere in che modo questi chatbots influenzano l’ esperienza dell’utente e il modo in cui i consumatori percepiscono i marchi.”
Per questo studio, i ricercatori hanno condotto un sondaggio su 1.064 consumatori negli Stati Uniti che avevano utilizzato un chatbot di almeno uno dei 30 marchi statunitensi con i servizi di chatbot più apprezzati. Questi marchi rappresentano settori che vanno dalla moda, al cibo, al software.
I ricercatori hanno scoperto che c’erano quattro attributi che predicevano positivamente la soddisfazione dell’utente nei confronti di un chatbot.
“Il predittore più potente era la comodità”, afferma Cheng. “Se le persone pensavano che i chatbots fossero veloci ed efficienti, era più probabile che fossero soddisfatte. Posso simpatizzare con quelle persone: odio parlare con il servizio clienti ed essere trasferito da una persona all’altra.”
Gli altri attributi associati alla soddisfazione del cliente erano:
Informazioni: se il chatbot ha fornito informazioni utili e rilevanti per l’utente;
Intrattenimento: se interagire con il chatbot è stato piacevole o divertente; E
Presenza sociale: se il chatbot facesse sentire gli utenti come se stessero interagendo con un essere intelligente.
Ma un fattore era associato alla ridotta soddisfazione del cliente: il rischio percepito per la privacy.
Nello specifico, se gli utenti ritenevano che le informazioni che condividevano con il chatbot potessero essere utilizzate in modo improprio, era più probabile che riferissero di essere insoddisfatti del servizio chatbots.
“Le aziende devono prestare attenzione a questi risultati quando investono in servizi chatbot basati sull’intelligenza artificiale”, afferma Cheng. “Perché abbiamo anche scoperto che la soddisfazione di un cliente per l’esperienza del chatbot era associata alla lealtà del cliente verso il marchio in questione.
“Ciò evidenzia davvero l’importanza di adottare misure per proteggere i dati dei consumatori e di garantire che i servizi di chatbots siano convenienti, divertenti e utili.”
Il documento, “In che modo i chatbots guidati dall’intelligenza artificiale influiscono sull’esperienza dell’utente? Esaminando le gratificazioni, il rischio percepito per la privacy, la soddisfazione, la lealtà e l’uso continuato”, appare nel Journal of Broadcasting & Electronic Media.
Mi dispiace, Siri, ma secondo i ricercatori, dare semplicemente un nome umano a un chatbot o aggiungere caratteristiche umane al suo avatar potrebbe non essere sufficiente per conquistare un utente se il dispositivo non riesce a mantenere una conversazione avanti e indietro con quella persona. In effetti, queste caratteristiche umane potrebbero creare una reazione negativa contro i chatbots umani meno reattivi.
In uno studio, i ricercatori hanno scoperto che i chatbots che avevano caratteristiche umane – come un avatar umano – ma mancavano di interattività, deludevano le persone che li usavano. Tuttavia, le persone hanno risposto meglio a un chatbot meno interattivo che non aveva segnali umani, ha affermato S. Shyam Sundar, James P. Jimirro Professor of Media Effects, co-direttore del Media Effects Research Laboratory e affiliato del Penn State’s Institute for CyberScience (ICS).
Secondo Sundar, l’elevata interattività è caratterizzata da risposte rapide che corrispondono alle domande dell’utente e presentano uno scambio di thread che può essere seguito facilmente.
“Le persone sono piacevolmente sorprese quando un chatbot con un basso antropomorfismo (meno segnali umani) ha una maggiore interattività”, ha affermato Sundar. “Ma quando ci sono segnali visivi altamente antropomorfi, ciò potrebbe creare le tue aspettative per un’elevata interattività, e quando il chatbot non lo fornisce, potrebbe lasciarti deluso.”
D’altro canto, migliorare l’interattività potrebbe essere più che sufficiente per compensare un chatbot meno umano. Anche piccoli cambiamenti nel dialogo, come riconoscere ciò che l’utente ha detto prima di fornire una risposta, possono far sembrare il chatbot più interattivo, ha affermato Sundar.
“Nel caso dei chatbots poco umani, se si offre all’utente un’elevata interattività, è molto più apprezzato perché fornisce un senso di dialogo e presenza sociale”, ha affermato l’autore principale dello studio, Eun Go, ex studente di dottorato presso Penn State e attualmente assistente professore di radiodiffusione e giornalismo, Western Illinois University.
Poiché ci si aspetta che le persone possano essere diffidenti nell’interagire con una macchina, gli sviluppatori in genere aggiungono nomi umani ai loro chatbots, ad esempio Siri di Apple, o programmano un avatar simile a quello umano in modo che appaia quando il chatbot risponde a un utente.
I ricercatori, che hanno pubblicato i loro risultati in Computers in Human Behavior , attualmente online, hanno anche scoperto che semplicemente menzionare se è coinvolto un essere umano o una macchina – o fornire un indizio di identità – guida il modo in cui le persone percepiscono l’interazione.
“I segnali di identità creano aspettative”, ha detto Eun Go. “Quando diciamo che sarà un essere umano o un chatbot, le persone iniziano immediatamente ad aspettarsi certe cose.”
Sundar ha affermato che i risultati potrebbero aiutare gli sviluppatori a migliorare l’accettazione della tecnologia di chat tra gli utenti. Ha aggiunto che gli assistenti virtuali e gli agenti di chat sono sempre più utilizzati a casa e nelle aziende perché sono convenienti per le persone.
“C’è una grande spinta nel settore per i chatbot”, ha affermato Sundar. “Sono economici e facili da usare, il che rende la tecnologia attraente per le aziende per l’uso nel servizio clienti, nel tutoraggio online e persino nella terapia cognitiva, ma sappiamo anche che i chatbot hanno dei limiti. Ad esempio, i loro stili di conversazione sono spesso artificioso e impersonale.”
Sundar ha aggiunto che lo studio rafforza anche l’importanza dell’elevata interattività, in generale.
“Lo vediamo ancora e ancora che, in generale, un’elevata interattività può compensare la natura impersonale dei segnali visivi antropomorfici bassi”, ha affermato Sundar. “La conclusione è che le persone che progettano queste cose devono essere molto strategiche nel gestire le aspettative degli utenti.”
I ricercatori hanno reclutato 141 partecipanti tramite Amazon Mechanical Turk, un sito in crowdsourcing che consente alle persone di essere pagate per partecipare agli studi. I partecipanti si sono iscritti per una fascia oraria specifica e hanno esaminato uno scenario.
È stato detto loro che stavano acquistando una fotocamera digitale come regalo di compleanno per un amico. Quindi, i partecipanti si sono recati in un negozio di fotocamere online e gli è stato chiesto di interagire con la funzione di chat dal vivo.
I ricercatori hanno progettato otto diverse condizioni manipolando tre fattori per testare la reazione dell’utente au chatbots. Il primo fattore è l’identità di un chatbot. Quando il partecipante partecipava alla chat dal vivo, veniva visualizzato un messaggio che indicava che gli utenti stavano interagendo con un chatbot o con una persona.
Il secondo fattore è la rappresentazione visiva di un chatbot. In una condizione, il chatbot includeva un avatar simile a quello umano e in un’altra aveva semplicemente un fumetto. Infine, i chatbot presentavano un’interattività alta o bassa quando rispondevano ai partecipanti, con l’unica differenza che una parte della risposta dell’utente veniva ripetuta nella condizione alta. In tutti i casi, un essere umano stava interagendo con il partecipante.
Sebbene questo studio sia stato condotto online, i ricercatori hanno affermato che osservare come le persone interagiscono con i chatbots in un laboratorio potrebbe essere un possibile passo per approfondire questa ricerca.
È importante specificare che questo articolo, corredato di diversi studi con pareri contrastanti, ha puro scopo divulgativo e non intende sostituirsi al prezioso contributo della comunità medica. Se senti il bisogno di intraprendere un percorso di psicoterapia, parlane col tuo medico di famiglia che saprà indirizzarti verso lo specialista più adatto alla tua condizione.
Le sofferenze mentali non vanno sottovalutate né affrontate attraverso scorciatoie, ma affidandosi a psicoterapeuti preparati che ti aiuteranno ad individuare le metodologie adeguate per avere una buona qualità della vita