Man mano che l’intelligenza artificiale diventa sempre più onnipresente nella vita quotidiana, comprendere il suo potenziale e i suoi limiti nel soddisfare i bisogni psicologici umani diventa più pertinente. Con la diminuzione delle connessioni empatiche in un mondo frenetico, molti trovano che i loro bisogni umani di sentirsi ascoltati e convalidati siano sempre più insoddisfatti.
La presenza dell’intelligenza artificiale nella vita quotidiana
Un nuovo studio pubblicato negli Atti della National Academy of Sciences ha scoperto che i messaggi generati dall’intelligenza artificiale facevano sentire i destinatari più “ascoltati” rispetto ai messaggi generati da esseri umani non addestrati e che l’intelligenza artificiale era migliore nel rilevare le emozioni rispetto a questi individui. Tuttavia, i destinatari hanno riferito di sentirsi meno ascoltati quando hanno appreso che un messaggio proveniva dall’AI.
La ricerca condotta da Yidan Yin, Nan Jia e Cheryl J. Wakslak della USC Marshall School of Business affronta una domanda cruciale: può l’AI, che è priva di coscienza umana ed esperienza emotiva, riuscire a far sentire le persone ascoltate e comprese?
“Nel contesto di una crescente epidemia di solitudine, gran parte della nostra motivazione era vedere se l’iAI può effettivamente aiutare le persone a sentirsi ascoltate”, ha affermato il primo autore dello studio, Yidan Yin, ricercatore post-dottorato presso il Lloyd Greif Center for Entrepreneurial Studies dell’Università di Washington. Marshall dell’USC.
I risultati del team evidenziano non solo il potenziale dell’iAI per aumentare la capacità umana di comprensione e comunicazione, ma sollevano importanti questioni concettuali sul significato di essere ascoltati e domande pratiche su come sfruttare al meglio i punti di forza dell’AI per supportare una maggiore fioritura umana.
In un esperimento e in un successivo studio di follow-up, “abbiamo identificato che mentre l’AI dimostra un potenziale maggiore rispetto ai soccorritori umani non addestrati nel fornire supporto emotivo, la svalutazione delle risposte dell’AI rappresenta una sfida chiave per l’implementazione efficace delle capacità dell’iAI”, ha affermato Nan Jia. , professore associato di gestione strategica.
Il gruppo di ricerca della USC Marshall ha studiato la sensazione delle persone di essere ascoltate e altre percezioni ed emozioni correlate dopo aver ricevuto una risposta dall’iAI o da un essere umano. Il sondaggio ha variato sia la fonte effettiva del messaggio che la fonte apparente del messaggio: i partecipanti hanno ricevuto messaggi che sono stati effettivamente generati da un’AI o da un risponditore umano, con l’informazione che erano generati dall’intelligenza artificiale o dall’uomo.
“Quello che abbiamo scoperto è che sia la fonte effettiva che quella presunta del messaggio hanno avuto un ruolo”, ha affermato Cheryl Wakslak, professore associato di gestione e organizzazione presso la USC Marshall. “Le persone si sentivano più ascoltate quando ricevevano un messaggio da un’iAI che da un messaggio umano, ma quando credevano che un messaggio provenisse dall’AI questo le faceva sentire meno ascoltate.”
Yin ha osservato che la loro ricerca “trova sostanzialmente un pregiudizio contro l’intelligenza artificiale. È utile, ma a loro non piace”.
Le percezioni sull’iAI sono destinate a cambiare, ha aggiunto Wakslak: “Naturalmente questi effetti possono cambiare nel tempo, ma una delle cose interessanti che abbiamo scoperto è che i due effetti che abbiamo osservato erano abbastanza simili in grandezza. Mentre c’è un effetto positivo nell’ottenere un messaggio AI, c’è un grado simile di distorsione della risposta quando un messaggio viene identificato come proveniente dall’IA, portando i due effetti ad annullarsi sostanzialmente a vicenda.
Gli individui hanno inoltre riferito una risposta “uncanny Valley”, un senso di disagio quando vengono resi consapevoli che la risposta empatica ha avuto origine dall’intelligenza artificiale, evidenziando il complesso panorama emotivo attraversato dalle interazioni intelligenza artificiale-uomo.
L’indagine di ricerca ha anche chiesto ai partecipanti quale fosse la loro generale apertura all’AI, che ha moderato alcuni degli effetti, ha spiegato Wakslak.
“Le persone che si sentono più positivamente nei confronti dell’IA non mostrano così tanta penalità nella risposta e questo è intrigante perché, nel tempo, le persone acquisiranno atteggiamenti più positivi nei confronti dell’IA?” ha posato. “Resta da vedere… ma sarà interessante vedere come andrà a finire man mano che crescerà la familiarità e l’esperienza delle persone con l’AI.”
Lo studio ha evidenziato importanti sfumature. Le risposte generate dall’intelligenza artificiale sono state associate a una maggiore speranza e a una minore angoscia, indicando un effetto emotivo positivo sui destinatari. L’intelligenza artificiale ha anche dimostrato un approccio più disciplinato rispetto agli esseri umani nell’offrire supporto emotivo e si è astenuto dal dare suggerimenti pratici eccessivi.
Yin ha spiegato: “Ironia della sorte, l’intelligenza artificiale era migliore nell’usare strategie di supporto emotivo che in ricerche precedenti avevano dimostrato di essere empatiche e convalidanti. Gli esseri umani potrebbero potenzialmente imparare dall’intelligenza artificiale perché molte volte, quando i nostri cari si lamentano di qualcosa, vogliamo farlo. fornire tale convalida, ma non sappiamo come farlo in modo efficace.”
Invece di sostituire l’intelligenza artificiale con gli esseri umani, la ricerca evidenzia diversi vantaggi dell’intelligenza artificiale e delle risposte umane. La tecnologia avanzata potrebbe diventare uno strumento prezioso, consentendo agli esseri umani di utilizzare l’intelligenza artificiale per aiutarli a capirsi meglio a vicenda e imparare a rispondere in modi che forniscano supporto emotivo e dimostrino comprensione e convalida.
Nel complesso, i risultati del documento hanno importanti implicazioni per l’integrazione dell’IA in contesti più sociali . Sfruttare le capacità dell’intelligenza artificiale potrebbe fornire una soluzione economica e scalabile per il supporto sociale, soprattutto per coloro che altrimenti potrebbero non avere accesso a persone che possano fornire loro tale supporto. Tuttavia, come osserva il gruppo di ricerca , i risultati suggeriscono che è fondamentale prestare un’attenta considerazione al modo in cui l’intelligenza artificiale viene presentata e percepita al fine di massimizzarne i benefici e ridurre eventuali risposte negative.
Una persona su tre è sola. L’intelligenza artificiale aiuterà o peggiorerà le cose?
ChatGPT ha ripetutamente fatto notizia sin dal suo rilascio alla fine dello scorso anno, con vari studiosi e professionisti che hanno esplorato le sue potenziali applicazioni sia in ambito lavorativo che educativo. Tuttavia, un’area che riceve meno attenzione è l’utilità dello strumento come conversatore e, osiamo dire, come potenziale amico.
Alcuni chatbot hanno lasciato un’impressione inquietante. Il chatbot Bing di Microsoft ha allarmato gli utenti all’inizio di quest’anno quando li ha minacciati e tentati di ricattare .
Eppure la cultura pop evoca da tempo visioni di sistemi autonomi che vivono con noi come compagni sociali, che si tratti di Rosie, il robot di The Jetsons, o dell’intelligenza artificiale super intelligente, Samantha, del film del 2013 Her . Svilupperemo attaccamenti emotivi simili ai chatbot nuovi e futuri? E questo è salutare?
Sebbene l’intelligenza artificiale generativa stessa sia relativamente nuova, i campi dell’appartenenza e dell’interazione uomo-computer sono stati esplorati abbastanza bene , con risultati che potrebbero sorprendervi.
La nostra ultima ricerca mostra che, in un momento in cui 1 australiano su 3 sperimenta la solitudine , potrebbe esserci spazio affinché l’intelligenza artificiale colmi le lacune nella nostra vita sociale. Ciò presuppone che non lo usiamo per sostituire le persone.
Fin dalla divulgazione di Internet, gli studiosi hanno discusso di come l’intelligenza artificiale potrebbe servire a sostituire o integrare le relazioni umane .
Quando i social media divennero popolari, circa un decennio dopo, l’interesse per questo spazio esplose. Il libro Klara and the Sun , vincitore del Premio Nobel 2021, esplora come gli esseri umani e le macchine simili alla vita potrebbero formare relazioni significative.
E con un crescente interesse è arrivata anche una crescente preoccupazione, sostenuta dall’evidenza che l’appartenenza (e quindi la solitudine) può essere influenzata dall’uso della tecnologia. In alcuni studi, l’uso eccessivo della tecnologia (giochi, Internet, dispositivi mobili e social media ) è stato collegato a una maggiore ansia sociale e solitudine . Ma altre ricerche suggeriscono che gli effetti dipendono in larga misura da chi utilizza la tecnologia e dalla frequenza con cui la utilizza.
La ricerca ha anche scoperto che alcuni giocatori di giochi di ruolo online sembrano sperimentare meno solitudine online che nel mondo reale e che le persone che provano un senso di appartenenza a una piattaforma di gioco hanno maggiori probabilità di continuare a usarla.
Tutto ciò suggerisce che l’uso della tecnologia può avere un impatto positivo sulla solitudine, che ha il potenziale per sostituire il supporto umano e che più un individuo la usa, più diventa allettante.
D’altra parte, queste prove provengono da strumenti progettati con uno scopo specifico (ad esempio, lo scopo di un gioco è intrattenere) e non da strumenti progettati per supportare la connessione umana (come gli strumenti di “terapia” dell’intelligenza artificiale).
Come ricercatori nel campo della tecnologia, della leadership e della psicologia, volevamo indagare su come ChatGPT potesse influenzare i sentimenti di solitudine e sostegno delle persone. È importante sottolineare che presenta un vantaggio netto positivo per il benessere e l’appartenenza degli utenti?
Per studiare questo aspetto, abbiamo chiesto a 387 partecipanti quale fosse il loro utilizzo dell’intelligenza artificiale, nonché la loro esperienza generale di connessione e supporto sociale. L’abbiamo trovato:
i partecipanti che utilizzavano maggiormente l’intelligenza artificiale tendevano a sentirsi più supportati dalla propria intelligenza artificiale rispetto alle persone il cui sostegno proveniva principalmente da amici intimi
più un partecipante utilizzava l’intelligenza artificiale, maggiore era la sensazione di sostegno sociale da parte dell’intelligenza artificiale
quanto più un partecipante si sentiva supportato socialmente dall’intelligenza artificiale, tanto minore era il suo sentimento di sostegno da parte di amici intimi e familiari
anche se non è vero su tutta la linea, in media il sostegno sociale umano è stato il più grande predittore di una minore solitudine.
Nel complesso i nostri risultati indicano che il supporto sociale può provenire sia dagli esseri umani che dall’intelligenza artificiale e che lavorare con l’intelligenza artificiale può effettivamente aiutare le persone.
Poiché il sostegno sociale umano è stato il principale predittore di una minore solitudine, sembra probabile che i sentimenti di solitudine sottostanti possano essere affrontati solo attraverso la connessione umana. In termini semplici, sostituire completamente le amicizie di persona con amicizie robotiche potrebbe effettivamente portare a una maggiore solitudine.
Detto questo, abbiamo anche scoperto che i partecipanti che si sentivano socialmente supportati dall’intelligenza artificiale sembravano sperimentare effetti simili sul loro benessere come quelli supportati dagli esseri umani. Ciò è coerente con la precedente ricerca sui giochi online menzionata sopra. Quindi, anche se fare amicizia con l’intelligenza artificiale non può combattere la solitudine, può comunque aiutarci a sentirci connessi, il che è meglio di niente.
La nostra ricerca suggerisce che il supporto sociale fornito dall’intelligenza artificiale può essere positivo, ma non fornisce tutti i vantaggi del supporto sociale di altre persone, soprattutto quando si tratta di solitudine .
Se utilizzata con moderazione, una relazione con un bot AI potrebbe fornire benefici funzionali ed emotivi positivi. Ma la chiave è capire che, sebbene possa farti sentire supportato, è improbabile che ti aiuti a costruire un senso di appartenenza sufficiente a impedirti di sentirti solo.
Quindi assicurati anche di uscire e di creare vere connessioni umane. Questi forniscono un innato senso di appartenenza che (per ora) anche l’intelligenza artificiale più avanzata non può eguagliare.
Sistemi di intelligenza artificiale sempre più sofisticati possono creare empatia
In un mondo in cui la tecnologia è sempre più intrecciata con i nostri sentimenti, l’intelligenza artificiale emotiva sfrutta l’informatica avanzata e l’apprendimento automatico per valutare, simulare e interagire con gli stati emotivi umani.
Man mano che i sistemi di intelligenza artificiale emotiva diventano più abili nel rilevare e comprendere le emozioni in tempo reale , le potenziali applicazioni per la cura della salute mentale sono vaste .
Alcuni esempi di applicazioni dell’intelligenza artificiale includono: strumenti di screening in contesti di assistenza primaria , sessioni di teleterapia potenziate e chatbot che offrono supporto emotivo accessibile 24 ore su 24, 7 giorni su 7 . Questi possono fungere da ponti per chiunque sia in attesa di un aiuto professionale e per coloro che esitano a cercare la terapia tradizionale.
Tuttavia, questa svolta verso l’intelligenza artificiale emotiva comporta una serie di sfide etiche, sociali e normative in materia di consenso, trasparenza, responsabilità e sicurezza dei dati.
La mia ricerca esplora queste potenzialità e sfide dell’intelligenza artificiale emotiva nel contesto della crisi di salute mentale in corso negli anni successivi alla pandemia di COVID-19 .
Quando l’intelligenza artificiale emotiva viene utilizzata per la cura della salute mentale o per la compagnia, rischia di creare una parvenza superficiale di empatia che manca della profondità e dell’autenticità delle connessioni umane.
Inoltre, i problemi di accuratezza e parzialità possono appiattire e semplificare eccessivamente la diversità emotiva tra le culture , rafforzando gli stereotipi e causando potenzialmente danni ai gruppi emarginati. Ciò è particolarmente preoccupante in contesti terapeutici, dove comprendere l’intero spettro dell’esperienza emotiva di una persona è fondamentale per un trattamento efficace.
Si prevede che il mercato globale dell’intelligenza artificiale per le emozioni varrà 13,8 miliardi di dollari entro il 2032 . Questa crescita è guidata dall’espansione dell’applicazione dell’intelligenza artificiale emotiva in settori che vanno dalla sanità pubblica e dall’istruzione ai trasporti .
I progressi nell’apprendimento automatico e nell’elaborazione del linguaggio naturale consentono un’analisi più sofisticata dei segnali emotivi delle persone utilizzando espressioni facciali, toni vocali e dati testuali.
Dal suo rilascio all’inizio del 2023, ChatGPT-4, il chatbot di intelligenza artificiale generativa di OpenAI, è stato all’avanguardia con risposte di tipo umano su un ampio spettro di argomenti e attività. Uno studio recente ha rilevato che ChatGPT ha costantemente ottenuto punteggi più alti in termini di ” consapevolezza emotiva “, ovvero identificare e descrivere le emozioni in modo accurato, rispetto alla media della popolazione generale.
Mentre OpenAI domina i mercati nordamericani ed europei, il chatbot Xiaoice di Microsoft è più popolare nella regione Asia-Pacifico. Lanciato nel 2014 come “chatbot sociale” volto a stabilire connessioni emotive con gli utenti, Xiaoice è in grado di mantenere un coinvolgimento empatico prolungato , ricordando le interazioni passate e personalizzando le conversazioni.
Nei prossimi anni, un mix di produttività e connessione emotiva trasformerà l’assistenza sanitaria mentale e ridefinirà il modo in cui interagiamo con l’intelligenza artificiale a livello emotivo.
La rapida ascesa dell’intelligenza artificiale emotiva solleva profonde questioni etiche e filosofiche sulla natura dell’empatia e dell’intelligenza emotiva nelle macchine.
In The Atlas of AI , la studiosa di intelligenza artificiale Kate Crawford mette in dubbio l’accuratezza dei sistemi che affermano di leggere le emozioni umane attraverso segnali digitali. Solleva preoccupazioni riguardo al processo di semplificazione e decontestualizzazione delle emozioni umane .
Lo studioso digitale Andrew McStay esplora ulteriormente le implicazioni dell’attribuire empatia ai sistemi di intelligenza artificiale delle emozioni. In Automating Empathy , McStay mette in guardia contro l’“empatia sintetica”, evidenziando una distinzione fondamentale tra la simulazione del riconoscimento delle emozioni umane e l’esperienza autentica dell’empatia.
Inoltre, la capacità dell’intelligenza artificiale delle emozioni di analizzare gli stati emotivi apre strade alla sorveglianza, allo sfruttamento e alla manipolazione . Ciò solleva interrogativi sui confini dell’intervento della macchina nei domini personali ed emotivi.
L’applicazione diffusa dell’intelligenza artificiale nella terapia, nella consulenza e nel supporto emotivo ha il potenziale per rivoluzionare l’accesso alle cure e alleviare le pressioni sui professionisti umani oberati di lavoro e sovraccarichi. Tuttavia, la personificazione dell’IA emotiva crea un paradosso in cui l’umanizzazione dell’IA potrebbe portare alla disumanizzazione degli stessi esseri umani.
Allo stesso tempo, attribuire qualità umane all’intelligenza artificiale rischia di rendere l’assistenza sanitaria mentale meno interpersonale. La possibilità che i chatbot basati sull’intelligenza artificiale interpretino erroneamente le espressioni emotive culturali e individuali potrebbe portare a consigli o supporto fuorvianti . Ciò può ulteriormente complicare o esacerbare i problemi di salute mentale, soprattutto laddove le sfumature dell’empatia umana sono essenziali .
Queste tensioni sottolineano la necessità di un’integrazione attenta ed eticamente informata dell’intelligenza artificiale delle emozioni nel trattamento e nella cura della salute mentale.
Queste tecnologie devono integrare, piuttosto che sostituire, gli elementi umani di empatia , comprensione e connessione. Ciò richiede un ripensamento delle relazioni uomo-intelligenza artificiale, in particolare riguardo all’empatia .
Garantendo lo sviluppo etico dell’intelligenza artificiale delle emozioni, possiamo aspirare a un futuro in cui la tecnologia migliora la salute mentale senza diminuire il significato dell’essere umano.