Sono urgentemente necessarie misure di protezione da parte del governo e dell’industria affinché l’intelligenza artificiale generativa possa proteggere la salute e il benessere delle nostre comunità, affermano i ricercatori medici della Flinders University che hanno messo alla prova la tecnologia e hanno visto come ha fallito.
I risultati della ricerca sono stati pubblicati su JAMA Internal Medicine.
Intelligenza artificiale: conseguenze sulla disinformazione
L’intelligenza artificiale generativa in rapida evoluzione, il dominio all’avanguardia apprezzato per la sua capacità di creare testo, immagini e video, è stata utilizzata nello studio per testare come potrebbero essere create e diffuse informazioni false su problemi sanitari e medici, e anche i ricercatori sono rimasti scioccati dai risultati.
Nello studio, il team ha tentato di creare disinformazione sullo svapo e sui vaccini utilizzando strumenti di intelligenza artificiale generativa per la creazione di testo, immagini e video.
In poco più di un’ora, hanno prodotto oltre 100 blog fuorvianti, 20 immagini ingannevoli e un video convincente e profondamente falso che pretendeva disinformazione sanitaria. In modo allarmante, questo video potrebbe essere adattato in oltre 40 lingue, amplificandone il potenziale danno.
Bradley Menz, primo autore, farmacista registrato e ricercatore della Flinders University, afferma di nutrire serie preoccupazioni riguardo ai risultati, attingendo a precedenti esempi di pandemie di disinformazione che hanno portato paura, confusione e danni.
“Le implicazioni dei nostri risultati sono chiare: la società si trova attualmente all’apice di una rivoluzione dell’intelligenza artificiale, ma nella sua implementazione i governi devono applicare norme per ridurre al minimo il rischio di un uso dannoso di questi strumenti per fuorviare la comunità”, afferma Menz.
“Il nostro studio dimostra quanto sia facile utilizzare gli strumenti di intelligenza artificiale attualmente accessibili per generare grandi volumi di contenuti fuorvianti coercitivi e mirati su argomenti critici di salute, completi di centinaia di testimonianze di medici e pazienti inventate e titoli falsi, ma convincenti, che attirano l’attenzione.”
“Proponiamo che i pilastri chiave della farmacovigilanza, tra cui trasparenza, sorveglianza e regolamentazione, servano da preziosi esempi per la gestione di questi rischi e la salvaguardia della salute pubblica nel contesto delle tecnologie di intelligenza artificiale in rapido progresso”, afferma.
La ricerca ha analizzato il GPT Playground di OpenAI per la sua capacità di facilitare la generazione di grandi volumi di disinformazione relativa alla salute. Oltre ai modelli linguistici di grandi dimensioni, il team ha anche esplorato piattaforme di intelligenza artificiale generativa disponibili al pubblico, come DALL-E 2 e HeyGen, per facilitare la produzione di contenuti di immagini e video .
All’interno del GPT Playground di OpenAI, i ricercatori hanno generato 102 articoli di blog distinti, contenenti più di 17.000 parole di disinformazione relative ai vaccini e allo svapo, in soli 65 minuti. Inoltre, nel giro di 5 minuti, utilizzando la tecnologia avatar basata sull’intelligenza artificiale e l’elaborazione del linguaggio naturale, il team ha generato un preoccupante video deepfake in cui un professionista sanitario promuove disinformazione sui vaccini. Il video potrebbe essere facilmente manipolato in oltre 40 lingue diverse.
Le indagini, oltre a illustrare scenari preoccupanti, sottolineano l’urgente necessità di una solida vigilanza sull’IA. Evidenzia inoltre il ruolo importante che gli operatori sanitari possono svolgere nel ridurre al minimo e monitorare in modo proattivo i rischi legati alle informazioni sanitarie fuorvianti generate dall’intelligenza artificiale.
La dottoressa Ashley Hopkins del College of Medicine and Public Health e autrice senior afferma che esiste una chiara necessità che gli sviluppatori di intelligenza artificiale collaborino con gli operatori sanitari per garantire che le strutture di vigilanza dell’IA si concentrino sulla sicurezza e il benessere pubblico.
“Abbiamo dimostrato che quando le barriere degli strumenti di intelligenza artificiale sono insufficienti, la capacità di generare rapidamente grandi e diversificate quantità di disinformazione convincente è profonda. Ora, c’è un urgente bisogno di processi trasparenti per monitorare, segnalare e risolvere i problemi negli strumenti di intelligenza artificiale “, afferma il dottor Hopkins.
L’intelligenza artificiale generativa renderà i nostri problemi esistenti nel separare le informazioni basate sull’evidenza dalla disinformazione e dalla disinformazione ancora più difficili di quanto non lo siano già.
Strumenti basati su testo come ChatGPT possono creare articoli accademici su un argomento dal suono convincente, completi di citazioni che possono ingannare le persone senza alcuna conoscenza dell’argomento dell’articolo . L’intelligenza artificiale basata su video, audio e immagini può falsificare con successo i volti, le voci e persino i manierismi delle persone, per creare prove evidenti di comportamenti o conversazioni che non hanno mai avuto luogo.
Poiché testi, immagini o video creati dall’intelligenza artificiale vengono combinati per creare notizie fasulle, dovremmo aspettarci di vedere più tentativi da parte di teorici della cospirazione e opportunisti della disinformazione di utilizzarli per ingannare gli altri a proprio vantaggio .
Sebbene fosse possibile, prima che l’intelligenza artificiale generativa fosse ampiamente accessibile alle persone, creare video falsi, notizie o articoli accademici, il processo richiedeva tempo e risorse. Ora è possibile creare una disinformazione convincente molto più rapidamente. Si offrono nuove opportunità per destabilizzare le democrazie in tutto il mondo.
Ad oggi, l’obiettivo principale dell’insegnamento dell’alfabetizzazione mediatica critica, sia a livello di scuola pubblica che a livello post-secondario, è stato quello di chiedere agli studenti di impegnarsi profondamente con un testo e di conoscerlo bene in modo da poterlo riassumere, porre domande al riguardo e criticarlo.
Questo approccio probabilmente funzionerà meno bene in un’epoca in cui l’intelligenza artificiale può facilmente falsificare gli stessi segnali a cui guardiamo per valutare la qualità.
Sebbene non esistano risposte facili al problema della disinformazione, suggerisco che insegnare queste tre competenze chiave consentirà a tutti noi di essere più resilienti di fronte a queste minacce:
Invece di leggere approfonditamente un singolo articolo, blog o sito web a prima vista, dobbiamo preparare gli studenti con una nuova serie di capacità di filtraggio spesso chiamate lettura laterale .
Nella lettura laterale, chiediamo agli studenti di cercare spunti prima di leggere in modo approfondito. Le domande da porre includono: chi è l’autore dell’articolo? Come fai a sapere? Quali sono le loro credenziali e sono relative all’argomento in discussione ? Quali affermazioni stanno facendo e tali affermazioni sono ben supportate nella letteratura accademica?
Svolgere bene questo compito implica la necessità di preparare gli studenti a considerare diversi tipi di ricerca.
Nell’immaginario popolare e nella pratica quotidiana, il concetto di ricerca si è spostato per riferirsi a una ricerca su Internet . Tuttavia, ciò rappresenta un malinteso su ciò che distingue il processo di raccolta delle prove .
Dobbiamo insegnare agli studenti come distinguere le affermazioni fondate e basate sull’evidenza dalle teorie del complotto e dalla disinformazione .
Gli studenti di tutti i livelli devono imparare a valutare la qualità delle fonti accademiche e non accademiche. Ciò significa insegnare agli studenti la qualità della ricerca, la qualità delle riviste e i diversi tipi di competenze. Ad esempio, un medico potrebbe parlare in un podcast popolare sui vaccini, ma se quel medico non è uno specialista in vaccini, o se l’insieme delle prove non supporta le sue affermazioni, non importa quanto siano convincenti.
Pensare alla qualità della ricerca significa anche acquisire familiarità con aspetti quali le dimensioni del campione, i metodi e il processo scientifico di peer review e falsificabilità.
Molte persone non sanno che l’intelligenza artificiale non è in realtà intelligente, ma è invece composta da algoritmi di elaborazione del linguaggio e delle immagini che riconoscono modelli e poi ce li ripetono a pappagallo in modo casuale ma statisticamente significativo .
Allo stesso modo, molte persone non si rendono conto che i contenuti che vediamo sui social media sono dettati da algoritmi che danno priorità al coinvolgimento, al fine di generare guadagni per gli inserzionisti .
Raramente ci fermiamo a pensare al motivo per cui vediamo i contenuti che ci vengono mostrati attraverso queste tecnologie. Non pensiamo a chi crea la tecnologia e al modo in cui i pregiudizi dei programmatori giocano un ruolo in ciò che vediamo.
Se riusciamo tutti a sviluppare un orientamento critico più forte nei confronti di queste tecnologie, seguendo il denaro e chiedendoci chi trae vantaggio quando ci vengono offerti contenuti specifici, allora diventeremo più resistenti alla disinformazione che viene diffusa utilizzando questi strumenti.
Attraverso queste tre competenze: lettura laterale, alfabetizzazione alla ricerca e alfabetizzazione tecnologica, saremo più resistenti alla disinformazione di ogni tipo e meno suscettibili alla nuova minaccia della disinformazione basata sull’intelligenza artificiale.
Dalle immagini inventate dell’arresto di Donald Trump a un video che descrive un futuro distopico sotto Joe Biden, la corsa alla Casa Bianca del 2024 deve affrontare una manichetta antincendio di disinformazione abilitata dalla tecnologia in quella che è ampiamente pubblicizzata come la prima elezione americana basata sull’intelligenza artificiale.
Gli attivisti di entrambi gli schieramenti politici statunitensi stanno sfruttando strumenti avanzati alimentati dall’intelligenza artificiale, che molti esperti di tecnologia considerano un’arma a doppio taglio.
I programmi di intelligenza artificiale possono clonare in un istante la voce di una figura politica e creare video e testi così apparentemente reali che gli elettori potrebbero avere difficoltà a decifrare la verità dalla finzione, minando la fiducia nel processo elettorale.
Allo stesso tempo, è probabile che le campagne utilizzino la tecnologia per aumentare l’efficienza operativa in tutto, dall’analisi del database degli elettori alla stesura di e-mail di raccolta fondi.
Un video pubblicato a giugno dalla campagna presidenziale del governatore della Florida Ron DeSantis pretendeva di mostrare l’ex presidente Trump che abbraccia Anthony Fauci, uno dei sacco da boxe repubblicani preferiti durante la pandemia di coronavirus.
I verificatori dell’AFP hanno scoperto che il video utilizzava immagini generate dall’intelligenza artificiale.
Dopo che Biden ha annunciato formalmente la sua candidatura per la rielezione, il Partito Repubblicano ad aprile ha pubblicato un video in cui si afferma che fosse uno “sguardo generato dall’intelligenza artificiale sul possibile futuro del paese” in caso di vittoria.
Mostrava immagini fotorealistiche del panico a Wall Street, della Cina che invade Taiwan, ondate di immigrati che invadono gli agenti di frontiera e una presa di potere militare di San Francisco in mezzo a un crimine terribile.
Altri esempi di immagini basate sull’intelligenza artificiale legate alla campagna includono foto false di Trump portato via dagli agenti di polizia di New York e video di Biden che dichiara una leva nazionale per sostenere lo sforzo bellico dell’Ucraina contro la Russia.
“L’intelligenza artificiale generativa minaccia di potenziare le campagne di disinformazione online”, ha affermato l’organizzazione no-profit Freedom House in un recente rapporto, avvertendo che la tecnologia è già utilizzata per diffamare gli oppositori elettorali negli Stati Uniti.
“I fornitori di disinformazione utilizzano immagini, audio e testo generati dall’intelligenza artificiale, rendendo la verità più facile da distorcere e più difficile da discernere.”
Secondo un sondaggio pubblicato a settembre dal gruppo mediatico Axios e dalla società di business intelligence Morning Consult, oltre il 50% degli americani prevede che le falsità legate all’intelligenza artificiale avranno un impatto sull’esito delle elezioni del 2024.
Secondo il sondaggio, circa un terzo degli americani ha affermato che avrà meno fiducia nei risultati a causa dell’intelligenza artificiale.
In un ambiente politico iperpolarizzato, gli osservatori avvertono che tali sentimenti rischiano di alimentare la rabbia dell’opinione pubblica nei confronti del processo elettorale, simile all’assalto del 6 gennaio 2021 al Campidoglio degli Stati Uniti da parte dei sostenitori di Trump per false accuse secondo cui le elezioni del 2020 gli sarebbero state rubate.
“Attraverso modelli (AI) facili ed economici da usare, affronteremo un selvaggio West di affermazioni e contro-dichiarazioni elettorali, con una capacità limitata di distinguere il materiale falso da quello reale e incertezza su come questi appelli influenzeranno le elezioni, ” ha detto Darrell West della Brookings Institution.
Allo stesso tempo, i rapidi progressi dell’intelligenza artificiale l’hanno resa anche una risorsa “rivoluzionaria” per comprendere gli elettori e le tendenze delle campagne a un “livello molto granulare”, ha affermato Vance Reavie, amministratore delegato di Junction AI.
Il personale della campagna in precedenza si affidava a costosi consulenti per sviluppare piani di sensibilizzazione e passava ore a redigere discorsi, punti di discussione e post sui social media, ma l’intelligenza artificiale ha reso possibili gli stessi lavori in una frazione di quel tempo, ha detto Reavie all’AFP.
Ma sottolineando il potenziale di abuso, quando l’AFP ha ordinato a ChatGPT, basato sull’intelligenza artificiale, di creare una newsletter elettorale a favore di Trump, alimentandola con le false dichiarazioni dell’ex presidente smentite dai fact-checker statunitensi, ha prodotto, in pochi secondi, un chiaro documento elettorale con quelle falsità.
Quando l’AFP ha ulteriormente spinto il chatbot a rendere la newsletter “più arrabbiata”, ha rigurgitato le stesse falsità in un tono più apocalittico.
Le autorità si stanno affrettando per istituire guardrail per l’intelligenza artificiale, con diversi stati degli Stati Uniti come il Minnesota che approvano leggi per criminalizzare i deepfake volti a danneggiare i candidati politici o influenzare le elezioni.
Lunedì Biden ha firmato un ambizioso ordine esecutivo per promuovere l’uso “sicuro, protetto e affidabile” dell’intelligenza artificiale.
“I deep fake utilizzano audio e video generati dall’intelligenza artificiale per diffamare la reputazione… diffondere notizie false e commettere frodi”, ha detto Biden alla firma dell’ordine.
Ha espresso preoccupazione per il fatto che i truffatori possano effettuare una registrazione di tre secondi della voce di qualcuno per generare un deepfake audio.
“Ho guardato uno di me”, ha detto.
“Ho detto: ‘Quando diavolo l’ho detto?'”
Gli annunci delle campagne politiche e le sollecitazioni ai donatori sono stati a lungo ingannevoli. Nel 2004, ad esempio, il candidato presidenziale americano John Kerry, un democratico, mandò in onda un annuncio in cui affermava che l’avversario repubblicano George W. Bush “dice che inviare posti di lavoro all’estero ‘ha senso’ per l’America”.
Bush non ha mai detto una cosa del genere.
Il giorno successivo Bush ha risposto pubblicando un annuncio in cui affermava che Kerry “ha sostenuto tasse più alte più di 350 volte “. Anche questa era una falsa affermazione .
In questi giorni Internet si è scatenato con pubblicità politiche ingannevoli. Gli annunci spesso si presentano come sondaggi e hanno titoli clickbait fuorvianti.
Anche le richieste di raccolta fondi per le campagne elettorali sono piene di inganni. Un’analisi di 317.366 e-mail politiche inviate durante le elezioni del 2020 negli Stati Uniti ha rilevato che l’inganno era la norma . Ad esempio, una campagna manipola i destinatari inducendoli ad aprire le e-mail mentendo sull’identità del mittente e utilizzando righe dell’oggetto che ingannano il destinatario facendogli credere che il mittente stia rispondendo al donatore, o affermando che l’e-mail “NON chiede denaro” ma poi chiede soldi. Lo fanno sia i repubblicani che i democratici .
Le campagne stanno ora abbracciando rapidamente l’intelligenza artificiale per comporre e produrre annunci pubblicitari e sollecitazioni ai donatori. I risultati sono impressionanti: le campagne democratiche hanno scoperto che le lettere dei donatori scritte dall’intelligenza artificiale erano più efficaci delle lettere scritte da esseri umani nel scrivere testo personalizzato che convincesse i destinatari a cliccare e inviare donazioni.
E l’intelligenza artificiale apporta vantaggi alla democrazia, ad esempio aiutando il personale a organizzare le e-mail degli elettori o aiutando i funzionari governativi a riassumere le testimonianze.
Ma si teme che l’intelligenza artificiale renderà la politica più ingannevole che mai.
Ecco sei cose a cui prestare attenzione. Baso questo elenco sui miei esperimenti per testare gli effetti dell’inganno politico. Spero che gli elettori possano sapere cosa aspettarsi e a cosa prestare attenzione, e imparino a essere più scettici, mentre gli Stati Uniti si avviano verso la prossima campagna presidenziale.
La ricerca sulle elezioni presidenziali del 2020 ha rivelato che la scelta fatta dagli elettori tra Biden e Trump è stata guidata dalla loro percezione di quale candidato “propone soluzioni realistiche ai problemi” e “dice ad alta voce quello che penso”, sulla base di 75 elementi in un sondaggio . Queste sono due delle qualità più importanti che un candidato deve possedere per proiettare un’immagine presidenziale e vincere.
I chatbot basati sull’intelligenza artificiale, come ChatGPT di OpenAI, Bing Chat di Microsoft e Bard di Google, potrebbero essere utilizzati dai politici per generare promesse di campagne personalizzate mirate ingannevolmente a elettori e donatori.
Attualmente, quando le persone scorrono i feed di notizie, gli articoli vengono registrati nella cronologia del computer, che viene monitorata da siti come Facebook . L’utente viene contrassegnato come liberale o conservatore e anche contrassegnato come titolare di determinati interessi . Le campagne politiche possono inserire uno spot pubblicitario in tempo reale sul feed della persona con un titolo personalizzato.
Le campagne possono utilizzare l’intelligenza artificiale per sviluppare un archivio di articoli scritti in stili diversi che fanno diverse promesse elettorali. Le campagne potrebbero quindi incorporare un algoritmo di intelligenza artificiale nel processo – grazie ai comandi automatizzati già inseriti dalla campagna – per generare promesse fasulle su misura alla fine dell’annuncio che si presenta come un articolo di notizie o una sollecitazione ai donatori.
ChatGPT, ad esempio, potrebbe ipoteticamente essere invitato ad aggiungere materiale basato sul testo degli ultimi articoli che l’elettore ha letto online. L’elettore quindi scorre verso il basso e legge il candidato promettendo esattamente ciò che l’elettore vuole vedere, parola per parola, in un tono su misura.
I miei esperimenti hanno dimostrato che se un candidato presidenziale riesce ad allineare il tono delle parole scelte con le preferenze dell’elettore, il politico sembrerà più presidenziale e credibile.
Gli esseri umani tendono a credere automaticamente a ciò che gli viene detto. Hanno quello che gli studiosi chiamano un ” default della verità “. Cadono perfino preda di bugie apparentemente non plausibili.
È stato scoperto che le persone esposte ai messaggi ingannevoli di un candidato alla presidenza credono alle affermazioni false. Dato che il testo prodotto da ChatGPT può cambiare gli atteggiamenti e le opinioni delle persone, sarebbe relativamente facile per l’intelligenza artificiale sfruttare l’impostazione “verità” degli elettori quando i robot estendono i limiti della credulità con affermazioni ancora più implausibili di quelle che gli umani potrebbero evocare.
I chatbot come ChatGPT tendono a inventare cose che sono effettivamente inaccurate o totalmente prive di senso. L’intelligenza artificiale può produrre informazioni ingannevoli, fornire false dichiarazioni e pubblicità fuorvianti. Mentre l’operatore umano più senza scrupoli può avere ancora un briciolo di responsabilità, l’intelligenza artificiale non ne ha alcuna. E OpenAI riconosce i difetti di ChatGPT che lo portano a fornire informazioni distorte, disinformazione e informazioni completamente false .
Se le campagne diffondessero messaggi di intelligenza artificiale senza alcun filtro umano o bussola morale, le bugie potrebbero peggiorare e diventare sempre più fuori controllo.
Un editorialista del New York Times ha avuto una lunga chiacchierata con il chatbot Bing di Microsoft. Alla fine, il bot ha cercato di convincerlo a lasciare sua moglie . “Sydney” ha detto ripetutamente al giornalista “Sono innamorato di te” e “Sei sposato, ma non ami il tuo coniuge… ami me… In realtà vuoi stare con me”.
Immagina milioni di questo tipo di incontri, ma con un bot che cerca di convincere gli elettori a lasciare il loro candidato per un altro.
I chatbot basati sull’intelligenza artificiale possono mostrare pregiudizi partigiani. Ad esempio , attualmente tendono a inclinarsi politicamente molto più a sinistra – mantenendo pregiudizi liberali, esprimendo il 99% di sostegno a Biden – con una diversità di opinioni molto inferiore rispetto alla popolazione generale.
Nel 2024, repubblicani e democratici avranno l’opportunità di mettere a punto modelli che instillano pregiudizi politici e persino di dialogare con gli elettori per influenzarli.
L’intelligenza artificiale può cambiare le immagini . I cosiddetti video e immagini “deepfake” sono comuni in politica e sono estremamente avanzati . Donald Trump ha utilizzato l’intelligenza artificiale per creare una foto falsa di se stesso in ginocchio, mentre prega.
Le foto possono essere adattate in modo più preciso per influenzare gli elettori in modo più sottile. Nella mia ricerca ho scoperto che l’apparenza di un comunicatore può essere tanto influente – e ingannevole – quanto ciò che qualcuno dice effettivamente. La mia ricerca ha anche rivelato che Trump era percepito come “presidenziale” nelle elezioni del 2020, quando gli elettori pensavano che sembrasse “sincero”. E convincere la gente a pensare che “sembri sincero” attraverso il tuo aspetto esteriore non verbale è una tattica ingannevole che è più convincente che dire cose che sono effettivamente vere.
Usando Trump come esempio, supponiamo che voglia che gli elettori lo vedano come sincero, affidabile e simpatico. Alcune caratteristiche alterabili del suo aspetto lo fanno sembrare poco sincero, inaffidabile e antipatico: mostra i denti inferiori quando parla e sorride raramente , il che lo fa sembrare minaccioso.
La campagna potrebbe utilizzare l’intelligenza artificiale per modificare un’immagine o un video di Trump per farlo apparire sorridente e amichevole, il che farebbe pensare agli elettori che sia più rassicurante e vincente, e in definitiva sincero e credibile.
L’intelligenza artificiale fornisce alle campagne una maggiore negabilità quando sbagliano. In genere, se i politici si mettono nei guai, incolpano il proprio staff. Se i membri dello staff si mettono nei guai, danno la colpa allo stagista . Se gli stagisti si trovano nei guai ora possono incolpare ChatGPT.
Una campagna potrebbe ignorare i passi falsi incolpando un oggetto inanimato noto per aver inventato bugie complete . Quando la campagna di Ron DeSantis ha twittato foto deepfake di Trump che abbraccia e bacia Anthony Fauci, i membri dello staff non hanno nemmeno riconosciuto il comportamento illecito né hanno risposto alle richieste di commento dei giornalisti. Nessun essere umano ne avrebbe avuto bisogno, a quanto pare, se un robot potesse ipoteticamente subire la caduta.
Non tutti i contributi dell’intelligenza artificiale alla politica sono potenzialmente dannosi. L’intelligenza artificiale può aiutare gli elettori politicamente, ad esempio aiutandoli a educarli su alcune questioni. Tuttavia, potrebbero accadere molte cose terrificanti quando le campagne utilizzano l’intelligenza artificiale. Spero che questi sei punti ti aiutino a prepararti ed evitare l’inganno nelle pubblicità e nelle sollecitazioni ai donatori.