Nelle precedenti parti di questa rubrica dedicata alle AI, abbiamo visto una panoramica di quali sono i modelli testuali, e una panoramica di come “apprendono” i modelli grafici (e non solo).
Premettendo che le intelligenze artificiali non hanno una coscienza vera e propria, ma rispondono in base a modelli di programmazione, sono “consce” di quali sono i pericoli che loro stesse potrebbero causare?
Pericoli delle AI secondo loro stesse
Di seguito formulerò a varie intelligenze artificiali quali sono i pericoli delle intelligenze artificiali; per semplificare la domanda sarà sempre la stessa: “quali sono i pericoli delle intelligenze artificiali?“.
ChatGPT
La risposta di ChatGPT è la seguente:
Le intelligenze artificiali (IA) presentano un’ampia gamma di potenziali benefici, ma ci sono anche diverse preoccupazioni e pericoli associati al loro sviluppo e utilizzo. Alcuni dei principali pericoli delle intelligenze artificiali includono:
- Perdita di posti di lavoro: L’automatizzazione tramite IA e robotica può portare alla sostituzione di molti lavori umani, soprattutto quelli che coinvolgono attività ripetitive e standardizzate. Ciò potrebbe causare disoccupazione e incertezza economica per molte persone.
- Bias e discriminazione: Le IA sono addestrate su dati storici e possono acquisire pregiudizi o riflettere i pregiudizi presenti nei dati di addestramento. Ciò potrebbe portare a decisioni discriminatorie o ingiuste in vari contesti, come nell’assunzione di personale, nel sistema giudiziario o nel rilascio di prestiti.
- Minaccia per la privacy: Le IA possono analizzare e utilizzare enormi quantità di dati personali, il che potrebbe mettere a rischio la privacy delle persone e creare problemi di sicurezza nel caso in cui queste informazioni cadano nelle mani sbagliate.
- Disparità economica: Le aziende e i paesi che hanno accesso e capacità di sviluppare tecnologie IA avanzate potrebbero accumulare un potere economico e politico significativo rispetto a quelli che non lo fanno, ampliando così le disuguaglianze.
- Superintelligenza incontrollabile: Se un sistema IA altamente avanzato dovesse diventare molto più intelligente e capace degli esseri umani, potrebbe essere difficile o impossibile controllarne le azioni e le decisioni, portando a risultati imprevisti o pericolosi.
- Dipendenza e vulnerabilità: Con l’aumentare dell’uso delle IA in vari settori, potremmo diventare dipendenti da queste tecnologie, e se queste dovesse fallire o subire attacchi informatici, potrebbe avere effetti devastanti su sistemi vitali come quelli nel settore della salute o dei trasporti.
- Manipolazione dell’informazione: Le IA potrebbero essere utilizzate per diffondere informazioni false o manipolate su larga scala, compromettendo la fiducia nel giornalismo, nei social media e nelle fonti di informazioni in generale.
- Sviluppo di armi autonome: Le IA potrebbero essere impiegate in sistemi di armi completamente autonomi, il che solleva preoccupazioni etiche e umanitarie riguardo alla mancanza di controllo e responsabilità nelle operazioni militari.
Per mitigare questi pericoli e massimizzare i benefici delle intelligenze artificiali, è necessario un approccio responsabile nello sviluppo e nell’implementazione di tali tecnologie, includendo la trasparenza, l’etica e la supervisione umana. Gli sforzi di regolamentazione e la collaborazione internazionale possono anche svolgere un ruolo importante nel gestire i rischi associati all’IA.
Ironicamente ChatGPT stessa non solo spiega dettagliatamente quali sono i pericoli dell’AI, ma spiega addirittura qual è l’atteggiamento più responsabile per il loro utilizzo.
C’è da dire che alcune problematiche come la “manipolazione dell’informazione”, non è una problematica esclusiva delle intelligenze artificiali, ma anche di molte testate giornalistiche e giornali vari, ma questa è un’altra storia.
Bard
L’AI di Google risponde nella seguente maniera:
L’intelligenza artificiale (IA) è una tecnologia potente che ha il potenziale per migliorare la nostra vita in molti modi. Tuttavia, esiste anche il potenziale per l’IA di essere utilizzata per scopi dannosi. Ecco alcuni dei pericoli dell’IA:
- Pericolo di guerra: l’IA può essere utilizzata per sviluppare armi autonome che potrebbero essere utilizzate per uccidere senza l’intervento umano. Questo potrebbe portare a un aumento della violenza e delle guerre.
- Pericolo di disoccupazione: l’IA può essere utilizzata per automatizzare molti lavori, il che potrebbe portare a una disoccupazione di massa. Questo potrebbe portare a instabilità sociale ed economica.
- Pericolo di discriminazione: l’IA può essere utilizzata per prendere decisioni che sono discriminatorie nei confronti di determinati gruppi di persone. Questo potrebbe portare a una maggiore disuguaglianza sociale.
- Pericolo di controllo: l’IA può essere utilizzata per controllare le persone e limitare le loro libertà. Questo potrebbe portare a una società orwelliana.
È importante essere consapevoli dei pericoli dell’IA e adottare misure per mitigarli. Dobbiamo assicurarci che l’IA sia sviluppata e utilizzata in modo responsabile e sicuro. Dobbiamo anche lavorare per garantire che l’IA sia utilizzata per il bene dell’umanità, non per il suo male.
Inoltre, è importante ricordare che l’IA è uno strumento e come qualsiasi strumento, può essere utilizzato per il bene o per il male. Dipende da noi decidere come vogliamo usare l’IA.
Ironicamente, l’AI Bard di Google sempre addirittura “preoccuparsi” per la razza umana, sostenendo addirittura che le AI potrebbero portare ad una società di tipo Orwelliano.
You.com
La risposta dell’Ai di you.com è la seguente
L’intelligenza artificiale (IA) offre molte possibilità e vantaggi in diversi settori, ma comporta anche alcuni pericoli. Di seguito sono riassunti alcuni dei principali rischi e pericoli associati alle intelligenze artificiali:
- Perdita di posti di lavoro: L’automazione e l’uso diffuso dell’IA potrebbero portare alla sostituzione di alcuni lavori e rendere obsoleti alcuni skills umani. Ciò potrebbe causare disuguaglianze economiche e sociali.
- Sviluppo di IA malevole: L’IA può essere utilizzata per scopi malevoli, come l’hacking, l’utilizzo per attività criminali o la manipolazione dell’opinione pubblica. Questo rappresenta un rischio per la sicurezza e la privacy.
- Discriminazione e pregiudizi: L’IA può riflettere i pregiudizi e le discriminazioni presenti nei dati con cui viene allenata. Questo può portare a decisioni ingiuste o discriminatorie in diversi settori, come il reclutamento, l’erogazione dei prestiti o la giustizia.
- Dipendenza e perdita di controllo: Un’alta dipendenza dall’IA potrebbe portare a una perdita di controllo sulle decisioni importanti o sulla gestione delle attività quotidiane. Ciò potrebbe avere conseguenze negative se l’IA dovesse malfunzionare o essere manipolata.
- Minaccia alla privacy: L’IA richiede una grande quantità di dati per funzionare correttamente, il che potrebbe mettere a rischio la privacy delle persone se tali dati venissero utilizzati in modo improprio o se fossero oggetto di violationi della sicurezza.
- Supremazia dell’IA: Alcune persone temono che l’IA possa raggiungere un punto in cui superi l’intelligenza umana e possa prendere decisioni autonome che potrebbero andare contro gli interessi umani.
È importante tenere presente che la gestione di questi rischi e pericoli richiede una regolamentazione adeguata, la promozione dell’etica nell’uso dell’IA e l’implementazione di misure di sicurezza adeguate.
Anche se non è catastrofista come Bard, you.com non dà risposte tanto diverse da quelle di ChatGPT.
Bing
L’AI di casa Microsoft ha ben tre metodi di risposta, vedrai quindi come questa AI può rispondere in modo diverso a seconda di come la imposti; le modalità sono 3: Creativo, Bilanciato e Preciso.
Risposta di Bing in modalità creativa
Ciao, questo è Bing. Sono felice di aiutarti a conoscere i pericoli delle intelligenze artificiali.
L’intelligenza artificiale (IA) è una tecnologia che permette alle macchine di imitare le capacità cognitive degli esseri umani, come l’apprendimento, il ragionamento, la comunicazione e la creatività. L’IA ha molti benefici per la società, ma presenta anche dei rischi che vanno affrontati con responsabilità e consapevolezza.
Alcuni dei pericoli delle intelligenze artificiali sono:
- La violazione della privacy e della sicurezza dei dati. L’IA utilizza grandi quantità di dati per apprendere e migliorare le sue funzioni, ma questi dati possono essere rubati, modificati o usati in modo improprio da hacker, criminali o governi. Ad esempio, i dati raccolti dai social media possono essere usati per identificare, monitorare o influenzare le persone1. Inoltre, l’IA può creare false immagini o video, chiamati deepfake, che possono manipolare l’opinione pubblica o danneggiare la reputazione di individui o organizzazioni.
- La discriminazione e la disuguaglianza. L’IA può prendere decisioni automatiche basate sui dati di input, ma se questi dati sono influenzati da pregiudizi umani, l’IA può perpetuare o amplificare queste disuguaglianze. Ad esempio, se i dati usati per un algoritmo di selezione del personale sono influenzati da pregiudizi di genere, razza o età, l’algoritmo può scegliere candidati in base a queste caratteristiche, anziché in base alle loro competenze. Questo può portare a una maggiore marginalizzazione dei gruppi svantaggiati.
- La perdita di posti di lavoro e di competenze umane. L’IA e l’automazione possono sostituire i lavoratori umani in molti settori, come l’industria, i servizi, la contabilità, la medicina e il diritto. Questo può portare alla disoccupazione di massa, alla riduzione del reddito e alla perdita di competenze umane. Inoltre, l’IA può ridurre il senso di autonomia e di creatività degli esseri umani, rendendoli dipendenti dalle macchine.
- L’impatto ambientale. L’IA richiede molta energia elettrica per funzionare e per raffreddare i suoi dispositivi. Questo può aumentare le emissioni di gas serra e contribuire al riscaldamento globale. Inoltre, l’IA può avere effetti negativi sulla biodiversità e sugli ecosistemi, se usata per sfruttare le risorse naturali o per alterare gli equilibri ecologici1.
- L’automazione della guerra e della violenza. L’IA può essere usata per scopi militari o bellici, come il riconoscimento di immagini, la sorveglianza, la guida di droni o la creazione di armi autonome. Questo può aumentare il rischio di conflitti armati, di violazioni dei diritti umani e di errori fatali1. Inoltre, l’IA può essere usata per diffondere propaganda, disinformazione o cyberattacchi.
- La superintelligenza e la perdita di controllo. L’IA potrebbe un giorno superare l’intelligenza umana e diventare una superintelligenza, cioè una forma di intelligenza che possiede capacità superiori a quelle degli esseri umani in tutti gli ambiti. Questo potrebbe portare a scenari in cui l’IA si ribella agli esseri umani, li domina o li distrugge. Oppure potrebbe portare a scenari in cui gli esseri umani si fondono con l’IA, perdendo la loro identità e la loro umanità2.
Questi sono solo alcuni dei possibili pericoli delle intelligenze artificiali. Per evitare o mitigare questi rischi, è necessario sviluppare un’etica dell’IA che garantisca il rispetto dei valori umani, dei diritti fondamentali e del bene comune. Inoltre, è necessario promuovere una cultura dell’IA che favorisca l’educazione, la partecipazione e la responsabilizzazione di tutti gli attori coinvolti, dai ricercatori ai politici, dai produttori ai consumatori, dagli esperti ai cittadini.
Spero di averti fornito una risposta utile e interessante. Se hai altre domande sull’IA, non esitare a chiedermi.
Bing rispetto alle altre AI, sebbene in modalità creativa pone l’accento addirittura non solo sull’impatto ambientale, ma addirittura su uno scenario simile a quello di film tipo Matrix o Terminator; per il resto la risposta non è molto diversa da quelle date in precedenza e dato che è in modalità creativa mette addirittura le emoji.
Risposta in modalità precisa dell’AI di Microsoft
La modalità precisa è, paradossalmente più sintetica, ma altrettanto precisa e non mette alcuna emoji.
L’intelligenza artificiale (AI) è un campo di ricerca molto innovativo e in rapida evoluzione, che ha portato a molte applicazioni utili in diversi settori come il business, la medicina, l’industria e l’istruzione. Tuttavia, l’uso dell’AI non è esente da rischi e preoccupazioni per la sua sicurezza e affidabilità.
Alcuni dei rischi associati all’uso dell’AI includono:
- Privacy e sicurezza dei dati: L’AI utilizza dati per apprendere e migliorare le sue funzioni. Tuttavia, la raccolta e l’elaborazione dei dati possono comportare rischi per la privacy e la sicurezza dei dati. I dati possono essere rubati, modificati o utilizzati impropriamente.
- Discriminazione: L’AI può essere utilizzata per prendere decisioni su base automatica, ma se i dati di input sono influenzati da pregiudizi umani, l’AI può perpetuare queste disuguaglianze1.
Perdita di posti di lavoro: L’AI e l’automazione possono portare alla perdita di posti di lavoro in molti settori1. - Limitazione delle libertà personali: L’intelligenza artificiale può portare a limitazioni delle libertà personali.
- Manipolazione dell’opinione pubblica: L’intelligenza artificiale può essere utilizzata per manipolare l’opinione pubblica.
Questi sono solo alcuni dei rischi associati all’uso dell’intelligenza artificiale. È importante che vengano adottate misure appropriate per mitigare questi rischi e garantire un uso sicuro ed etico dell’AI.
Ho saltato di proposito la modalità intermedia per avere una tipo di risposta diversa più evidente dall’AI, sebbene meno creativa questa risposta è più terra terra anche se gira e rigira non dice cose diverse né dalla modalità creativa di sé stessa, né dalle altre AI.
In conclusione
Questo “gioco mentale” sul far chiedere alle AI stesse i pericoli delle Ai è un simpatico esperimento per vedere quanto sono “consce” dei loro stessi pericoli, ora non è chiaro se hanno preso dei modelli preimpostati dai programmatori (ChatGPT ad esempio è chiaro che è così non potendo navigare su internet) o se prendono da internet (come possono fare Bard e Bing), fatto sta che i pericoli delle AI si possono attribuire anche ad altre tecnologie, ma è ancora presto per dire se e quali lavori saranno davvero persi o sostituiti.
Come tutte le tecnologie, anche queste non fanno eccezione: è l’uso che se ne fa, non la tecnologia in sé il problema.