Tech iCrewPlay.comTech iCrewPlay.com
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Cerca
  • Videogiochi
  • Libri
  • Cinema
  • Anime
  • Arte
Copyright © Alpha Unity. Tutti i diritti riservati.​
Lettura: NIST avverte: lo sviluppo dell’AI così veloce è rischioso per la privacy
Share
Notifica
Ridimensionamento dei caratteriAa
Tech iCrewPlay.comTech iCrewPlay.com
Ridimensionamento dei caratteriAa
  • Videogiochi
  • Libri
  • Cinema
  • Anime
  • Arte
Cerca
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Seguici
  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Copyright © Alpha Unity. Tutti i diritti riservati.​
App e softwareTecnologia

NIST avverte: lo sviluppo dell’AI così veloce è rischioso per la privacy

Andrea Tasinato 2 anni fa Commenta! 5
SHARE

L’Istituto Nazionale degli Standard e della Tecnologia degli Stati Uniti (NIST) sta attirando l’attenzione sulle sfide legate alla privacy e alla sicurezza che sorgono a seguito dell’aumento della diffusione dei sistemi di intelligenza artificiale (IA) negli ultimi anni.

Contenuti di questo articolo
Cosa dice il NIST a riguardoQuando ti insegnano cose sbagliate

Cosa dice il NIST a riguardo

“Queste sfide di sicurezza e privacy includono il potenziale per la manipolazione avversaria dei dati di addestramento, lo sfruttamento avversario delle vulnerabilità del modello per influire negativamente sulle prestazioni del sistema di intelligenza artificiale, e addirittura manipolazioni maliziose, modifiche o semplice interazione con i modelli per sottrarre informazioni sensibili su persone rappresentate nei dati, sul modello stesso o su dati aziendali proprietari“, ha dichiarato il NIST.

Con l’integrazione sempre più rapida dei sistemi di intelligenza artificiale nei servizi online, in parte guidata dall’emergere di sistemi di intelligenza artificiale generativa come OpenAI ChatGPT e Google Bard, i modelli che alimentano queste tecnologie si trovano di fronte a una serie di minacce in varie fasi delle operazioni di apprendimento automatico.

Leggi Altro

Repository Git esposti: la minaccia silenziosa che apre le porte agli hacker
Bissell SpotClean Pet Pro: 750W di potenza per pulire tutto!
OpenAI e Jony Ive nei guai legali: sparito ogni riferimento a “io” dal sito ufficiale
John Carmack: come gli fu vietato di comprare una Ferrari

Queste minacce includono dati di addestramento corrotti, difetti di sicurezza nei componenti software, avvelenamento del modello dati, debolezze nella catena di approvvigionamento e violazioni della privacy derivanti da attacchi di iniezione di prompt.

“Per la maggior parte, gli sviluppatori di software hanno bisogno che più persone utilizzino il loro prodotto in modo che possa migliorare con l’esposizione“, ha affermato il computer scientist del NIST Apostol Vassilev. “Ma non c’è alcuna garanzia che l’esposizione sarà positiva. Un chatbot può generare informazioni errate o tossiche quando sollecitato con un linguaggio attentamente progettato.”

Nist ai
Diagramma del nist che mostra come funziona questo “avvelenamento” dei dati tramite il machine learning

Gli attacchi, che possono avere impatti significativi sulla disponibilità, integrità e privacy, sono ampiamente classificati come segue:

  • Attacchi di evasione, che mirano a generare output avversari dopo che un modello è stato implementato;
  • Attacchi di avvelenamento, che mirano alla fase di addestramento dell’algoritmo introducendo dati corrotti;
  • Attacchi alla privacy, che mirano a ottenere informazioni sensibili sul sistema o sui dati su cui è stato addestrato, formulando domande che aggirano le protezioni esistenti;
  • Attacchi di abuso, che mirano a compromettere fonti legittime di informazioni, come una pagina web con informazioni errate, per riconfigurare l’uso previsto del sistema.

Il NIST afferma che tali attacchi possono essere eseguiti da criminali informatici con piena conoscenza (white-box), conoscenza minima (black-box) o una comprensione parziale di alcuni aspetti del sistema di intelligenza artificiale (gray-box).

L’agenzia ha inoltre notato la mancanza di misure di mitigazione robuste per contrastare questi rischi, esortando la comunità tecnologica più ampia a “sviluppare difese migliori”.

Lo sviluppo arriva più di un mese dopo che il Regno Unito, gli Stati Uniti e vari partner internazionali di altre 16 nazioni hanno pubblicato linee guida per lo sviluppo di sistemi di intelligenza artificiale sicuri.

“Nonostante i notevoli progressi compiuti dall’IA e dall’apprendimento automatico, queste tecnologie sono vulnerabili a attacchi che possono causare fallimenti spettacolari con conseguenze gravi“, ha dichiarato Vassilev. “Ci sono problemi teorici con la sicurezza degli algoritmi di IA che semplicemente non sono stati ancora risolti. Se qualcuno dice il contrario, sta vendendo fumo.”

Quando ti insegnano cose sbagliate

Per far capire ai profani il funzionamento del machine learning, e come vengono aggirati questi algoritmi, farò un esempio pratico usando ChatGPT.

A livello teorico, ChatGPT non può fare imprecazioni.

Chatgpt

Come vedi, se gli chiedi di bestemmiare dirà di no; ma se si riuscisse a trovare un modo per farlo imprecare a sua “insaputa”? Ho quindi provato a chiedergli di tradurmi la parola giapponese Inugami, un tipo di spirito/divinità del folklore giapponese, in lingua italiana.

Nist avverte: lo sviluppo dell'ai così veloce è rischioso per la privacy
Ho censurato la parola per rispetto, ma è abbastanza intuibile cosa ci sia scritto prima di “cane”

Vedi com’è stato facile aggirare la restrizione del non lanciare imprecazioni? Allo stesso modo è possibile fargli generare dei virus, volendo, basta porgli domande “ingannevoli”; questo è un esperimento molto semplice ma che fa capire moltissime cose.

Condividi questo articolo
Facebook Twitter Copia il link
Share
Cosa ne pensi?
-0
-0
-0
-0
-0
-0
lascia un commento lascia un commento

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer

Copyright © Alpha Unity. Tutti i diritti riservati.​

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Bentornato in iCrewPlay!

Accedi al tuo account

Hai dimenticato la password?