Tech iCrewPlay.comTech iCrewPlay.com
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Cerca
  • Videogiochi
  • Libri
  • Cinema
  • Anime
  • Arte
Copyright © Alpha Unity. Tutti i diritti riservati.​
Lettura: Microsoft rilascia PyRIT per mitigare i rischi dell’AI generativa
Share
Notifica
Ridimensionamento dei caratteriAa
Tech iCrewPlay.comTech iCrewPlay.com
Ridimensionamento dei caratteriAa
  • Videogiochi
  • Libri
  • Cinema
  • Anime
  • Arte
Cerca
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Seguici
  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Copyright © Alpha Unity. Tutti i diritti riservati.​
App e softwareTecnologia

Microsoft rilascia PyRIT per mitigare i rischi dell’AI generativa

Andrea Tasinato 1 anno fa Commenta! 5
SHARE

Microsoft ha rilasciato un framework di automazione open access chiamato PyRIT (abbreviazione di Python Risk Identification Tool), disponibile su GitHub, per identificare in modo proattivo i rischi nei sistemi di intelligenza artificiale (IA) generativa.

Contenuti di questo articolo
Come funzionerà PyRIT di Microsoft e quale ruolo avràConclusione

Come funzionerà PyRIT di Microsoft e quale ruolo avrà

Lo strumento di red teaming è progettato per “consentire a ogni organizzazione in tutto il mondo di innovare in modo responsabile con gli ultimi progressi dell’intelligenza artificiale“, ha dichiarato Ram Shankar Siva Kumar, responsabile del red team di AI di Microsoft.

L’azienda ha affermato che PyRIT può essere utilizzato per valutare la robustezza degli endpoint del modello di linguaggio esteso (LLM) contro diverse categorie di danni, come la fabbricazione (ad esempio, allucinazione), l’abuso (ad esempio, pregiudizio) e i contenuti vietati (ad esempio, molestie).

Leggi Altro

MIBODE aspirapolvere senza fili: un nuovo orizzonte di pulizia senza sforzo
Notebook sotto i 600 euro: si può lavorare bene anche con un budget ridotto?
La CISA mette in guardia contro sospetti attacchi SaaS più ampi che sfruttano i segreti delle app e le configurazioni errate del cloud
Dell KB525C vs KM555: la sfida tra tastiere smart e combo silenziose

Microsoft

Può anche essere utilizzato per identificare danni alla sicurezza che vanno dalla generazione di malware al jailbreaking, così come danni alla privacy come il furto di identità.

PyRIT è dotato di cinque interfacce: target, dataset, motore di valutazione, la capacità di supportare diverse strategie di attacco e l’incorporazione di un componente di memoria che può assumere la forma di JSON o di un database per memorizzare le interazioni di input e output intermedie.

Il motore di valutazione offre anche due opzioni diverse per valutare gli output dal sistema AI target, consentendo ai red teamers di utilizzare un classificatore di apprendimento automatico classico o sfruttare un endpoint LLM per l’autovalutazione.

“L’obiettivo è consentire ai ricercatori di avere una base di valutazione di quanto bene il loro modello e l’intera pipeline di inferenza stiano facendo contro diverse categorie di danni e poter confrontare tale base con le future iterazioni del loro modello“, ha detto Microsoft.

Pyrit

Microsoft ha successivamente aggiunto che “Ciò consente loro di avere dati empirici su quanto bene il loro modello stia facendo oggi e individuare eventuali degradazioni delle prestazioni basate su futuri miglioramenti.”

Detto questo, la grande azienda tecnologica sottolinea con attenzione che PyRIT non è un sostituto per il red teaming manuale dei sistemi AI generativi e che integra l’esperienza di dominio esistente di un red team, bensì un aiuto in più rispetto a quello umano che è il motore principale.

In altre parole, lo strumento è pensato per evidenziare i “punti caldi” dei rischi generando prompt che potrebbero essere utilizzati per valutare il sistema AI e individuare aree che richiedono ulteriori indagini.

Rishi dell'ai tra etica e intelligenza artificiale

Microsoft ha inoltre riconosciuto che il red teaming dei sistemi AI generativi richiede un’indagine simultanea dei rischi di sicurezza e di IA responsabile e che l’esercizio è più probabilistico, sottolineando anche le ampie differenze nelle architetture dei sistemi AI generativi.

“La sondaggio manuale, sebbene sia dispendioso in termini di tempo, è spesso necessario per identificare potenziali punti ciechi“, ha dichiarato Siva Kumar. “L’automazione è necessaria per la scalabilità, ma non sostituisce la sondaggio manuale.”

Lo sviluppo arriva mentre Protect AI ha rivelato diverse vulnerabilità critiche nelle popolari piattaforme di catena di approvvigionamento AI come ClearML, Hugging Face, MLflow e Triton Inference Server che potrebbero risultare nell’esecuzione di codice arbitrario e nella divulgazione di informazioni sensibili.

Conclusione

In conclusione, il rilascio di PyRIT da parte di Microsoft rappresenta un passo significativo verso l’identificazione in tempo reale dei rischi nei sistemi di intelligenza artificiale generativa, simile a Malwarebytes in tempo reale, per capirci, con la differenza che invece di identificare i malware identifica i problemmi delle intelligenze artificiali generative.

Sebbene il framework offra strumenti per valutare la robustezza e individuare potenziali minacce, è importante sottolineare che PyRIT non sostituisce il ruolo cruciale del red teaming manuale. L’automazione, sebbene essenziale per la scalabilità, deve essere complementare all’expertise umana nella valutazione dei rischi, garantendo un approccio bilanciato e responsabile all’innovazione nell’ambito dell’intelligenza artificiale.

Condividi questo articolo
Facebook Twitter Copia il link
Share
Cosa ne pensi?
-0
-0
-0
-0
-0
-0
lascia un commento lascia un commento

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer

Copyright © Alpha Unity. Tutti i diritti riservati.​

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Bentornato in iCrewPlay!

Accedi al tuo account

Hai dimenticato la password?