Tech iCrewPlay.comTech iCrewPlay.com
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Cerca
  • Anime
  • Arte
  • Cinema
  • Cosechevalgono
  • gamecast
  • Libri
  • Videogiochi
Copyright © Alpha Unity. Tutti i diritti riservati.​
Lettura: Le IA sembrano giudicare come noi, ma non capiscono ciò che dicono
Share
Notifica
Ridimensionamento dei caratteriAa
Tech iCrewPlay.comTech iCrewPlay.com
Ridimensionamento dei caratteriAa
  • Anime
  • Arte
  • Cinema
  • Cosechevalgono
  • gamecast
  • Libri
  • Videogiochi
Cerca
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Seguici
  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Copyright © Alpha Unity. Tutti i diritti riservati.​
NotiziaIntelligenza Artificiale

Le IA sembrano giudicare come noi, ma non capiscono ciò che dicono

Lo studio della Sapienza di Roma pubblicato su PNAS

Massimo 1 ora fa Commenta! 3
SHARE

Le intelligenze artificiali (IA) non hanno una vera capacità di giudizio: sanno imitare le nostre scelte, ma non comprendono ciò che stanno valutando.
A dimostrarlo è lo studio guidato da Walter Quattrociocchi dell’Università Sapienza di Roma, pubblicato sulla rivista PNAS (Proceedings of the National Academy of Sciences).
Secondo i ricercatori, la capacità di giudizio mostrata dai grandi modelli linguistici come ChatGPT, Gemini, Llama, DeepSeek e Mistral è soltanto un’illusione di intelligenza.

Contenuti di questo articolo
Plausibilità non è veritàIl pensiero simulatoIl rischio della delegaNon stiamo automatizzando il giudizio, ma la sua apparenza

Plausibilità non è verità

Il gruppo di Quattrociocchi ha analizzato il comportamento dei principali modelli linguistici chiedendo loro di valutare notizie online, distinguendo quelle reali dalle fake news.
Gli LLM hanno mostrato ottimi risultati nel riconoscere la disinformazione, ma con un limite enorme: non verificano i fatti, si limitano a riprodurre schemi linguistici coerenti.
Il giudizio che ne deriva, spiegano i ricercatori, non nasce da una comprensione reale, ma da una simulazione statistica che “suona” corretta.
In altre parole, l’IA non valuta la verità, ne costruisce l’apparenza.

Il pensiero simulato

Ia

“Questi sistemi sembrano valutare come noi solo perché imitano le tracce del pensiero, non il pensiero stesso”, spiega Quattrociocchi.
Lo studio ha messo a confronto i risultati ottenuti da esseri umani e IA sugli stessi compiti di analisi e giudizio. Il confronto mostra che, anche quando l’esito coincide, il meccanismo cognitivo è completamente diverso.
Dove l’uomo ragiona, verifica e collega esperienze, l’IA ricompone pattern linguistici appresi su enormi quantità di testo. È una forma di giudizio apparente, non consapevole.

Leggi Altro

LHC, la macchina più potente mai costruita: alle origini dell’universo
ITER, la macchina che imita il Sole: il sogno della fusione si avvicina
Gli ippopotami in Europa? Sì, e vissero molto più a lungo di quanto pensassimo
Alimentazione: guida ai falsi miti sulla nutrizione

Il rischio della delega

Gli autori dello studio avvertono che delegare decisioni complesse a modelli linguistici può diventare pericoloso.
Se un sistema simula solo la plausibilità del ragionamento, affidargli compiti come valutazioni etiche, selezioni di personale o gestione di politiche pubbliche potrebbe amplificare errori e bias senza che ce ne accorgiamo.
In un mondo sempre più automatizzato, questa differenza tra “pensare” e “simulare il pensiero” diventa una linea sottile ma cruciale.

Non stiamo automatizzando il giudizio, ma la sua apparenza

Dislessia

Il messaggio dello studio è chiaro: l’IA non giudica, ma imita.
La sua efficacia deriva dalla capacità di imitare le strutture del linguaggio umano, non dalla comprensione di ciò che esse significano.
Come sottolinea Quattrociocchi, “quello che stiamo automatizzando non è il giudizio, ma la sua apparenza”.
Una riflessione che chiama in causa non solo la ricerca scientifica, ma anche la responsabilità collettiva su come e quando usare questi strumenti.

Segui tech.iCrewPlay.com su Instagram per restare aggiornato sulle novità più rilevanti nel mondo dell’intelligenza artificiale.

Condividi questo articolo
Facebook Twitter Copia il link
Share
Cosa ne pensi?
-0
-0
-0
-0
-0
-0
lascia un commento lascia un commento

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer

Copyright © Alpha Unity. Tutti i diritti riservati.​

  • Anime
  • Arte
  • Cinema
  • Cosechevalgono
  • gamecast
  • Libri
  • Videogiochi
Bentornato in iCrewPlay!

Accedi al tuo account

Hai dimenticato la password?