Le intelligenze artificiali (IA) non hanno una vera capacità di giudizio: sanno imitare le nostre scelte, ma non comprendono ciò che stanno valutando.
A dimostrarlo è lo studio guidato da Walter Quattrociocchi dell’Università Sapienza di Roma, pubblicato sulla rivista PNAS (Proceedings of the National Academy of Sciences).
Secondo i ricercatori, la capacità di giudizio mostrata dai grandi modelli linguistici come ChatGPT, Gemini, Llama, DeepSeek e Mistral è soltanto un’illusione di intelligenza.
Plausibilità non è verità
Il gruppo di Quattrociocchi ha analizzato il comportamento dei principali modelli linguistici chiedendo loro di valutare notizie online, distinguendo quelle reali dalle fake news.
Gli LLM hanno mostrato ottimi risultati nel riconoscere la disinformazione, ma con un limite enorme: non verificano i fatti, si limitano a riprodurre schemi linguistici coerenti.
Il giudizio che ne deriva, spiegano i ricercatori, non nasce da una comprensione reale, ma da una simulazione statistica che “suona” corretta.
In altre parole, l’IA non valuta la verità, ne costruisce l’apparenza.
Il pensiero simulato

“Questi sistemi sembrano valutare come noi solo perché imitano le tracce del pensiero, non il pensiero stesso”, spiega Quattrociocchi.
Lo studio ha messo a confronto i risultati ottenuti da esseri umani e IA sugli stessi compiti di analisi e giudizio. Il confronto mostra che, anche quando l’esito coincide, il meccanismo cognitivo è completamente diverso.
Dove l’uomo ragiona, verifica e collega esperienze, l’IA ricompone pattern linguistici appresi su enormi quantità di testo. È una forma di giudizio apparente, non consapevole.
Il rischio della delega
Gli autori dello studio avvertono che delegare decisioni complesse a modelli linguistici può diventare pericoloso.
Se un sistema simula solo la plausibilità del ragionamento, affidargli compiti come valutazioni etiche, selezioni di personale o gestione di politiche pubbliche potrebbe amplificare errori e bias senza che ce ne accorgiamo.
In un mondo sempre più automatizzato, questa differenza tra “pensare” e “simulare il pensiero” diventa una linea sottile ma cruciale.
Non stiamo automatizzando il giudizio, ma la sua apparenza

Il messaggio dello studio è chiaro: l’IA non giudica, ma imita.
La sua efficacia deriva dalla capacità di imitare le strutture del linguaggio umano, non dalla comprensione di ciò che esse significano.
Come sottolinea Quattrociocchi, “quello che stiamo automatizzando non è il giudizio, ma la sua apparenza”.
Una riflessione che chiama in causa non solo la ricerca scientifica, ma anche la responsabilità collettiva su come e quando usare questi strumenti.
Segui tech.iCrewPlay.com su Instagram per restare aggiornato sulle novità più rilevanti nel mondo dell’intelligenza artificiale.