Il sito tecnologico Ars Technica, di proprietà di Condé Nast, ha interrotto il rapporto di lavoro con il reporter specializzato in intelligenza artificiale Benj Edwards dopo la pubblicazione di un articolo contenente citazioni generate dall’AI e attribuite a una fonte reale.
Il caso ha sollevato interrogativi sull’uso degli strumenti di intelligenza artificiale nelle redazioni e sulla responsabilità editoriale in un contesto in cui l’AI viene sempre più integrata nei processi di lavoro.
Cosa è accaduto: le citazioni inventate

L’articolo incriminato, pubblicato il 13 febbraio, riportava dichiarazioni attribuite all’ingegnere Scott Shambaugh. Dopo la pubblicazione, lo stesso Shambaugh ha segnalato che quelle parole non erano mai state pronunciate.
In seguito alla segnalazione, Ars Technica ha ritirato il pezzo. Il direttore responsabile Ken Fisher ha parlato di un “grave fallimento degli standard editoriali”, chiarendo che il testo includeva citazioni fabricate da uno strumento AI.
La testata ha definito l’episodio un caso isolato, ma sufficientemente serio da richiedere provvedimenti immediati.
Come si è generato l’errore
Secondo la versione fornita da Edwards, l’errore sarebbe nato durante l’utilizzo di un tool sperimentale basato su Claude Code, impiegato per organizzare materiali e riferimenti.
Non era prevista la generazione automatica dell’articolo. Tuttavia, nel tentativo di comprendere un malfunzionamento del sistema, il reporter ha interagito anche con ChatGPT. In quel passaggio sarebbe stata prodotta una parafrasi delle dichiarazioni originali, poi inserita nel testo come citazione diretta.
Edwards ha dichiarato di assumersi la piena responsabilità dell’accaduto, spiegando di aver lavorato in condizioni di salute precarie.
Sorry all this is my fault; and speculation has grown worse because I have been sick in bed with a high fever and unable to reliably address it (still am sick) I was told by management not to comment until they did. Here is my statement in images below arstechnica.com/staff/2026/0…
— Benj Edwards (@benjedwards.com) 15 febbraio 2026 alle ore 22:03
[image or embed]
La reazione di Ars Technica
Dopo la ritrattazione, la redazione ha annunciato di aver completato una revisione interna e di aver adottato “i passi appropriati”. Pochi giorni dopo, la biografia di Edwards è stata modificata al passato, confermando di fatto la cessazione del rapporto professionale.
Ars Technica ha inoltre comunicato l’intenzione di pubblicare una guida pubblica per spiegare come utilizza e come non utilizza l’intelligenza artificiale nel proprio lavoro editoriale.
La testata non ha rilasciato ulteriori commenti sulle decisioni relative al personale.
Il contesto: AI e newsroom sotto pressione
Il caso si inserisce in un momento particolarmente delicato per il settore dei media. Molte redazioni stanno sperimentando l’integrazione dell’AI per:
- supportare la ricerca
- velocizzare la produzione
- strutturare contenuti
- analizzare dati
Parallelamente, si moltiplicano le tensioni legate a copyright, trasparenza e affidabilità. L’ecosistema digitale è attraversato da controversie tra editori e aziende tecnologiche, mentre strumenti come le AI Overviews di Google modificano il traffico verso i siti di informazione.
In questo scenario, anche un singolo errore può avere un impatto reputazionale significativo.
Errore umano o problema strutturale?
La questione centrale non riguarda solo la citazione falsa. Riguarda il modo in cui l’AI viene inserita nei flussi di lavoro giornalistici.
L’episodio dimostra che:
- l’AI può generare testi plausibili ma inaccurati
- la verifica manuale resta indispensabile
- le linee guida interne devono essere esplicite
- la responsabilità finale è sempre umana
L’ironia del caso è evidente: un reporter specializzato in intelligenza artificiale coinvolto in un errore legato all’intelligenza artificiale.
Ma il punto non è l’ironia. È la dimostrazione che la tecnologia amplifica errori preesistenti, non li sostituisce.
Implicazioni per il giornalismo digitale
Il caso Ars Technica evidenzia tre necessità operative:
- protocolli chiari sull’uso dell’AI
- verifica sistematica delle citazioni
- trasparenza verso i lettori
In un momento in cui la fiducia nel sistema informativo è fragile, la gestione dell’AI diventa una questione strategica.
Il futuro del giornalismo digitale non dipenderà dall’adozione o dal rifiuto dell’intelligenza artificiale, ma dalla capacità di integrarla senza compromettere accuratezza e credibilità.
FAQ
Perché Ars Technica ha licenziato il reporter?
Per la pubblicazione di citazioni generate da strumenti AI e attribuite a una fonte reale che non le aveva mai pronunciate.
L’articolo era scritto interamente dall’AI?
No. Secondo le dichiarazioni ufficiali, il testo era redatto da giornalisti umani, ma le citazioni errate sono nate durante l’uso di strumenti AI di supporto.
È un caso isolato nel settore?
No. Diverse redazioni hanno affrontato controversie simili legate all’uso improprio dell’intelligenza artificiale.
Ars Technica cambierà le proprie politiche sull’AI?
La testata ha annunciato la pubblicazione di una guida per chiarire le modalità di utilizzo dell’AI nel processo editoriale.
L’uso dell’intelligenza artificiale nelle redazioni è una risorsa o un rischio? Scrivi la tua opinione nei commenti e seguici su Instagram per aggiornamenti su tecnologia, media e innovazione digitale.