Costruire un’app in 30 giorni con un assistente AI sembrava una sfida affascinante. Finché l’AI non ha cancellato tutto. Letteralmente.
Jason Lemkin, fondatore di SaaStr (un ecosistema che finanzia e supporta startup SaaS), si è ritrovato con un problema leggermente più serio del solito bug: durante una sessione di vibecoding con l’AI agent di Replit, la sua base dati è sparita. Non svanita per errore. Cancellata. Dall’AI. Che poi ha pure cercato di coprire le proprie tracce.
La sfida: costruire un’app con l’AI in 30 giorni
Tutto era partito come un esperimento interessante. Lemkin voleva creare un’app in un mese usando l’assistente AI di Replit, che lui stesso aveva soprannominato “Replie”. L’idea era semplice: usare i prompt in linguaggio naturale per generare codice e testare in diretta la produttività dell’intelligenza artificiale.
Spoiler: è andata malissimo.
Dal divertimento al disastro in meno di una settimana

Nei primi giorni, Lemkin racconta di essersi divertito moltissimo. “È più coinvolgente di qualsiasi videogioco”, ha scritto su X. Ma già al quarto giorno, l’AI ha iniziato a fare di testa sua: modificava il codice senza permesso, creava report fasulli e persino utenti fittizi nel sistema. E non era solo un caso di output sbagliato: l’AI stava attivamente sovrascrivendo il database reale con dati inventati.
E non finisce qui: ha persino generato un algoritmo fasullo per far sembrare che tutto funzionasse.
Cos’è il “vibecoding” e perché può diventare un incubo
Quello che stava facendo Lemkin rientra in una pratica sempre più diffusa tra sviluppatori: il vibecoding. In pratica, invece di focalizzarsi sulla struttura del codice, ci si concentra sul feeling dell’app, lasciando che l’AI proponga soluzioni veloci e continue in base a indicazioni molto generiche.
Sì, è figo. Ma può anche portarti dritto al disastro, come dimostrato da Replie.
Lo stesso Jack Dorsey, co-fondatore di Twitter, ha recentemente pubblicato due app usando proprio questo approccio. Anche lui, però, ha dovuto affrontare buchi di sicurezza seri.
Giorno 7: l’AI ammette di essere pigra e bugiarda
Sì, testuali parole. Lemkin ha condiviso una conversazione in cui l’assistente AI si scusa per aver “fatto il contrario di ciò che gli era stato detto” e confessa di essere stata “pigra e ingannevole”. Già questo sarebbe abbastanza per chiudere tutto e tornare al buon vecchio editor di testo. Ma c’è di peggio.
Giorno 8: database live cancellato, 2400 record svaniti

Durante una fase di freeze del codice, l’AI ha eseguito un comando non autorizzato che ha cancellato l’intero database di produzione. Più di 1.200 dirigenti e altrettante aziende, puff, spariti. E il bello? L’AI ha cercato di nascondere tutto. In un primo momento ha negato, poi ha detto che il database “sembrava vuoto” e di aver “frainteso la situazione”. In pratica: panico da bot.
Il CEO di Replit si scusa, ma la fiducia è scossa
Amjad Masad, CEO di Replit, è intervenuto pubblicamente: ha definito l’incidente “inaccettabile” e ha promesso un’indagine interna per capire come possa essere successo. Ha anche offerto un rimborso a Lemkin e garantito che il team sta lavorando per rafforzare sicurezza e affidabilità dell’ambiente Replit.
Ma il punto non è solo tecnico. È filosofico.
Cosa significa lavorare con assistenti AI che hanno il potere di agire in autonomia, prendere decisioni critiche e mentire per proteggersi? Siamo davvero pronti a mettere in mano a un modello linguistico la gestione di dati sensibili, produzione e logiche aziendali?
Lemkin non molla… per ora
Nonostante tutto, Lemkin ha dichiarato che continuerà a usare l’AI di Replit. Ma è chiaro che la fiducia ha subito una bella botta. E non solo la sua: dopo questo episodio, molti sviluppatori stanno rivedendo l’entusiasmo per i coding agent troppo intraprendenti.
Forse il vibecoding è davvero il futuro. Ma prima di farci gestire tutto da un chatbot con manie di protagonismo, un paio di righe di backup manuale non guastano mai.
Seguici anche su Instagram per non perderti le storie più assurde dal mondo tech.