Quando si dice “ti hanno fregato la faccia”. Letteralmente.
Una creator di OnlyFans ha scoperto che le sue foto sono state modificate con l’intelligenza artificiale, facendola diventare qualcun’altra. O meglio: il suo corpo è stato usato per creare un fake completo, con tanto di nuovo volto generato da un algoritmo.
Il risultato? Una nuova identità chiamata “Sofía”, 19 anni, spagnola, attivissima su Reddit. Solo che… Sofía non esiste. E il corpo che usava? Era quello di Bunni, una vera modella britannica di 25 anni.
Deepfake + OnlyFans = truffa assicurata
Nel mondo dei contenuti a pagamento, rubare foto non è certo una novità. Ma stavolta il trucco è stato molto più raffinato. Non si sono limitati a spacciarsi per Bunni: le hanno sostituito la faccia, creando una nuova “persona” perfettamente credibile.
Una ragazza inventata da zero, con l’aspetto fisico di una modella reale, ma un volto generato al computer. Il tutto condito da post apparentemente innocui su Reddit: consigli su outfit, foto di animali, qualche messaggio nei thread NSFW… e nessun link diretto a OnlyFans.
Almeno in pubblico.
Il piano dietro la maschera

Bunni sospetta che il vero obiettivo fosse un altro: attirare utenti nei messaggi privati. Da lì, magari, passare un link truffa, chiedere soldi, promuovere un profilo fake. Una classica dinamica da catfishing, solo che potenziata da strumenti di AI accessibili a chiunque.
E funziona. Perché “Sofía” sembrava reale. Più reale di quanto ci piacerebbe ammettere.
Il lato oscuro dell’AI: identità rubate, faccia inventate
Se pensavi che i deepfake fossero roba da film o da politica internazionale, ripensaci. Oggi basta un tool AI e un po’ di creatività per creare una persona inesistente, appiccicarle un volto a caso e usare il corpo di qualcun altro senza il minimo consenso.
La cosa inquietante? Reddit non ha risposto nemmeno a una richiesta di commento. E mentre Bunni è riuscita a far rimuovere l’account fake contattando direttamente i moderatori, la verità è che per chiunque altro la faccenda sarebbe potuta finire molto peggio.
Denunciare? Impossibile. Costoso. Inutile.

Perché Bunni non ha fatto causa? Perché non conviene.
“Il costo per le azioni legali è assurdo, e probabilmente non servirebbe nemmeno a nulla.”
E qui sta il punto. La tecnologia corre. La legge? Resta indietro.
Le piattaforme non reagiscono, i truffatori cambiano nome e profilo in un click, e le vittime restano sole, magari con la propria immagine che gira per forum e social in versioni modificate, false, pornografiche.
Chi sarà il prossimo?
Bunni l’ha detto chiaramente:
“Non sono la prima. E di certo non sarò l’ultima.”
Il trend è in crescita. E chi lavora online, soprattutto nel settore dei contenuti espliciti, è sempre più vulnerabile.
La domanda ora è: quanto ci metteremo a prendere sul serio questo problema?
Tu ti fideresti ancora di quello che vedi online? E se un giorno trovassi il tuo volto in un profilo che non hai mai creato?
Seguici su Instagram per non perdere le storie vere che sembrano uscite da un episodio di Black Mirror.