Anche a te sarà capitato di vedere in qualche film che i protagonisti o antagonisti riescono a copiare la voce di un personaggio per aprire una porta o per sbloccare un qualsivoglia blocco narrativo.
Se fino a qualche anno fa queste cose le si potevano vedere solamente nei film adesso grazie ai moderni algoritmi di machine learning e deep learning, è possibile che queste cose avvengano realmente.
Questi algoritmi o tecniche vengono comunemente chiamate deepfake, in particolare audio deepfake. Gli hacker usano algoritmi molto sofisticati per clonare la voce e combinano le parole in modo da convincere le persone a spostare soldi dove non dovrebbero.
Casi recenti di audio deepfake
Negli ultimi anni queste tecniche stanno avendo sempre più successo, ma quanto sono accurati queste voci? Fino a pochi giorni fa non si aveva idea di quanto fossero accurati fino a che la società di consulenza sulla sicurezza NISOS ha pubblicato un rapporto che analizza uno di questi tentativi di frode e ha condiviso l’audio.
L’audio di seguito fa parte di un messaggio vocale inviato ad un dipendente di un’azienda di tecnologia in cui una voce che suona come l’amministratore delegato dell’azienda chiede al dipendente “assistenza immediata per finalizzare un accordo commerciale urgente”.
La qualità non è sicuramente eccezionale, ma se l’audio fosse inviato ad un dipendente assunto da poco probabilmente non farebbe molto caso alla qualità dell’audio, ma molto di più al contenuto.
Inoltre, come afferma Rob Volkert, un ricercatore al NISOS, se venisse chiesto ad una persona se la voce sembrasse più robotica o umana, probabilmente direbbe umana. La grossa fortuna o sfortuna, a seconda del punto di vista dalla quale la si vuole guardare, è che la voce del CEO era molto diversa dalla voce dell’audio e quindi questa situazione a insospettito il dipendente e ha vanificato l’attacco.