Attenzione alla nuova truffa telefonica che sfrutta l’IA per clonare la tua voce
Da GREEN ME
Attenzione alla nuova truffa telefonica che sfrutta l’IA per clonare la tua voce, come difenderti
Ilaria Rosella Pagliaro
Pubblicato il 6 Settembre 2023
Truffe vocali basate sull'Intelligenza Artificiale: come difendersi dalla clonazione delle voci e dalle frodi telefoniche
clonazione vocale@123rf.com
In questi ultimi anni – e specialmente in questi ultimi mesi – tutti abbiamo cominciato a familiarizzare con un numero sempre più vario e crescente di tecnologie basate sull’Intelligenza Artificiale (IA). Si tratta di uno strumento estremamente comodo, ma che se posto nelle mani sbagliate può essere utilizzato per scopi malevoli sempre più sofisticati, come ad esempio per perpetrare una nuova tipologia di truffe telefoniche.
Lo hanno confermato gli esperti di sicurezza informatica di Trend Micro, sottolineando come l’IA possa essere uno strumento potenzialmente nocivo se usato in modo improprio: questa tecnologia permette di clonare le voci delle persone, creando così scenari di rapimenti ed estorsioni, un fenomeno sempre più frequente che si sta espandendo su scala globale e che ha già raggiunto anche l’Italia.
Un esempio di frode basata con l’IA proviene dagli Stati Uniti, dove una donna in Arizona ha ricevuto una telefonata da un numero anonimo, che sosteneva che sua figlia fosse stata rapita. L’Intelligenza Artificiale impiegata dai criminali aveva riprodotto fedelmente la voce e le emozioni della bambina, generando il panico nella madre. Fortunatamente, però, la donna ha avuto la prontezza di riflessi di verificare la situazione prima di pagare il riscatto, scoprendo che la figlia era al sicuro.
Il modus operandi
Ma come fanno i malintenzionati a ottenere le informazioni necessarie? La risposta è sorprendentemente semplice: attraverso i social network. I cybercriminali esaminano i profili delle vittime, analizzano i loro amici e familiari, studiano le foto e soprattutto i video per raccogliere dati utili per registrare e replicare la voce, in modo da mettere in atto la cosiddetta “clonazione vocale“. Inoltre, grazie alla tecnologia avanzata, sono in grado di localizzare le loro vittime.
Per evitare di cadere in questa trappola, gli esperti suggeriscono di stabilire una parola chiave con amici e familiari a scopo precauzionale, una soluzione apparentemente banale, ma molto efficace: un’IA può replicare una voce, ma non può arrivare a conoscere informazioni così riservate, specie se condivise fuori dal mondo tecnologico, ovvero in presenza. In caso di telefonate sospette, poi, è fondamentale mantenere la calma ed approfondire le informazioni ricevute per controllare se sono veritiere. Infine, occorre sempre prestare la massima attenzione a ciò che si condivide sui social media.