I criminali informatici rubano i dati biometrici facciali per creare deepfake con IA
Il malware mobile GoldPickaxe ruba dati biometrici facciali per creare deepfake utilizzati in un secondo momento dai criminali informatici per autenticare transazioni finanziarie fraudolente.
L’IA può contribuire positivamente alla nostra vita, ma ciò non toglie che non sussistano anche autentici pericoli se utilizzata dalle mani sbagliate.
Se è vero che, stando ad un rapporto di qualche tempo fa, la vasta maggioranza degli esperti di sicurezza informatica (96%) considera l’IA generativa come una minaccia, è anche vero che il 36% reputa che il suo utilizzo per manipolare o creare contenuti fasulli (deepfake) rappresenta una minaccia importante.
E il tempo non ha fatto che dar ragione a questo campione che si dice preoccupato. Gli esperti di ESET hanno scoperto che i criminali informatici stanno utilizzando diverse applicazioni mobili false per sostituire i volti delle vittime tramite servizi di scambio di tratti somatici con IA, ottenendo così l’accesso non autorizzato a relativi conti bancari – questo si evince dall’ultimo rapporto “Threat Report”.
“Il malware mobile Goldpickaxe è in grado di rubare i dati di riconoscimento facciale per creare video deepfake utilizzati dagli hacker per autenticare transazioni finanziarie fraudolente”, spiega Joseph Albors, direttore di ricerca e sensibilizzazione per ESET Spain.
“Goldpickaxe è disponibile in versione per Android e iOS e sta puntando prevalentemente vittime nel sudest asiatico tramite applicazioni maligne localizzate. Abbiamo poi rilevato altre varianti in America Latina e Sud Africa, per cui è bene restare all’erta davanti a queste minacce emergenti e rafforzare le nostre misure di sicurezza per restare protetti prima che bussino anche alle nostre porte”, commenta.
La società specifiche che la versione di Goldpickaxe per Android viene distribuita via sito web che viene spacciato per store ufficiale Google Play. Nel caso, invece, della versione di iOS, gli haccker utilizzano uno schema di ingegneria sociale su varie tappe per convincere le proprie vittime a installare un profilo di amministrazione dei dispositivi mobili (MDM), il che permette ai criminali informatici di ottenere un controllo completo sul dispositivo iOS del malcapitato.
Una volta installato, il malware richiede alla vittima di registrare un video come metodo di conferma sull’app falsa. In seguito, questo video viene utilizzato come materia prima per la creazione di video deepfake con il supporto di strumenti IA di scambio volti.
Come video falso non sarebbe sufficiente, di per sé, per ingannare i sistemi di sicurezza e autenticazione di una banca, ma il malware richiede alla vittima anche i documenti di identità, intercetta gli SMS e reindirizza il traffico grazie ad un server proxy.
ESET precisa, inoltre, che Goldpickaxe non realizza direttamente transazioni non autorizzate dal telefono della vittima, ma raccoglie tutte le informazioni necessarie della vittima per poter poi far accedere l’hacker all’app bancaria.
Consigli per evitare deepfake
La società di sicurezza informatica offre una serie di consigli per non cadere nelle grinfie dei criminali informatici e per evitare il rischio di furto di identità con deepfake. In primo luogo, si raccomanda di non scaricare applicazioni che non siano da store ufficiali, quali Google Play Store e Apple App Store.
In secondo luogo, si ribadisce l’importanza di saper studiare e identificare i siti web di phishing e di ricordare le tattiche utilizzate più di frequente.
In terzo luogo, si consiglia di eseguire analisi di sicurezza sui propri telefoni, soprattutto in caso si noti una qualche attività sospetta. Allo stesso tempo, se si rileva qualche app maligna, bisogna eliminarla immediatamente e riavviare il telefono. In alcuni casi, potrebbe essere necessario anche resettare il dispositivo.
Infine, per evitare le azioni di ingegneria sociale, si sottolinea di diffidare dalle notifiche di premi, buoni, sconti e quant’altro, assicurandosi prima che queste siano veraci. E ricordare, se sembra troppo bello per essere vero, probabilmente nasconde qualche tipo di truffa.