WormGPT, il primo aspetto negativo di ChatGPT
Gli hacker ricorrono all’intelligenza artificiale per lanciare attacchi di phishing più convincenti.
L’intelligenza artificiale si è affermata come la grande tendenza tecnologica dell’attualità, consacrando ChatGPT come lo strumento forse più popolare. Utenti e imprese hanno iniziato a testare i vantaggi dei chatbot e dell’intelligenza artificiale generativa per ottenere risposte rapide, risparmiare tempo, concentrarsi su compiti davvero importanti e rilanciare la produttività.
Ma questo progresso porta con sé anche alcune ombre. Tra queste, l’utilizzo di questa tecnologia da parte di criminali informatici.
Stando alle parole della società di sicurezza Panda Security, “il problema non sono tanto le applicazioni legittime, quanto quelle che si trovano ai bordi di questa legittimità, più oscure”, senza limiti a livello etico.
È il caso di WormGPT, un modello di trasformatore generativo pre-addestrato che è stato creato con il preciso scopo di causare del male. Si tratta di uno strumento di pagamento che è stato addestrato con diverse fonti malware e che genera testo che sembra scritto da una persona.
E proprio in questo si trova il problema. Gli hacker possono utilizzarlo per redigere e-mail più convincenti, senza i tipici errori grammaticali né i classici segnali di allarme che accompagnano molte mail di phishing e attacchi BEC.
Inoltre, poiché è facile da utilizzare, anche persone senza esperienza possono ricorrere a questo strumento per lanciare attacchi massivi e personalizzati in appena qualche minuto.
Panda Security lancia poi un monito sulle interfacce simili a ChatGPT, progettate con il chiaro obiettivo di ingannare gli utenti e sottrarre informazioni sensibili.
“Non ci stupisce la velocità con cui queste sono nate e si sono diffuse, era solo una questione di tempo ed è stato veloce”, dichiara Hervè Lambert, Global Consumer Operations Manager per Panda Security.
“La principale differenza con il modello originale è che qui si possono creare o si può richiedere di creare codici dannosi”, visto che queste soluzioni mancano di regole e dei “filtri di sicurezza permanenti”.
“Combattere l’intelligenza artificiale con l’intelligenza artificiale è quasi un imperativo per le società in questo nuovo contesto”, suggerisce Lambert. “E ovviamente la regolamentazione internazionale qui gioca un ruolo cruciale: bisogna porre dei limiti a questo enorme spazio per controllare le erbe infestanti che si presentano e permettere ai bellissimi progressi che verranno di sbocciare”.