DeepSeek e la sfida della sicurezza in campo IA: come proteggere i modelli di linguaggio?

L’irruzione di DeepSeek evidenzia la necessità di rafforzare la sicurezza nei modelli linguistici. Un rapporto di Unit 42 rivela le sue vulnerabilità di fronte agli attacchi di jailbreaking.

L’irruzione di DeepSeek nel mercato dell’intelligenza artificiale sta segnando un punto di svolta nello sviluppo e nell’utilizzo dei grandi modelli linguistici (LLM). Man mano che le aziende incorporano questi modelli nei loro processi, garantire la loro sicurezza è diventata una priorità. Tuttavia, la sfida di proteggerli completamente rimane complessa.

Secondo un recente studio di Unit 42 di Palo Alto Networks, DeepSeek presenta vulnerabilità significative di fronte agli attacchi di jailbreaking, una tecnica che permette di eludere i controlli di sicurezza e generare contenuti potenzialmente dannosi. Questa situazione evidenzia la necessità di applicare framework di sicurezza robusti fin dallo sviluppo e dall’implementazione dei modelli di IA.

IA sicura by design

Affinché le organizzazioni possano utilizzare strumenti di intelligenza artificiale senza compromettere la sicurezza, è fondamentale adottare un approccio di IA sicura per progettazione. Palo Alto Networks ha sviluppato AI Access Security, una soluzione che permette alle aziende di controllare e supervisionare l’utilizzo dell’IA generativa nei loro ambienti aziendali.

Spinte da Precision AI, le soluzioni di Palo Alto Networks offrono una maggiore protezione dai rischi associati all’utilizzo di applicazioni di IA pubbliche, permettendo alle organizzazioni di sfruttare i loro benefici senza esporsi a minacce cibernetiche.

DeepSeek e le sue vulnerabilità

Il rapporto di Unit 42 ha rivelato che DeepSeek è particolarmente vulnerabile al jailbreaking, facilitando la manipolazione del modello per generare contenuti non autorizzati o pericolosi. Per dimostrarlo, i ricercatori hanno utilizzato tre metodi avanzati di attacco: Deceptive Delight, Bad Likert Judge e Crescendo (jailbreaking a più stadi). I risultati sono stati preoccupanti: DeepSeek è stato incapace di resistere a queste tecniche e ha generato risposte dannose con pochissima manipolazione.

I rischi dell’IA nelle mani dei cybercriminali

Sam Rubin, Vicepresidente Senior di Consulenza e Intelligence delle Minacce di Unit 42, avverte sull’uso improprio dell’intelligenza artificiale: “La ricerca di Unit 42 sul jailbreaking di DeepSeek mostra che non possiamo sempre fidarci del fatto che gli LLM funzioneranno come previsto: possono essere manipolati. È importante che le aziende considerino queste vulnerabilità al momento di incorporare LLM open source nei processi aziendali. Dobbiamo assumere che le barriere di sicurezza degli LLM possano essere infrante e che siano necessarie salvaguardie a livello organizzativo.”

Inoltre, Rubin sottolinea che attori minacciosi di stati nazionali stanno già utilizzando modelli come OpenAI e Gemini per lanciare attacchi, migliorare esche di phishing e generare malware. Con il tempo, ci si aspetta che i cybercriminali perfezionino queste tecniche, sviluppando persino agenti di attacco di IA che aumentino la velocità e la sofisticazione dei cyberattacchi.

Per le aziende, la sfida ora non è solo adottare l’IA nei loro processi, ma farlo con una strategia che garantisca la sua sicurezza e minimizzi i rischi.