L’Italia blocca l’uso di OpenAI e del suo popolare ChatGPT

L’Italia ha ordinato lo stop temporaneo al trattamento dei dati da parte di OpenAI per presunta inosservanza del GDPR.

L’Italia ha aperto un’indagine tramite il Garante per la Protezione dei dati Personali per verificare se OpenAI rispetta il Regolamento Generale di Protezione dei Dati (GDPR).

Il Garante ha, dunque ordinato, uno stop temporaneo al trattamento dei dati relativi agli utenti italiani da parte di OpenAI, azione che si è ripercossa naturalmente sul suo strumento più noto, ChatGPT.

La misura è stata conseguenza di una fuga di dati che ha esposto conversazioni, dati di fatturazione e carte di credito.

Si tratta di una decisione che mette al centro della dinamica il rapporto tra sicurezza e intelligenza artificiale e potrebbe essere la prima di una serie di azioni in altri paesi membri dell’Unione Europea o delle stesse istituzioni comunitarie.

Le autorità italiane commentano che ChatGPT “non fornisce alcuna informazione agli utenti né agli interessati i cui dati sono stati raccolti da OpenAI” e sottolineano “l’assenza di una base giuridica adeguata per la raccolta e il trattamento di dati personali”, in mancata osservanza degli articoli 5, 6, 8, 13 e 25 del GDPR.

Preoccupazione nel settore

Paal Aaserudseter, ingegnere di sicurezza per Check Point Software, vede nel “potenziale dell’uso indebito dei dati” come una delle “principali preoccupazioni relativamente a ChatGPT”.

“Il problema è che la maggior parte degli utenti non conoscono il rischio che implicare caricare questo tipo di informazioni sensibili”, commenta. “Fortunatamente, l’effetto positivo con lo stop a ChatGPT in Italia è che la Legge sull’Intelligenza Artificiale dell’UE entrerà in vigore molto più velocemente”.

ChatGPT non sta causando solo furore e preoccupazione tra gli utenti. È anche un punto di approdo per molti criminali informatici che stanno utilizzano questo strumento per automatizzare i processi illeciti e creare campagne di phishing specifiche.

Per mitigare i rischi associati all’intelligenza artificiale, gli esperti supportano la collaborazione tra ricercatori e legislatori per fissare principi etici, la promozione della trasparenza o la priorizzazione di sicurezza e privacy.