Fujitsu mette a punto una metodologia per evitare problemi etici in sistemi di intelligenza artificiale

La multinazionale giapponese mette a disposizione degli sviluppatori un kit gratuito di strumenti per valutare il rischio nelle prime tappe.

Per limitare il rischio collegato a sistemi di intelligenza artificiale, Fujitsu mette a disposizione degli sviluppatori un kit di strumenti di propria creazione con indicazioni per valutare le implicazioni etiche.

Il kit comprende case study e materiali di riferimento, tra cui whitepaper, un manuale di procedura e un metodo per chiarire i requisiti delle linee guida su etica e intelligenza artificiale scritte in linguaggio naturale. Si tratta di un modello che trae ispirazione dalle linee guida pubblicate dalla Commissione Europea.

L’intenzione alla base è quella di evitare equivoci e altri problemi dovuti a discrepanze nell’interpretazione delle indicazioni delle linee guida e di offrire la possibilità di rilevare e prevenire problematiche di natura etica proprio nelle prime fasi del processo di sviluppo.

Fujitsu ha analizzato incidenti passati connessi con l’intelligenza artificiale e ha dato vita ad un metodo di valutazione che consentirà di individuare sistematicamente questioni etiche rilevanti.

Questi strumenti sono disponibili gratuitamente e hanno l’obiettivo di promuovere l’introduzione di sistemi di intelligenza artificiali sicuri nella società. Attualmente, è possibile fare il download in lingua giapponese e successivamente sarà disponibile anche la versione in inglese.

Fujistu si è formalmente impegnata a collaborare al fianco di organismi governativi, imprese e ricercatori per perfezionare questa nuova metodologia. Per questo motivo, pubblicherà una versione più estesa del pacchetto durante l’anno fiscale 2022.