L’Intelligenza artificiale non è immune dagli attacchi informatici

I sistemi basati sull’Intelligenza artificiale sono immuni dagli attacchi informatici? Pare di no. Le tecniche e gli obiettivi dei cyber criminali sono in costante progresso e spesso sfruttano l’attualità o i temi emergenti nel dibattito pubblico, come l’Intelligenza artificiale.
“Si potrebbero raggruppare gli attacchi all’AI in due macrocategorie – spiega all’Ansa Pierluigi Paganini, ceo di Cyberhorus e professore di Cybersecurity presso l’Università Luiss Guido Carli -. Cioè gli attacchi contro i sistemi e gli attacchi ai modelli di Intelligenza artificiale”.
Ad esempio, con l’aumento di popolarità del software di Intelligenza artificiale ChatGpt è stata osservata la creazione di nuovi virus e minacce informatiche, così come la creazione di e-mail che distribuiscono phishing.

Manipolazione dei dati di addestramento o modifica dei parametri del modello

“Alla prima categoria – continua Paganini – appartengono gli attacchi all’infrastruttura su cui si basa un sistema di AI, ad esempio, alle reti o ai server che lo ospitano, alle comunicazioni tra le componenti e l’accesso non autorizzato ai dati ed al modello stesso. Gli attacchi appartenenti alla seconda categoria prendono di mira specificamente il modello di AI utilizzato dal sistema. Un esempio è la manipolazione dei dati di addestramento o la modifica dei parametri del modello. In un attacco basato sulla manipolazione dei dati l’attaccante modifica o manipola i data set utilizzati per l’addestramento o l’alimentazione di un modello di Intelligenza artificiale con l’intento di interferire con il suo comportamento”.

Fornire ai sistemi dati studiati per influenzarne il comportamento

“Immaginiamo, ad esempio, di addestrare un sistema per il riconoscimento di un attacco informatico – osserva Paganini -: qualora un attaccante riuscisse a fornire false informazioni sugli attacchi nel set di addestramento potrebbe portare il modello a non riconoscere correttamente un attacco quando questo si verifica. In realtà i modelli possono essere attaccati non solo in fase di addestramento, ma anche in fase di esercizio, ovvero fornendo ai sistemi basati sull’AI dati studiati per influenzarne il comportamento e indurre il sistema a prendere decisioni errate”.

Eludere le limitazioni imposte per l’iterazione con gli umani

“Un’altra tecnica di attacco ai dati, nota come attacco di inferenza, consiste nel tentativo di ottenere informazioni sensibili dal modello di AI mediante una serie di interrogazioni ad hoc – puntualizza il ceo -. Questi attacchi potrebbero essere sfruttati per eludere le limitazioni imposte al modello nell’iterazione con gli umani. Una ulteriore tecnica di attacco potrebbe avere come obiettivo quello di ‘avvelenare’ il modello di Intelligenza artificiale usato da un sistema. Può essere condotto in diverse fasi del processo di addestramento, dalla raccolta dei dati all’addestramento stesso. Talvolta si parla anche di ‘modifica dei pesi del modello’, ovvero della capacità di un attaccante di modificare direttamente i pesi del modello durante la fase di addestramento”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *