Cybersecurity: quali sono i rischi connessi all’Intelligenza Artificiale?
A cura di Pierluigi Paganini
L’Intelligenza Artificiale (IA) sta trasformando radicalmente ogni aspetto della nostra società, ivi compreso il settore della cybersecurity. L’Intelligenza Artificiale (IA) è fucina di nuove opportunità, ci troviamo dinanzi ad un cambiamento epocale senza precedenti ma che inevitabilmente porta con sé rischi significativi. Le tecnologie basate sull’IA, possono migliorare la capacità di rilevare e rispondere a minacce informatiche, tuttavia esse stesse possono essere utilizzate da varie categorie di attori malevoli, o peggio diventare bersagli di una nuova generazione di offensive mirate.
La principale preoccupazione della comunità di cyber sicurezza è il possibile impiego dell’IA da parte di organizzazioni dedite al cybercrime ed attori Nation-State per sviluppare attacchi sempre più sofisticati e difficili da individuare.
Ad esempio, sistemi basati su intelligenza artificiale generativa possono essere utilizzati da attaccanti con motivazione finanziaria per condurre sofisticate truffe ed attacchi di phishing in grado di eludere gli attuali sistemi di difesa.
Sono già disponibili nell’underground criminale piattaforme per generare condurre campagne di phishing su larga scala. Nel 2022, il Federal Bureau of Investigation (FBI) ha messo in guardia gli utenti in rete dal crescente utilizzo dell’intelligenza artificiale generativa per creare reti di falsi profili sui social media coordinati per ingannare le vittime e sottrarre loro denaro.
Lo scorso anno, nel panorama delle minacce sono state documentate due piattaforme rispettivamente chiamate FraudGpt e WormGpt, utilizzabili per condurre sofisticati attacchi di phishing e Business email compromise (Bec).
Diverse organizzazioni criminali oggi possono contare su piattaforme simili a queste due, che mediante una sottoscrizione al costo di poche centinaia di dollari per mese, consentono loro di organizzare attacchi complessi.
I sistemi basati su Intelligenza Artificiale possono essere utilizzati per automatizzare diverse fasi di un attacco, dalla ricognizione alla compromissione di un sistema obiettivo. L’Intelligenza Artificiale potrebbe essere impiegata per lo sviluppo di codice malevolo e tool di attacco. Diverse ricerche condotte da esperti del settore dimostrano che i modelli di IAG possono essere impiegati per sviluppare varianti di malware in grado di evadere i meccanismi di detection dei principali motori anti-malware.
Sebbene siano diversi i possibili abusi dell’Intelligenza Artificiale da parte degli attaccanti, in un momento storico come questo spaventa l’impiego della tecnologia in campagne di disinformazione.
Un deepfake è un contenuto multimediale, come un video o un’immagine, creato utilizzando l’Intelligenza Artificiale per alterare, sostituire o manipolare in modo realistico il volto, la voce o il corpo di una persona. Esistono numerose piattaforme e servizi offerti dai criminali informatici per la generazione di deepfake in grado di ingannare gli utenti in rete tanto da far sembrare autentici eventi che in realtà non lo sono. I deepfake sono un elemento centrale nelle campagne di disinformazione, così come in frodi finanziarie. Si sono osservati in questi ultimi mesi diversi attacchi basati su deep fake condotti da criminali informatici e attori che operano per conto di governi.
Il governo cinese sta già utilizzando l’Intelligenza Artificiale generativa in campagne di disinformazione per condurre operazioni di influenza contro paesi come gli Stati Uniti e Taiwan, come documentato in un rapporto del Microsoft Threat Analysis Center. Attori riconducibili al governo cinese sono intenti nella creazione di contenuti con l’IAG per manipolare le prossime elezioni negli USA, utilizzando account falsi sui social media per alimentare questioni su temi ‘divisivi’.
Altro aspetto legato alla diffusione di sistemi basati su IA all’interno della nostra società, è la possibilità che essi stessi siano oggetti di attacchi con conseguenti impatti sul contesto in cui sono impiegati.
In ambito cyber security un attaccante potrebbe “manipolare” i modelli di machine learning per eludere le difese e compromettere la sicurezza.
Si distinguono attacchi contro i sistemi stessi e gli attacchi ai modelli di Intelligenza Artificiale.
Alla prima categoria appartengono gli attacchi all’infrastruttura su cui si basa un sistema di intelligenza artificiale, ad esempio, alle reti o ai server che lo ospitano, alle comunicazioni tra le componenti e l’accesso non autorizzato ai dati ed al modello stesso. Gli attacchi appartenenti alla seconda categoria sono concepiti per interferire con il modello di IA utilizzato dal sistema. Un attaccante potrebbe manipolare i dataset utilizzati per l’addestramento del modello o modificarne i parametri. Pensiamo ad un sistema di difesa da attacchi cyber, qualora un attaccante riuscisse a fornire false informazioni sugli attacchi nel set di addestramento potrebbe portare il modello a non riconoscere correttamente uno specifico attacco quando questo si verifica.
Esistono poi attacchi di inferenza condotti nel tentativo di ottenere informazioni sensibili dal modello di IA mediante una serie di interrogazioni ad hoc. Questi attacchi potrebbero essere sfruttati per eludere le limitazioni imposte al modello nell’iterazione con gli umani.
In sintesi, un attacco potrebbe riuscire ad avvelenare il modello di Intelligenza Artificiale usato da un sistema colpendo diverse fasi del processo di addestramento, dalla raccolta dei dati all’addestramento stesso.
Quando si affrontano i rischi connessi all’utilizzo di sistemi basati su IA è necessario affrontare temi come etica e privacy.
Esiste un rischio concreto che sistemi basati su IA possano portare a discriminazioni e violazioni della privacy. Gli algoritmi di IA sono suscettibili a bias, ovvero la possibilità che algoritmi e sistemi di IA possano produrre risultati sistematicamente pregiudizievoli o imprecisi a causa di assunzioni errate nel processo di apprendimento automatico.
Il bias potrebbe portare quindi a decisioni non corrette se i dati utilizzati per addestrare un modello contengono pregiudizi. Questo è particolarmente preoccupante in ambiti come la cybersicurezza, dove una valutazione errata delle minacce può avere conseguenze gravi.
L’adozione massiva di IA in cybersecurity comporta rischi tutt’altro che trascurabili relativi ad una maggiore automazione e persino alla continuità operativa.
Se da un lato, l’IA può ridurre il coinvolgimento umano nella gestione della sicurezza migliorando l’efficienza, è possibile instillare un falso senso di sicurezza. Le organizzazioni potrebbero trascurare l’importanza della componente umana nelle attività di supervisione e valutazione di scelte critiche, aumentando il rischio di attacchi di esposizione alle minacce.
È essenziale che analisti di sicurezza continuino a svolgere un ruolo attivo nella valutazione delle minacce e nella gestione degli incidenti, anche in ambienti in cui vi è una adozione massiva di sistemi basati su IA.
L’integrazione dell’IA nei sistemi di sicurezza può comportare rischi per la continuità operativa. La compromissione di sistemi di IA potrebbe portare a interruzioni significative delle operazioni aziendali. È fondamentale che le organizzazioni implementino piani di continuità e strategie di gestione degli incidenti specifiche per affrontare incidenti legati all’IA.
In conclusione, l’IA è un potente alleato nella lotta contro le minacce informatiche, ma richiede un approccio equilibrato e collaborativo. È fondamentale investire in formazione specializzata, sviluppare tecnologie di sicurezza all’avanguardia e promuovere un dialogo costante tra esperti del settore, policymaker e sviluppatori. Solo così potremo sfruttare appieno i benefici dell’IA, mitigandone i rischi.