AI Act: il Regolamento europeo in materia di Intelligenza Artificiale

AI Act: il Regolamento europeo in materia di Intelligenza Artificiale

A cura di Ranieri Razzante

L’intelligenza artificiale è una realtà che si sta sviluppando sempre più velocemente e che già sta impattando sul nostro modo di vivere. Proprio per questo l’Unione europea ha avvertito la necessità di regolarne l’utilizzo.

Visti i grandi cambiamenti tecnologici in corso e le possibili nuove sfide, l’UE si impegna, mediante un intervento legislativo che assicuri il buon funzionamento del mercato interno, affinché sia i benefici che i rischi legati all’uso dei sistemi di intelligenza artificiale siano affrontati e distribuiti in modo adeguato a livello europeo. L’obiettivo principale è quello di sviluppare un’intelligenza artificiale sicura, etica ed affidabile.

Dal punto di vista normativo, il Regolamento europeo sull’intelligenza artificiale (AI Act) è il primo quadro giuridico assoluto in questa materia, ed è stato considerato uno step fondamentale per il futuro digitale dell’Europa. L’AI Act nasce da una proposta di Regolamento presentata dalla Commissione europea nell’aprile del 2021, con lo scopo di creare un quadro normativo apposito per l’intelligenza artificiale nell’Unione Europea.

Dopo anni di negoziazioni, il 13 marzo 2024 il testo è stato approvato dal Parlamento europeo. Tuttavia, le norme del Regolamento non saranno immediatamente applicabili. È, infatti, previsto un cuscinetto di 24 mesi (nella versione di Commissione e Parlamento) o di 36 mesi (nella posizione del Consiglio).

Con la presente proposta si tiene fede all’impegno politico della presidente Von Der Leyen che, nei suoi orientamenti per la Commissione 2019 – 2024, ha annunciato che la stessa avrebbe presentato una normativa per un approccio europeo coordinato con le implicazioni umane ed etiche dell’intelligenza artificiale.

A tal proposito, la Commissione ha pubblicato il 19 febbraio 2020 il Libro Bianco sull’intelligenza artificiale, promuovendo un approccio europeo all’eccellenza e alla fiducia.

L’AI dovrebbe rappresentare unicamente uno strumento utile per le persone e per la società, con il fine di migliorare il benessere degli esseri umani.

La proposta in questione mira a sviluppare un quadro giuridico per un’AI affidabile, basandosi, in primis, sui diritti fondamentali e prefiggendosi di dare ai cittadini la fiducia per adottare soluzioni basate sull’AI stessa.

Il Regolamento fissa delle regole armonizzate per lo sviluppo del rischio, l’immissione sul mercato e l’utilizzo di sistemi di AI nell’Unione europea seguendo un approccio basato sul rischio.

L’AI Act si inserisce nell’ambito della c.d. strategia “a Europe fit for the digital age” (un’Europa adatta all’era digitale), delineata dalla Commissione Europea.

L’articolo 3 del testo definisce l’intelligenza artificiale come “Un sistema basato su macchine progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo il dispiegamento e che, per obiettivi espliciti o impliciti, deduce dagli input ricevuti come generare output quali previsioni, raccomandazioni di contenuti o decisioni che possono influenzare ambienti fisici o virtuali”. Una definizione che può essere usata oggi tra le tante che ne sono state via via fornite.

La nuova legge si applicherà a tutti i soggetti, pubblici e privati, all’interno e all’esterno dell’Unione. L’AI Act segue un approccio per l’appunto basato sul rischio, dividendo i sistemi di intelligenza artificiale sulla base di quattro categorie: minimo, limitato, alto e inaccettabile. Maggiore è il rischio, maggiori sono le responsabilità ed i limiti per chi usa questi sistemi, fino ad arrivare ai modelli troppo pericolosi per essere utilizzati.

Tra gli impieghi vietati si trovano le tecnologie subliminali per manipolare i comportamenti delle persone, la categorizzazione biometrica, la raccolta di foto di volti da internet, i sistemi di punteggio sociale o social scoring e la polizia predittiva, cioè l’uso di dati sensibili per calcolare le probabilità che una persona commetta un reato. Su quest’ultimo utilizzo, per il vero, occorrerà fare chiarezza.

Le aziende dovranno, quindi, iniziare a valutare gli impatti dell’AI Act sulla propria attività, implementando strategie di governance e adottando politiche per conformarsi alle previsioni del Regolamento, con lo scopo di prevenire i rischi e sfruttare le opportunità che l’AI Act apporterà nel mercato.

I sistemi di intelligenza artificiale dovranno essere: trasparenti, sicuri, tracciabili, non discriminatori e rispettosi della privacy. Requisiti chiari e irrinunciabili.

Il Regolamento prevede, in sintesi;

  • regole per l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale nell’Unione europea;
  • divieti di alcune pratiche di AI;
  • misure per sostenere l’innovazione, con particolare attenzione alle start-up;
  • regole di trasparenza per i sistemi di AI;
  • requisiti specifici per i sistemi di AI ad alto rischio e obblighi per i loro operatori;
  • regole su monitoraggio del mercato, vigilanza del mercato, governance ed esecuzione.

L’AI Act si basa su un approccio che fa riferimento a due principi fondamentali: la fiducia e l’eccellenza. Entrambi gli elementi sono importanti per far sì che l’intelligenza artificiale entri in contatto con tutti i cittadini in modo sicuro.

L’utilizzo dei sistemi di AI scandisce il futuro che vivremo. I sistemi di intelligenza artificiale devono essere utilizzati correttamente da tutti i cittadini, per far sì che si possa davvero parlare di fiducia nell’AI.

Lo scopo principale è quello di promuovere “un’Europa resiliente per il decennio digitale”, dove tutte le imprese riescano a usufruire dei vantaggi offerti dell’intelligenza artificiale, sentendosi, al tempo stesso, protetti e sicuri. L’entrata dell’AI Act segnerà senza dubbio un traguardo significativo per il progresso dell’intelligenza artificiale nell’ambito dell’Unione europea. Si tratta di una sfida difficile ma, allo stesso tempo, essenziale.