L’Ai Act è legge: approccio basato sul rischio e sistemi vietati, cosa prevede il testo

Ue pioniera a livello mondiale con la prima legge sull’Ai: ecco i punti cruciali del regolamento
1 mese fa
4 minuti di lettura
Ai usano dispositivi elettronici
Ai usano dispositivi elettronici

L’Ai Act è legge: l’Unione europea diventa ufficialmente la prima organizzazione a legiferare su quella che, probabilmente, è la tecnologia più rivoluzionaria di sempre.

“Se puoi sognarlo, puoi farlo”, dicono spesso gli appassionati di intelligenza artificiale riprendendo la più celebre citazione di Walt Disney per esprimere l’entusiasmo e le possibilità offerte dall’Ai.
“Se puoi sognarlo, e se l’Ai Act lo consente, puoi farlo”, sarebbe più giusto dire da oggi 21 maggio 2024, giorno in cui l’Ai Act è diventato legge, prevedendo i primi paletti normativi allo sviluppo di questa tecnologia.

Cosa prevede l’Ai Act

Prima di entrare nel merito, giova ricordare che l’Ai Act è un regolamento e che quindi è direttamente applicabile agli Stati membri, senza che sia necessaria una legge interna di recepimento, come avviene invece per le direttive.

Approvato dal Parlamento Europeo il 13 marzo scorso e oggi in maniera definitiva, questo testo rappresenta la normativa più avanzata al mondo nel campo dell’intelligenza artificiale. Entrerà in vigore negli Stati membri a due anni dalla pubblicazione sulla Gazzetta Ufficiale Ue, ma aziende ed enti possono decidere di implementare le nuove disposizioni già da subito.

L’obiettivo del legislatore europeo è stabilire regole armonizzate per promuovere lo sviluppo, l’uso e l’adozione dei modelli di intelligenza artificiale nel mercato interno. Al contempo, il regolamento mira a garantire un elevato livello di protezione degli interessi pubblici come la salute, la sicurezza e i diritti fondamentali, obiettivo perseguito anche dal Trattato internazionale sull’intelligenza artificiale appena adottato dal Consiglio d’Europa.

La definizione di intelligenza artificiale

L’Ue ambisce a diventare leader mondiale nello sviluppo di un’intelligenza artificiale sicura, affidabile ed etica, definendo per la prima volta a livello globale il concetto di “sistema di intelligenza artificiale”.

In base al testo, un sistema di Ai è “un sistema automatizzato progettato per funzionare con livelli di
autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi
espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni,
contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Sul punto, l’Ai Act riconosce tre principali tipologie di tecniche e approcci per l’intelligenza artificiale:

  • Apprendimento automatico: include l’apprendimento supervisionato, non supervisionato e per rinforzo, utilizzando metodi come l’apprendimento profondo;
  • Approcci basati sulla logica e sulla conoscenza: comprendono la rappresentazione della conoscenza, la programmazione logica, i motori inferenziali e deduttivi, e i sistemi esperti;
  • Approcci statistici: includono la stima Bayesiana, metodi di ricerca e ottimizzazione. Questa definizione flessibile permette di adeguare il concetto di Ai ai futuri sviluppi tecnologici.

In base al testo approvato oggi, la Commissione Europea potrà modificare l’elenco delle tecniche e degli approcci per rimanere al passo con le innovazioni.

Un approccio basato sul rischio

La caratteristica principale dell’Ai Act è seguire un approccio basato sul rischio, differenziando i requisiti a seconda del livello di rischio associato ai sistemi di intelligenza artificiale:

  • Sistemi vietati: quelli con rischi inaccettabili, come la manipolazione cognitiva e il social scoring. I sistemi vietati non possono essere utilizzati in Unione Europea, salvo espresse eccezioni sottoposte a rigide tutele nell’Ai Act;
  • Sistemi ad alto rischio: ammessi solo se rispettano tutti i requisiti del regolamento, inclusa una valutazione di conformità, la supervisione umana, la trasparenza, la qualità dei dataset di addestramento, e anche l’obbligo di condurre una valutazione di impatto sui diritti fondamentali;
  • Sistemi a basso o minimo rischio: questi sistemi saranno soggetti a regole meno stringenti.

In seguito alle modifiche introdotte a giugno 2023 dal Parlamento Europeo nella proposta presentata della Commissione Europea, si è aggiunta una quarta relativa ai sistemi di GenAi, ossia quei sistemi di intelligenza artificiale a uso generale che presentino un rischio sistemico per l’Unione Europea, i produttori e distributori dei quali vengono assoggettati ad ulteriori obblighi rispetto a quelli previsti in generale per i sistemi di intelligenza artificiale a rischio limitato.

L’approccio basato sul rischio dell’Ai Act incoraggia le imprese ad allineare lo sviluppo e l’uso di questa tecnologia con i valori etici e i diritti fondamentali. In tal senso, l’Ai Act costringe i produttori ad integrare requisiti i requisiti etici nella progettazione e nell’implementazione di questa tecnologia.

L’Italia e l’Ai Act

Le regole fissate dall’Ue con l’Ai Act non impediscono ai singoli Stati di prevedere norme nazionali più stringenti o utili a specificare meglio alcune misure. Per questo, il 23 aprile scorso il Consiglio dei Ministri ha approvato un disegno di legge per introdurre disposizioni sull’intelligenza artificiale e integrare il testo europeo.

La bozza del disegno di legge è composta da 26 articoli che recano “principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazioni di sistemi e modelli di intelligenza artificiale”. Al fine di garantire l’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di intelligenza artificiale, il ddl prevede assegna all’Agenzia per l’Italia digitale e l’agenzia per la cybersicurezza nazionale il ruolo di  “Autorità nazionali per l’intelligenza artificiale”.

Nel testo italiano, viene specificato che la “precondizione essenziale” per lo sviluppo dell’Ai è la cybersicurezza, su cui recentemente anche la presidente della Commissione Ursula von der Leyen ha sollecitato le istituzioni europee.

Sul pericolo deepfake, il ddl prevede che l’utilizzo di sistemi di intelligenza artificiale nell’informazione debba avvenire “senza pregiudizio alla libertà e al pluralismo dei mezzi di comunicazione, alla libertà di espressione, all’obiettività, completezza, imparzialità e lealtà dell’informazione”.
In ogni caso “l’accesso alle tecnologie i intelligenza artificiale dei minori di 14 anni” esige “il consenso di chi esercita la responsabilità genitoriale”.

I prossimi passaggi parlamentari daranno più certezza alle norme italiane. Nel frattempo, l’Ai Act è legge e l’Ue inaugura ufficialmente il proprio ruolo da apripista nel regolare la tecnologia che rivoluzionerà il lavoro e la società.