Le aziende chiedono all’Europa di “mettere in pausa l’Ai Act”, ma la Commissione dice “no”

Lettera aperta di start up, aziende e fondi di investimento europei: “Così non si può innovare, servono regole praticabili”. Ma per la Commissione le scadenze non cambiano
4 ore fa
3 minuti di lettura
Intelligenza Artificiale
Intelligenza artificiale

L’AI Act rischia di fare la fine delle politiche green, sulle quali l’Unione europea sta facendo un parziale retro-front in nome della competitività e della semplificazione? Al momento non sembra, ma le pressioni dal mondo economico aumentano. E non solo quelle già risapute delle big tech americane, per le quali il regolamento sull’intelligenza artificiale mette solamente lacci e lacciuoli a un settore che dovrebbe invece viaggiare libero e incontrollato.

Ora le richieste di pensarci meglio arrivano anche da molto più vicino. Quasi 50 tra aziende, start up e fondi di investimento europei ieri hanno scritto una lettera all’AI Office, l’ufficio responsabile per l’applicazione dell’Ai Act, per chiedere “alla Commissione di proporre una sospensione di due anni dell’AI Act prima che entrino in vigore gli obblighi principali“. La lettera è poi stata resa pubblica dagli stessi firmatari come ulteriore mezzo di pressione. Ma la Commissione ha già fatto sapere che le scadenze non si toccano.

La Commissione: “Nessuno ‘stop the clock'”

Thomas Regnier, portavoce per la Sovranità digitale, ha dichiarato durante il briefing quotidiano con la stampa a Bruxelles che non ci sarà alcuna pausa nell’applicazione della normativa, nessuno “stop the clock” come era stato richiesto, poiché le scadenze legali sono “stabilite nel testo giuridico”.

Comunque, ha assicurato Regnier, la Commissione “prende molto sul serio le preoccupazioni sollevate dalla comunità e dall’industria dell’Ia” e “farà tutto il possibile per tenerne conto”, con l’obiettivo comune di far diventare l’Europa “un vero continente dell’intelligenza artificiale“.

Il portavoce ha elencato una serie di iniziative: “Stiamo preparando un pacchetto omnibus per la semplificazione digitale, stiamo discutendo i tempi per l’attuazione del codice di buone pratiche, con la fine del 2025 in esame”, stiamo istituendo un Serve Desk AI Act (uno sportello, ndr), per aiutare le aziende e offrire una guida chiara”.

Quello che potrebbe slittare ancora, dunque, è l’attuazione del testo finale del codice delle buone pratiche per i modelli di intelligenza artificiale per uso generale (detti GPAI, come Chat GPT e affini), che contiene le linee guida per aiutare le azione a conformarsi agli standard, che entreranno poi in vigore ad agosto 2027. L’introduzione del codice era inizialmente fissata per il 2 maggio.

La Commissione prevede di presentarlo nei prossimi giorni e che le aziende aderiscano entro il 2 agosto. L’adesione è volontaria, di conseguenza il Codice avrà tanto più valore e senso quante più imprese lo sottoscriveranno. Alcune grandi aziende tech hanno già avvisato che non lo faranno, e anche altre non sembrano entusiaste di farlo.

Le critiche delle aziende all’AI Act

Incertezza e complessità del quadro legale, paura delle sanzioni, e una materia che cambia troppo velocemente: sono questi gli elementi alla base della richiesta di ‘fermare l’orologio‘ avanzata dalle aziende. E lo slittamento del Codice di condotta ne è un esempio lampante.

Il fatto stesso che il codice sia “ancora in discussione (a poche settimane dall’entrata in vigore di alcune parti del regolamento, ndr) dimostra quanto sarebbe imprudente andare avanti in questo momento”, afferma la lettera, evidenziando che “le aziende non possono rispettare regole che non esistono ancora in forma praticabile“.

Insomma, “la legge sull’Ia dell’Ue rischia di creare un contesto normativo poco chiaro, frammentato e imprevedibile che minerà l’innovazione, scoraggerà gli investimenti e, in ultima analisi, lascerà l’Europa indietro nella corsa globale all’IA” rispetto a Cina e Usa, si legge ancora nella lettera. “Le industrie, in particolare quelle basate su applicazioni IA, potrebbero trasferirsi in giurisdizioni più agili”, avvisano i firmatari.

Ecco perché la pausa richiesta non sarebbe “fine a se stessa”, ma segnalerebbe “a innovatori e investitori che l’Unione è seriamente intenzionata a semplificare e a promuovere la competitività“, fornendo “un piano di attuazione praticabile, non una bomba a orologeria affrettata”.

Tra coloro che hanno firmato, ci sono nomi di peso come Airbus, TotalEnergies, Lufthansa, Mistral, BNP Paribas, Carrefour, Philips e altri colossi rappresentanti diversi settori.

I sistemi di AI “ad alto rischio”

Alcune problemi sollevati dalla lettera riguardano poi i sistemi classificati ad alto rischio, che dovranno applicare le norme nell’agosto 2026. Si tratta di sistemi delicati, come quelli per l’identificazione e la categorizzazione biometrica delle persone, il social scoring, la manipolazione subliminale, gli algoritmi usati dalle forze dell’ordine per valutare rischi e scoprire flussi di immigrazione illegale.

Secondo il regolamento, questi sistemi, in quanto classificati come ‘Ad alto rischio’, sono soggetti a particolari restrizioni. Tuttavia, non è ancora chiaro quali siano i test di conformità a cui sottoporsi, né gli standard tecnici, perciò le aziende e gli enti locali temono che la scadenza del 2026 sia troppo vicina e non consenta loro di adeguarsi.

Altre critiche riguardano l’ambiguità di alcune formulazioni relativamente a questi sistemi. Ad esempio, fanno notare le ong per i diritti digitali, il regolamento prevede che l’identificazione biometrica, che l’Ue rifiuta, possa essere ammessa se lo scopo è quello di “confermare che una determinata persona fisica è la persona che dice di essere” anche in spazi accessibili al pubblico a fini di attività di contrasto”.

Cos’è l’Ai Act

L’Ai Act (Regolamento EU 2024/1689) è la prima e più completa legge al mondo a disciplinare l’intelligenza artificiale. È stata adottata dal Parlamento europeo il 13 marzo 2024, pubblicata sulla Gazzetta ufficiale il 12 luglio 2024, ed entrata in vigore l’1 agosto 2024, con scadenze per l’applicazione tra il 2025 e il 2027.

Il regolamento ha degli obiettivi chiari e ambiziosi: garantire diritti fondamentali, sicurezza, democrazia e sostenibilità, favorire l’innovazione europea in un ambiente normativo stabile e chiaro, e creare un modello di riferimento globale (follow‑the‑EU). Ma la strada è ancora lunga.