L’Europa rallenta sulla regolamentazione dell’intelligenza artificiale. La Commissione europea ha annunciato un rinvio di 16 mesi per l’applicazione delle norme dell’Ai Act relative ai sistemi ad alto rischio, spostando la data limite da agosto 2026 a dicembre 2027. La decisione, inserita nel pacchetto “Digital Omnibus“, segna un cambio di direzione nelle politiche digitali del continente e solleva interrogativi sul ruolo che l’Unione europea vuole avere nei confronti dell’intelligenza artificiale.
La stessa Commissione, prima dell’annuncio ufficiale, aveva espresso timori che un rinvio potesse compromettere la credibilità della legge e l’efficacia del modello europeo in materia di sicurezza, trasparenza e tutela dei diritti, oltre che favorire un vantaggio competitivo a chi opera fuori dai confini dell’Unione o con regole meno stringenti.
Tra i più forti sostenitori della riforma c’è il presidente francese Emmanuel Macron, secondo cui: “Dobbiamo innovare prima di regolamentare e dobbiamo proteggerci per non essere sopraffatti dai concorrenti non europei”. Dello stesso avviso la Germania di Friedrich Merz.
La decisione che cambia i tempi della regolamentazione
Bruxelles ha ufficializzato lo slittamento attraverso una proposta che subordina l’entrata in vigore delle norme sulla disponibilità di strumenti di supporto, inclusi gli standard tecnici necessari a definire cosa rispetta le disposizioni del regolamento e cosa no. Il rinvio riguarda i sistemi di intelligenza artificiale classificati come “ad alto rischio”, ovvero quelle tecnologie impiegate in ambiti sensibili come la sanità, l’analisi dei curriculum, la valutazione degli esami scolastici, l’approvazione delle richieste di prestito, le infrastrutture critiche e le forze dell’ordine. La Commissione fissa un termine massimo di 16 mesi per implementare le disposizioni, una volta confermata la disponibilità degli standard.
Cosa prevede la modifica dell’Ai Act
La proposta introduce un meccanismo “stop-the-clock” che sospende temporaneamente l’obbligo di conformità per le aziende. Le regole sui sistemi ad alto rischio, che sarebbero dovuto scattare il 2 agosto 2026, slittano fino a dicembre 2027, dando alle imprese un periodo di grazia per adeguarsi. Il pacchetto Digital Omnibus prevede anche estensioni di alcune semplificazioni concesse alle piccole e medie imprese, con requisiti semplificati per la documentazione tecnica e un risparmio stimato di almeno 225 milioni di euro all’anno. Viene inoltre rafforzato il ruolo dell’Ufficio Ai, accentrando la supervisione dei sistemi basati su modelli di intelligenza artificiale per finalità generali come Gpt-4 di OpenAI e Gemini di Google.
Bruxelles propone anche un periodo di transizione per il watermarking, l’obbligo di etichettare i contenuti creati con l’intelligenza artificiale, e rinvia ad agosto 2027 le sanzioni previste per la mancata osservanza delle norme sulla trasparenza. La Commissione intende ampliare l’uso delle sandbox normative per favorire settori strategici come l’automotive e creare una sandbox a livello europeo a partire dal 2028.
Le ragioni dello stop
Il rinvio nasce dall’incrocio tra esigenze tecniche e pressioni politico-economiche di portata globale. Sul fronte tecnico, il ritardo nella definizione degli standard armonizzati ha creato un vuoto normativo che rende impossibile per le aziende dimostrare la conformità ai requisiti richiesti. La vicepresidente esecutiva della Commissione per la sovranità tecnologica, Henna Virkkunen, ha spiegato che “nel settore dell’intelligenza artificiale stanno accadendo alcune cose, gli standard sono in ritardo” e che la prossima fase importante “sarà il prossimo agosto, dove ci troveremo di fronte a delle vere e proprie sfide perché non abbiamo ancora gli standard tecnici, che devono essere pronti un anno prima”.
La dimensione geopolitica pesa altrettanto. Le pressioni del governo statunitense e delle Big Tech hanno raggiunto livelli inediti, con un investimento in attività di lobbying a Bruxelles che ha toccato i 151 milioni di dollari nel 2025. Ad agosto il segretario di Stato americano Marco Rubio ha invitato i diplomatici a indebolire il Digital Services Act dell’Unione e, nel corso degli ultimi mesi, colossi come Meta hanno fatto pressione per ottenere modifiche sostanziali al regolamento, considerate necessarie per non compromettere la competitività del settore tecnologico.
Sul fronte interno, oltre 50 gruppi industriali europei hanno chiesto alla Commissione di fermare l’applicazione della legge, evidenziando come l’assenza di un quadro operativo definito possa compromettere la competitività europea e ostacolare l’innovazione. Anitec-Assinform, l’associazione di Confindustria che rappresenta le imprese italiane dell’Information Technology, ha lanciato un appello per un rinvio di due anni, sostenendo che “i nuovi profili di compliance che prevede sono senza precedenti, e le imprese hanno bisogno di più tempo per adottarli efficacemente”.
Le critiche al rinvio e il dibattito sulla credibilità europea
La decisione ha scatenato reazioni contrastanti tra esperti e organizzazioni della società civile. Diversi osservatori interpretano il posticipo come una resa alle pressioni delle multinazionali tecnologiche e al governo di Donald Trump, mettendo in discussione la capacità dell’Europa di difendere il proprio modello regolatorio. Alcuni gruppi di difesa dei diritti digitali hanno criticato il pacchetto Omnibus per aver “mancato opportunità critiche di alzare la soglia di calcolo obsoleta per identificare i modelli di intelligenza artificiale che pongono un rischio sistemico”.
Virkkunen ha cercato di rassicurare, dichiarando che “questo non significa fare un passo indietro dalle regole, ma assicurarsi che strumenti di supporto come standard, specifiche e linee guida siano pronti prima che le regole ad alto rischio si applichino”. Eppure, il dibattito sta sollevando interrogativi sul futuro della governance tecnologica europea in un momento in cui la competizione globale sull’intelligenza artificiale si intensifica.
Se l’Ai Act rappresenta il tentativo più ambizioso al mondo di regolamentare lo sviluppo di questa tecnologia in rapida evoluzione, il rinvio evidenzia le difficoltà concrete di Bruxelles nel non cambiare rotta. La proposta ora dovrà essere approvata dalla maggioranza dei paesi dell’Unione e dal Parlamento europeo prima di diventare effettiva.
Quali sistemi Ai rientrano nell’alto rischio
L’Ai Act classifica come “ad alto rischio” quei sistemi che possono avere un impatto significativo su salute, sicurezza, diritti fondamentali, ambiente e democrazia. Tra questi rientrano le tecnologie utilizzate nelle risorse umane per lo screening dei candidati e le decisioni di assunzione, i sistemi di valutazione del credito che determinano l’accesso ai finanziamenti, gli algoritmi impiegati nell’istruzione per valutare studenti ed esami, e le applicazioni nelle forze dell’ordine per il riconoscimento facciale e la sorveglianza. In tutti questi settori, il regolamento europeo prevede obblighi stringenti di trasparenza, documentazione tecnica, valutazione dei rischi e supervisione umana.
