“Stop the clock”: perché cresce la pressione per rinviare l’AI Act

Il primo regolamento europeo sull’intelligenza artificiale rischia di essere sospeso. Imprese, startup e governi chiedono più tempo e meno burocrazia. Tra mancanza di standard tecnici e pressioni americane
2 giorni fa
3 minuti di lettura
ai intelligenza artificiale

A pochi mesi dalla sua approvazione definitiva, l’AI Act – la prima legge al mondo sull’intelligenza artificiale – rischia già di finire in stand-by. Una proposta per sospenderne l’enforcement sarà al centro del prossimo Consiglio Telecomunicazioni dell’Unione europea, in programma il 6 giugno, dopo che la Polonia ha formalmente chiesto di “stop the clock”, ossia congelare le scadenze applicative in attesa che siano pronte le regole attuative. L’iniziativa, trapelata nei giorni scorsi in un’anticipazione di MLex, riflette crescenti pressioni da parte di governi e imprese, preoccupati che l’AI Act, così com’è, possa penalizzare lo sviluppo tecnologico europeo.

Secondo la nota che sarà discussa dai ministri, la sospensione riguarderebbe anche altri pacchetti normativi digitali, come il Data Act e il Digital Services Act, nei casi in cui manchino ancora standard tecnici essenziali. Ma il cuore del dibattito resta proprio l’AI Act, che impone obblighi rigorosi per i sistemi considerati “ad alto rischio” e introduce nuove regole anche per l’intelligenza artificiale generativa, come ChatGPT o Gemini di Google.

Le norme più controverse

A sollevare perplessità sono in particolare quattro aspetti della legge. Il primo riguarda i modelli generativi di AI, che dovranno rispettare requisiti di trasparenza e sicurezza molto stringenti, tra cui l’obbligo di documentare i dati di addestramento e garantire il rispetto del diritto d’autore. Una disposizione vista da molti come un tentativo di imbrigliare i big americani del settore – e non a caso Washington ha inviato una lettera formale a Bruxelles per contestarla.

Secondo punto critico: la mancanza di standard tecnici. Per certificare un sistema AI come conforme all’AI Act, servono strumenti operativi – linee guida, schemi di valutazione, enti terzi – che in gran parte non sono ancora disponibili. Senza questi elementi, denunciano sia Varsavia che molte imprese, è impossibile applicare la legge in modo efficace.

Il terzo fronte riguarda i costi per le piccole e medie imprese, che lamentano oneri burocratici eccessivi. Secondo uno studio citato da Sifted, una startup europea dovrebbe investire fino a 200 mila euro l’anno e 12 mesi di lavoro solo per adeguarsi alle nuove regole. Non sorprende quindi che tra le proposte ci sia l’ampliamento delle esenzioni per le PMI, così come l’introduzione di deroghe per i sistemi di bassa complessità che oggi rischiano di dover affrontare lo stesso iter di certificazione dei sistemi più sofisticati.

Infine, viene segnalato il rischio di sovrapposizioni normative. L’AI Act si inserisce in un mosaico legislativo che comprende anche il DSA, il DMA, il Data Act e altre cento normative digitali, su cui hanno voce in capitolo 270 authority nazionali. Per molte aziende, orientarsi tra questi testi è un’impresa. Da qui l’idea di creare un forum interistituzionale che coordini le diverse normative digitali europee.

Il fronte politico: da Berlino a Varsavia

La spinta a rivedere o almeno rinviare l’enforcement dell’AI Act arriva anche da governi strategici come la Germania. Già durante i negoziati finali nel 2023, Berlino si era unita a Parigi per attenuare le norme sui foundation models, preoccupata di danneggiare aziende emergenti come Aleph Alpha e Mistral. Ora, secondo fonti di settore, il nuovo esecutivo tedesco potrebbe chiedere di alleggerire ulteriormente il pacchetto, spinto dalle pressioni dell’industria nazionale.

La Polonia, invece, ha guidato l’iniziativa più concreta: una richiesta formale di congelare il calendario di attuazione. Varsavia motiva la mossa con la necessità di evitare “confusione giuridica” in assenza di strumenti attuativi. Ma dietro c’è anche una visione più ampia: evitare che l’Europa si impegni su una regolamentazione troppo rigida mentre altrove – dagli Stati Uniti alla Cina – si corre in direzione opposta.

Pressioni dagli Stati Uniti e scenari geopolitici

Il dibattito europeo non si svolge nel vuoto. Da mesi, gli Stati Uniti esercitano pressioni dirette e indirette sull’AI Act, temendo che le nuove regole penalizzino le proprie aziende. L’AI Act è dunque ora una carta negoziale, per usare un linguaggio caro a Donald Trump, nei rapporti transatlantici.

L’idea di posticiparne l’enforcement potrebbe essere letta in due modi: da un lato, come una mossa tattica per evitare lo scontro frontale e guadagnare tempo per un dialogo internazionale sull’intelligenza artificiale (anche se il Trade & Technology council non ci è riuscito in tre anni di governo Biden, difficile riesca con la nuova amministrazione). Dall’altro, come un cedimento alle pressioni di Washington, che ha già criticato la legge nei suoi aspetti più stringenti.

Secondo alcuni analisti, cedere terreno ora potrebbe minare la credibilità normativa dell’Europa, da anni autoproclamatasi “superpotenza regolatoria” nel campo digitale. Ma altri sostengono che una pausa strategica possa aiutare a migliorare la legge, renderla più compatibile con l’ecosistema economico europeo e più efficace nel lungo termine.

Una legge ancora in bilico

Con l’industria chiamata a prepararsi a obblighi complessi e onerosi, la Commissione europea si trova oggi davanti a una scelta delicata: procedere come previsto o modificare la rotta.

Se prevarrà la linea della cautela, l’AI Act potrebbe essere rallentato, corretto o addirittura ristrutturato. Se invece Bruxelles deciderà di tenere il punto, sarà la prima grande prova di forza normativa dell’Unione europea nel campo dell’intelligenza artificiale. In entrambi i casi, sarà una sfida che metterà alla prova l’equilibrio tra tutela dei diritti, promozione dell’innovazione e autonomia strategica in un settore decisivo per il futuro.