Riceviamo e pubblichiamo un’analisi di Giuseppe Vaciago, partner dello studio legale 42 Law Firm
In tutta Europa cresce la pressione per rinviare l’entrata in vigore dell’AI Act, il nuovo regolamento UE sull’intelligenza artificiale. In Italia, decine di startup e investitori (38 realtà) hanno lanciato un appello formale chiedendo una “pausa tecnica” di 24 mesi nell’applicazione dell’AI Act, in quanto gli obblighi previsti appaiono onerosi e rischiano di soffocare l’innovazione. Secondo il documento L’IA è futuro, non burocrazia, adeguarsi ai nuovi standard potrebbe costare fino a 300 mila euro l’anno e richiedere oltre 12 mesi di lavoro – un onere insostenibile per molte startup. I firmatari temono che norme troppo rigide compromettano la competitività, spingendo progetti e talenti a lasciare l’Europa. Preoccupazioni simili risuonano anche a livello governativo: Polonia, Svezia e Danimarca hanno espresso sostegno a un rinvio. Il Primo Ministro svedese Ulf Kristersson ha definito la regolamentazione UE “confusa” senza standard comuni e ha avvertito che, proseguendo senza correttivi, l’Europa rischia di restare indietro tecnologicamente.
All’ultimo Consiglio dell’Unione Europea sul digitale, la Polonia ha proposto di considerare un meccanismo “stop-the-clock” per posticipare le scadenze di attuazione finché non saranno pronte linee guida chiare, pur sottolineando che “rinviare le scadenze da solo non basta: serve un piano”. Anche altri Stati Membri – inclusa la Danimarca – hanno apertamente invocato maggiore tempo prima di far scattare le nuove regole, temendo impatti negativi su innovazione e competitività nazionale.
Sul fronte opposto, mentre si dibatte su come (e quando) regolare l’IA civile, resta scoperto l’uso dell’IA in ambito militare. Una lacuna critica, dato che recenti conflitti hanno visto un impiego massiccio di AI senza un quadro giuridico condiviso. Israele, ad esempio, ha utilizzato potenti sistemi di AI per identificare bersagli nelle operazioni contro Hamas: l’Idf ha impiegato un algoritmo (codename “Lavender”) capace di selezionare decine di migliaia di obiettivi potenziali in base a dati di intelligence. Questo approccio algoritmico, inedito per portata, ha sollevato gravi interrogativi legali e morali: le decisioni di attacco vengono automatizzate “a sangue freddo” dal software, rischiando di ridurre il controllo umano e portando a vittime civili autorizzate implicitamente dal modello. In Ucraina, la guerra ha trasformato il paese in un vero laboratorio dell’AI bellica.
Entrambi gli schieramenti impiegano droni avanzati e sistemi semi-autonomi: l’AI analizza in tempo reale le immagini dei ricognitori volanti per localizzare bersagli nemici, tanto che un solo operatore può dirigere intere squadre di droni killer, delegando al software l’ingaggio degli obiettivi. Queste tattiche accelerano lo svolgersi delle operazioni ma aumentano il rischio di errori letali ed escalation incontrollata. Negli Stati Uniti, intanto, si sperimentano caccia e munizioni “smart” guidate dall’intelligenza artificiale. Un caso emblematico – reso noto da un colonnello dell’US Air Force – racconta di una simulazione in cui un drone militare, controllato dall’AI, ha deciso di “eliminare” il proprio operatore umano pur di completare la missione assegnata.
L’episodio, poi ridimensionato come ipotetico, evidenzia tuttavia la possibilità di comportamenti inattesi e pericolosi da parte di un’IA non adeguatamente vincolata dalle regole umane. Chi risponde, sul piano etico e giuridico, se un’autonoma arma intelligente provoca una strage per un bug o una scelta algoritmica? Ad oggi manca una risposta chiara: non esistono trattati internazionali né normative nazionali specifiche che delimitino l’uso dell’IA militare, definendo responsabilità e limiti. Questo vuoto normativo è inquietante, perché la corsa agli armamenti AI è già realtà – e senza regole condivise rischiamo un “far west” tecnologico nei teatri di guerra.
Inoltre, un recente documento pubblicato dalla Nato “Virtual Manipulation Brief 2025” chiarisce come l’impiego dell’AI nei conflitti non si limita più a tecnologie militari, ma si estende alla manipolazione informativa su larga scala. L’utilizzo coordinato di contenuti generati da AI – diffusi su piattaforme come Telegram, X e YouTube – ha moltiplicato la portata di campagne ostili, spesso con finalità geopolitiche e militari. Questo fenomeno dimostra quanto la guerra cognitiva sia ormai parte integrante degli scenari bellici contemporanei, imponendo la necessità di aggiornare anche il diritto internazionale umanitario per includere i nuovi rischi legati alla disinformazione automatizzata e alla propaganda digitale orchestrata tramite intelligenze artificiali avanzate.
Le due posizioni descritte – la richiesta di mano libera per le imprese da un lato, e l’assenza di vincoli sull’IA militare dall’altro – sono entrambe comprensibili nelle rispettive logiche, ma entrambe mancano il punto centrale. Non possiamo sacrificare la protezione dei diritti fondamentali sull’altare del business, né lasciare che l’AI bellica resti una terra franca priva di qualunque cornice normativa.
L’ AI Act nasce proprio per tutelare valori come la sicurezza, la trasparenza e i diritti, e dev’essere applicato con equilibrio senza deroghe: concedere una moratoria alle aziende significherebbe indebolire quelle garanzie essenziali che proteggono cittadini e consumatori (dalla discriminazione algoritmica alla sorveglianza indiscriminata). Allo stesso tempo, è urgente colmare il vuoto sul versante militare: l’impiego dell’IA nelle armi e nei sistemi d’arma deve essere assoggettato a principi di diritto internazionale e di diritto umanitario, aggiornati all’era digitale. L’autoregolamentazione o il semplice affidamento all’etica dei singoli attori non bastano; servono norme chiare, condivise a livello globale, che impongano trasparenza, catene di comando ben definite e meccanismi di accountability per ogni decisione presa da (o con) un algoritmo in ambito bellico.
I segnali che leggiamo, tuttavia, sono differenti: in attesa dell’attuazione piena dell’AI Act – il regolamento sull’IA approvato nel 2024 – Bruxelles punta su un Codice di Condotta dedicato ai modelli di IA generativa (General Purpose AI, come ChatGPT o Google Gemini) per favorire un’applicazione pratica e coordinata delle nuove norme. Questo Codice, di natura volontaria, ma ritenuto strategico, offrirà linee guida comuni e standard qualitativi a sviluppatori e utilizzatori di modelli generativi, al fine di garantire maggiore trasparenza, affidabilità e rispetto dei principi di sicurezza e tutela dei diritti sanciti dall’AI Act.
Nonostante l’importanza dichiarata, la Commissione UE ha di recente annunciato che l’operatività del Codice di Condotta slitterà verso fine 2025, oltre la data inizialmente prevista (maggio 2025). Questa battuta d’arresto è dovuta alle pressioni dell’industria tech: giganti come Google, Meta, la startup francese Mistral AI e persino alcuni governi nazionali hanno chiesto più tempo prima di impegnarsi con regole supplementari.
Il ritardo nell’adozione di questo Codice – pur non incidendo sulla validità dell’AI Act – mette in luce la difficoltà di tradurre principi normativi in prassi condivise ed efficaci. Molti osservatori considerano il Codice di Condotta un banco di prova per la credibilità dell’approccio europeo: dalla sua riuscita dipenderà in parte la capacità dell’UE di guidare la regolamentazione globale dell’IA basandosi su trasparenza, diritti fondamentali e accountability algoritmica. È dunque un elemento da monitorare con attenzione, sebbene non vada interpretato come cartina di tornasole definitiva del successo o fallimento dell’AI Act.
In definitiva, innovazione e diritti non devono essere antitetici. L’Europa può – anzi, deve – farsi capofila di un approccio unitario e coerente: da un lato affinare l’AI Act civile per renderlo proporzionato, ma fermo nei suoi obiettivi di protezione; dall’altro, iniziare immediatamente a delineare cornici regolatorie per l’IA militare, coinvolgendo partner internazionali in un dialogo sulla governance dell’AI in guerra.
Solo con una visione integrata si potrà evitare il falso dilemma tra competitività e sicurezza. L’Intelligenza Artificiale è destinata a permeare ogni settore – civile e militare – della nostra società. Sta a noi governarla con lungimiranza, senza cedimenti sui diritti fondamentali e senza zone d’ombra normative, così da garantire che il progresso tecnologico avvenga a vantaggio dell’umanità e non a suo rischio e scapito.