Riceviamo e pubblichiamo l’intervento di Licia Garotti, avvocata partner di PedersoliGattai
“REMOVING BARRIERS TO AMERICAN AI INNOVATION” (nessuna enfasi aggiunta). Titola così il fact sheet pubblicato sul sito ufficiale della Casa Bianca a pochi giorni dall’insediamento del neoeletto Presidente Trump, decisamente celebrato dai leader delle Big Tech. Si plaude la revoca dell’Executive Order dell’ex Presidente Joe Biden in materia di mitigazione dei rischi legati ai sistemi e modelli di Intelligenza Artificiale (AI), che puntava a definire le linee guida per un uso responsabile e sicuro dell’AI, nell’ottica di prevenire abusi e garantire la trasparenza nei processi decisionali automatizzati.

Questa decisione rientra nella più ampia strategia “America First AI” dell’amministrazione Trump, con lo scopo (quanto meno promesso) di ridurre i presidi di mitigazione dei rischi connessi all’AI per stimolare l’innovazione e rafforzare la competitività delle aziende tecnologiche americane. E mentre gli Stati Uniti allentano i vincoli normativi e regolamentari, l’Europa percorre, attraverso l’AI Act, una strada molto diversa e decisamente più incisiva sotto il profilo della regolamentazione.
Sotto una prospettiva giuridica, la revoca dell’ordine esecutivo di Biden solleva diversi interrogativi. Senza un quadro normativo federale chiaro, le aziende oltreoceano andranno verosimilmente godere di più ampi margini di libertà nello sviluppo di tecnologie AI. Ciò potrebbe tuttavia tradursi in rischi non indifferenti per i cittadini, causa la potenziale adozione di pratiche ad altissimo rischio, se non vietate (come la manipolazione subliminale, l’uso improprio di dati biometrici e il social scoring, ovvero la valutazione delle persone in base ai loro comportamenti online).
Per vero l’AI resta disciplinata da altre normative statunitensi, come ad esempio il Federal Trade Commission Act che regola le pratiche commerciali scorrette; tuttavia, l’assenza di un approccio coordinato a livello nazionale potrebbe creare vuoti normativi difficili da colmare.
L’Europa consolida invece la propria posizione con l’AI Act, entrato in vigore nell’agosto 2024 e parzialmente operativo da questo mese di febbraio. Come tanto si è detto, l’AI Act vieta le pratiche considerate inaccettabili per il rischio di violazione dei diritti fondamentali (ossia, ad esempio, la già citata manipolazione subliminale, il social scoring e l’identificazione biometrica in tempo reale) e definisce un importante quadro regolatorio per i sistemi di AI considerati ad alto rischio. Le imprese attive nel mercato europeo devono ora conformarsi alle regole, implementando programmi di alfabetizzazione all’AI e mappando i propri sistemi per evitare sanzioni non indifferenti. Ma è davvero tutto in salita? No. A patto di sapere sfruttare l’opportunità.
Un aspetto cruciale dell’AI Act è rappresentato proprio dall’articolo 4, che impone alle organizzazioni l’obbligo di garantire un adeguato livello di alfabetizzazione all’AI per tutto il personale coinvolto nell’uso di tali tecnologie. Non si tratta “solo” di una misura fondamentale per assicurare la conformità normativa, quanto (e soprattutto!) di una leva strategica per le imprese. Implementare correttamente programmi di formazione sull’AI consentirà di aumentare fattivamente la consapevolezza interna sui rischi e sulle potenzialità della tecnologia, migliorando l’efficacia operativa. La riduzione dei rischi di violazione con conseguenti sanzioni è un (buon) effetto collaterale.
Ed è in quest’ottica che vanno lette le dettagliate linee guida pubblicate dalla Commissione Europea per facilitare l’interpretazione delle (e, dunque, la conformità alle) nuove regole, sottolineando l’impegno dell’UE a promuovere un’IA sicura ed etica.
Non sono mancate le critiche. Soprattutto da parte di quelle società che, proprio in quanto tech-driven, temono di subire un freno all’innovazione: dove le aziende possono operare con maggiore libertà sul mercato USA, in Europa le imprese sembrano dovere affrontare costi aggiuntivi legati alla conformità normativa, con uno squilibrio a favore delle big tech americane.
Questo, tuttavia, sarà vero solo se l’UE non accompagnerà la regolamentazione con investimenti sostanziali per ricerca, sviluppo e formazione, così da potere attrarre capitali sul territorio degli Stati europei, ognuno peraltro con caratteristiche spesso molte diverse. Ciò non potrà prescindere da una parità di condizioni nel mercato globale per l’approvvigionamento delle risorse. Diversi analisti hanno, infatti, evidenziato come l’accesso ai chip e alle tecnologie avanzate sia fondamentale nell’ambito della competizione internazionale, trasformando il panorama dell’innovazione in una sfida in cui innovazione e sicurezza legale devono procedere di pari passo.
Il tutto senza chiaramente ignorare gli altri Paesi, prima tra tutti la Cina. Il riferimento non può che essere a DeepSeek e al lancio del modello open source R1. Secondo la startup cinese, R1 sarebbe stato costruito utilizzando solo pochi chip specializzati rispetto agli standard usuali per l’intelligenza artificiale, con un modello proprietario basato su un’architettura sviluppata internamente e senza derivazioni da GPT-4 né da modelli altrui. Non esattamente della stessa opinione Open AI e il partner Microsoft, per i quali DeepSeek avrebbe sfruttato i modelli della Big Tech senza alcuna autorizzazione, attraverso la tecnica della cosiddetta “distillazione” per addestrare l’algoritmo, violando i diritti d’autore della società americana. E qui si dovrebbe aprire la questione della eventuale (il)liceità dell’addestramento dei modelli AI su dati che siano protetti da copyright (o da segreti commerciali).
Ma torniamo a noi. La revoca dell’Executive Order di Biden da parte di Trump segna un cambio di rotta significativo nella politica statunitense sull’AI, comportando – almeno in apparenza – un ambiente più permissivo per l’industria tecnologica rispetto al quadro europeo. In un mondo sempre più dipendente dall’AI, la sfida sarà trovare un equilibrio tra innovazione e responsabilità, transitando necessariamente da una politica di investimento nella ricerca, sviluppo e formazione.