Come leggere le nuove regole dell’AI Act. Il punto di Tenaglia e Faelli (BonelliErede)
Il regolamento europeo che disciplina l'intelligenza artificiale è un freno all'innovazione? Secondo i due avvocati, le regole possono evolvere insieme alla realtà economica e tecnologica
L’intelligenza artificiale continua a essere uno dei temi centrali del dibattito tecnico-giuridico, soprattutto in seguito all’approvazione dell’AI Act e alla pubblicazione, lo scorso 6 febbraio, delle nuove Linee Guida della Commissione Europea sulla definizione dei sistemi di IA. Le linee guida chiariscono i confini di applicazione del Regolamento e affrontano questioni fondamentali per comprendere come la legge incida sui diversi tipi di tecnologia.
Di questo ne hanno parlato con Eurofocus due esperti di BonelliErede: Giulia Tenaglia, senior associate e membro del Focus Team Innovazione e Trasformazione digitale, e Tommaso Faelli, partner e leader dello stesso Focus Team.
«Le Linee Guida della Commissione» – spiega Tenaglia – «chiariscono, innanzitutto, la portata del concetto di “sistema di intelligenza artificiale” così come disciplinato dall’AI Act. Ed è un intervento culturale molto rilevante, perché mette in luce la pluralità di definizioni esistenti: la IA, come tecnologia, non è neutra. Non è “inerte” (per usare la metafora di Cinzia Sciuto, che la paragona a un gas inerte); al contrario, condiziona il contesto in cui si applica e ne viene al tempo stesso influenzata, facendo emergere aspetti prima nemmeno immaginati. È stato così per internet, la televisione, il motore a scoppio, l’aratro».
Tenaglia prosegue spiegando quali caratteristiche la Commissione Europea attribuisca ai sistemi di IA per rientrare nel campo di applicazione dell’AI Act: «Anzitutto, per parlare di intelligenza artificiale è necessario che il sistema sia automatizzato, non semplicemente un software di base che esegue istruzioni senza alcun apprendimento o modellazione. Inoltre, deve possedere una certa autonomia, seppure variabile: perciò, i sistemi interamente manuali, dove manca qualsiasi forma di indipendenza dal controllo umano, non rientrano nella definizione. Viene poi richiamata la capacità di adattarsi o auto-migliorarsi, ma con una precisazione importante: la Commissione chiarisce che questo requisito è eventuale, il che amplia notevolmente la potenziale applicabilità della normativa. In più, i sistemi considerati di IA devono essere dotati di uno scopo, di una capacità interpretativa e di un’abilità di incidere sull’ambiente (fisico o virtuale) in cui operano. Infine, non vanno considerati “sistemi di IA” i semplici software che si limitano a riorganizzare o riformattare dati (come i fogli di calcolo o la gestione base di un database) o che si basano su mera statistica e non possiedono funzioni di apprendimento».
Secondo la giurista, l’attenzione che molti stanno rivolgendo ai cosiddetti Large Language Model (Llm) non deve confondere la portata della regolamentazione: «Oggi, nella percezione comune, l’IA si identifica quasi esclusivamente con sistemi come ChatGPT, Copilot, Gemini e via dicendo. Ma questi sono solo una parte, pur se rilevante, degli algoritmi regolati dall’Unione Europea. Il perno è capire in che misura l’AI Act, a partire dalle nuove Linee Guida, abbracci qualsiasi soluzione tecnologica che effettivamente si sostituisca – o si proponga di farlo – all’intervento decisionale e operativo dell’uomo».
Un punto complementare arriva da Tommaso Faelli, partner di BonelliErede e leader del Focus Team Innovazione e Trasformazione digitale: «È naturale che l’Unione scelga di regolamentare uno sviluppo tecnologico di questa portata, perché i principi fondamentali del diritto esistono per disciplinare tutte le attività umane o, come potremmo dire oggi, “umane o equivalenti”. Del resto, Elon Musk stesso, pur essendo in prima linea nello sviluppo di sistemi sempre più potenti, ha parlato di rischi esistenziali nel medio-lungo periodo, con possibilità non trascurabili che l’intelligenza artificiale generi problemi sociali ed economici».
Per Faelli, questa prospettiva rientra in un percorso storico di evoluzione tecnologica e industriale:
«Nel corso dei secoli, ogni progresso tecnologico ha comportato rischi e costi sociali. Il diritto serve proprio a distribuire responsabilità in modo efficiente, bilanciando le opportunità di sviluppo con le possibili conseguenze negative. Con l’AI Act, l’Unione si pone in questa scia, descrivendo una serie di sistemi e usi vietati (ad esempio quelli manipolativi della volontà umana o potenzialmente nocivi) e focalizzandosi su determinati ambiti considerati ad alto rischio. Chi produce e chi utilizza sistemi IA di questo tipo dovrà assicurare un continuo controllo del loro funzionamento, dei rischi emergenti e garantire la trasparenza verso utenti e autorità. Al di fuori di questi casi più delicati, l’uso della IA rimane sostanzialmente libero, con oneri di diligenza e obblighi generali non troppo diversi da quelli già previsti in altri settori, come la responsabilità dei produttori e la trasparenza verso i consumatori».
Nel quadro normativo, un’attenzione particolare è riservata anche agli strumenti di IA “generale”:
«I sistemi di intelligenza artificiale a finalità generali, come i più noti Llm (ChatGpt) o gli assistenti virtuali, sono soggetti a un regime di regole più o meno stringenti a seconda della loro potenza e del tipo di utilizzo» – aggiunge Faelli – «proprio perché la loro natura “generalista” potrebbe renderne troppo rigida una disciplina unica e statica».
L’avvocato di BonelliErede conclude mettendo in luce un aspetto chiave del dibattito europeo:
«La vera scelta strategica dell’Unione non è certo la deregolamentazione, ma il varo di investimenti e programmi di sviluppo sufficientemente consistenti per recuperare competitività rispetto a Stati Uniti e Cina. L’AI Act, in questo senso, è un impianto ragionevole e bilanciato. Se in futuro si renderanno necessarie modifiche o interpretazioni più orientate all’innovazione, anche per sostenere piani europei di ricerca e sviluppo, il quadro potrà adattarsi. Come è sempre successo in passato, le regole si evolvono insieme alla realtà economica e tecnologica».