Il ‘Brussels Effect’ è ancora vivo e lotta insieme a noi. Mentre prosegue il dibattito sul rinvio dell’Ai Act e sulla semplificazione contenuta nel Digital Omnibus Package presentato dalla Commissione il 19 novembre e visto da molti come capitolazione agli Usa di Donald Trump, nel mondo sono molti i Paesi che continuano a prendere spunto dalle normative europee per le proprie. E sta accadendo anche in ambito Intelligenza artificiale, ha sottolineato Brando Benifei, europarlamentare (Pd, S&D) e co-relatore dell’Ai Act, intervenendo oggi a Roma al convegno Adnkronos Q&A “Intelligenza Umana, Supporto Artificiale”: “Siamo stati in grado di dettare uno standard”.
Ai Act, Acn: “La regolazione è potere”
Certamente non tutti apprezzano l’approccio europeo, come dimostra la pressione degli Stati Uniti che vorrebbero avere campo totalmente libero, come ha spiegato Andrea Billet, capo del Servizio Certificazione e Vigilanza dell’Agenzia per la Cybersicurezza Nazionale (Anc) nel suo intervento al convegno. “La posizione americana è molto chiara: ‘Vorremmo che il resto del mondo usasse i nostri standard, tranne quella parte che consideriamo nemica, e non vogliamo particolari opposizioni alle tecnologie che vengono sviluppate da noi’”.
Ma “la regolazione è potere”, ha sottolineato Billet, perché “chi impone uno standard controlla il mercato, chi controlla il mercato controlla il mondo o quasi”.
Teresa Ribera: “Non accettiamo ricatti”
Oggi la vicepresidente della Commissione Europea Teresa Ribera ha affermato con molta forza che l’Unione non accetta ricatti sulla legislazione digitale rispetto alle trattative in corso sulle questioni commerciali.
Il riferimento è alle parole di Howard Lutnick, segretario del commercio americano, che lunedì ha sostanzialmente detto agli europei che gli Usa acconsentiranno a togliere i dazi sull’acciaio se l’Unione toglie la regolamentazione sulla tecnologia.
Ricatti a parte, secondo alcuni il Digital Omnibus Package più che semplificare propone un annacquamento fatale dell’Ai Act, la normativa del blocco in tema di intelligenza artificiale, attuato proprio per accontentare o quanto meno ‘tenere buono’ Trump.
Digital Omnibus Package: una resa a Trump?
Critiche alle quali Laura Yugel, legal officer dell’esecutivo europeo, intervenendo all’evento di oggi in videocollegamento ha risposto che l’Omnibus “non è una reazione alla pressione degli Stati Uniti, né mira a soddisfare preoccupazioni in altri Paesi, ma guarda a come rendere competitiva l’industria europea, affinché le aziende possano innovare e crescere (scale), pur mantenendo le regole efficaci”.
“I cambiamenti proposti non toccano i fondamenti dell’AI Act – l’approccio basato sul rischio, il suo campo di applicazione e i suoi divieti -. Lo scopo è solo renderlo più operativo nella pratica”.
Quanto alla decisione di rivedere i tempi, questa deriva invece dal ritardo nella definizione degli Standard e nell’Attuazione delle Autorità competenti in alcuni Stati membri (non in Italia).
La preoccupazione, dunque, è che “l’applicazione delle regole, prevista per agosto dell’anno prossimo, non avverrebbe in modo fluido ed efficace”, ha spiegato ancora Yugel.
Per l’AI un rinvio “necessario”
D’accordo Benifei, per il quale il rinvio, che riguarda i sistemi ad alto rischio, era “necessario”, essendo il blocco “in ritardo con gli standard necessari per chiarire che cosa sia un dato di qualità e appropriato, la cybersecurity, il controllo umano, insomma i principi che riguardano la messa in sicurezza di quei casi d’uso un po’ sensibili”.
A tal proposito, ha segnalato l’europarlamentare, “la Commissione ha comunque indicato una ‘tagliola’: se gli standard non sono pronti ad agosto 2027, entro fine dicembre 2027 sarà la Commissione stessa a indicare i parametri con cui identificare le caratteristiche di tutela per avere dei sistemi sicuri in contesti delicati della vita: il lavoro, la giustizia, l’attività medica, le infrastrutture critiche, le smart cities”.
Quanto invece alle modifiche proposte con l’Omnibus, per Benifei “alcune semplificazioni per le piccole e medie imprese” sono ragionevoli, altre cose non convincono”.
Il rischio d’uso
L’europarlamentare ha anche chiarito che l’AI Act non va a regolare tutti i casi d’uso: “Va a concentrarsi dove esistono dei rischi reali per diritti fondamentali, sicurezza e salute”, ovvero ambiti sensibili per la vita di ognuno di noi, in cui si rischia di subire i bias dell’intelligenza artificiale. “Pensiamo, ad esempio, a un sistema che debba selezionare un curriculum e che potrebbe aver imparato, in base ai dati con cui è stato addestrato, a discriminare le donne: le discriminazioni verrebbero moltiplicate e in qualche modo giustificate dalla forza dell’intelligenza artificiale”.
Il tema del rischio d’uso è stato toccato anche da Billet, il quale ha sottolineato che “molto spesso sono le applicazioni ‘non ad alto rischio’ quelle che la gente ha in tasca, nella vita di tutti i giorni”, e che perciò “il tema è come arrivare alle persone che non hanno tutte le competenze che servono per capire i rischi connessi“.
E questo apre il grande tema della responsabilità.
La responsabilità
Il punto centrale è: chi è responsabile per un uso non ottimale dell’AI? “Il paradigma degli americani è il security by design, perché i grandi operatori americani quello che temono di più è la chiamata a responsabilità sul comportamento deviante delle loro applicazioni”, ha spiegato Billet.
“Security by design significa se qualcuno ne fa un uso non corretto di un’applicazione, la responsabilità è sua e non di chi, ad esempio, ha addestrato il modello linguistico che è alla base di quella applicazione”.
Tradotto, “significa che i grandi operatori, i grandi motori di intelligenza artificiale, non hanno responsabilità per danni a cose e persone e questo è il vero pomo della discordia”.
A livello europeo il tema è un pochettino diverso, ha specificato Billet, perché si ritiene che la persona debba essere in grado di valutare il rischio, e dunque va accertato se abbia le competenze adeguate. Il funzionario è stato chiaro: “Pochi hanno le competenze, pochi sono in grado di fare questo tipo di valutazioni, pochissimi sono in grado di prendere decisioni informate sull’uso di questi oggetti che sono anche in evoluzione”.
