Il Consiglio d’Europa ha compiuto un passo decisivo verso la regolamentazione dell’intelligenza artificiale con la firma della Framework Convention on Artificial Intelligence, Human Rights, Democracy, and the Rule of Law.
Ieri, giovedì 5 settembre a Vilnius, in occasione della conferenza dei ministri della Giustizia del Consiglio d’Europa, l’Ue ha dato un segnale forte con la firma della vicepresidente della Commissione europea per i valori e la trasparenza, Věra Jourová, sulla Convenzione. Un impegno che consolida l’indirizzo impartito dall’Ue, ma che va oltre i Ventisette per la composizione stessa del Consiglio d’Europa.
Il ruolo del Consiglio d’Europa
Nonostante l’assonanza, questa organizzazione è diversa dal Consiglio europeo, che riunisce i Capi di Stato e di Governo degli Stati Ue. Fondato il 5 maggio 1949, il Consiglio d’Europa riunisce anche Paesi non Ue ma sul territorio europeo che condividono i valori democratici della Comunità, per un totale di 46 Stati membri. La sua missione è quella di promuovere la democrazia e di proteggere i diritti umani e lo stato di diritto in Europa geograficamente intesa.
I negoziati sulla Convenzione sono iniziati nel settembre 2022 proprio sotto l’impulso del Comitato sull’Ai (CAI) istituito dal Consiglio d’Europa a Strasburgo. In questa fase, la Commissione europea ha negoziato per conto dell’Ue, di altri Stati membri del Consiglio d’Europa, della Santa Sede, degli USA, del Canada, del Messico, del Giappone, di Israele, dell’Australia, dell’Argentina, del Perù, dell’Uruguay e della Costa Rica. Il contributo di 68 rappresentanti internazionali della società civile, del mondo accademico, dell’industria e di altre organizzazioni internazionali ha garantito un approccio completo e inclusivo.
La firma apposta ieri da Věra Jourová esprime l’intenzione dell’Ue di diventare Parte della Convenzione. In seguito, la Commissione europea preparerà una proposta di decisione del Consiglio per concludere la Convenzione e dovrebbe arrivare l’ok anche dall’Europarlamento.
Il testo stabilisce una serie di principi chiave volti a proteggere i diritti umani, la democrazia e lo stato di diritto dall’impatto potenziale delle tecnologie Ai in linea con l’allarme deepfake lanciato a maggio da Ursula von der Leyen.
Accordo per un’Ai “compatibile con i valori democratici”
La Framework Convention on Artificial Intelligence, Human Rights, Democracy, and the Rule of Law, firmata, è stata accolta con entusiasmo dalla presidente della Commissione europea che in un post su X ha evidenziato come questo accordo sia “in linea con la nostra legge sull’intelligenza artificiale”, ponendo le basi per un “approccio comune a livello globale per un’Ai affidabile e innovativa, compatibile con i valori democratici“.
L’accordo internazionale appena firmato include concetti fondamentali come la necessità che l’intelligenza artificiale sia centrata sull’essere umano e che venga sviluppata nel rispetto dei diritti umani e dello stato di diritto. Ai nostri microfoni, l’avvocato Davide Montanaro aveva confermato con cui nasce l’Ai Act, il “nuovo regolamento europeo che si prefigge l’obiettivo di costruire un ambiente normativo favorevole ad uno sviluppo antropocentrico dell’Intelligenza artificiale. L’idea di partenza e l’orizzonte finale dell’Unione europea, quindi, è creare un ambiente in cui l’uomo è al centro dell’intelligenza artificiale e quindi anche degli adempimenti correlati e degli sviluppi futuri”.
Il testo prevede un approccio risk-based, già centrale nel regolamento europeo, che mira a differenziare le responsabilità in base al livello di rischio che ogni applicazione dell’Ai comporta.
Impatto delle nuove norme per aziende e governi
La Convenzione si applica sia ai governi sia agli attori privati che sviluppano e utilizzano sistemi di intelligenza artificiale. Le aziende sono chiamate a gestire i rischi legati all’uso dell’Ai e devono garantire che questi sistemi non ledano i diritti fondamentali degli individui. Il rispetto delle nuove norme può avvenire tramite l’adozione diretta delle linee guida della Convenzione o attraverso misure alternative, come la creazione di sandbox normative che permettano un’innovazione sicura.
Un aspetto interessante è l’esclusione di alcune aree come la sicurezza nazionale o la ricerca e sviluppo, che godono di esenzioni specifiche. Tuttavia, nonostante tali eccezioni, l’intento generale è quello di assicurare che l’Intelligenza artificiale venga regolata con rigore per evitare scenari di abuso.
Coinvolgimento globale e partecipazione multi-stakeholder
Non solo l’Ue, ma anche numerosi altri stati non appartenenti al blocco europeo, come Stati Uniti, Giappone e Canada, hanno partecipato attivamente alla stesura della Convenzione, rendendola uno strumento di portata globale. Inoltre, 68 organizzazioni internazionali, tra cui imprese, università e rappresentanti della società civile, hanno contribuito alla discussione, garantendo che il documento riflettesse una prospettiva multilaterale.
Questo consenso internazionale rafforza la posizione dell’Unione europea come leader nella regolamentazione dell’AI, capace di stabilire standard globali che possano proteggere i diritti umani, promuovendo al contempo l’innovazione. Citando ancora l’avv. Montanaro: “Dobbiamo provare a riconoscere qual è il nostro ruolo nel mondo; l’Unione europea potrà mai competere con la Cina dal punto di vista industriale? Oggi strumenti che permettano di rispondere a questa domanda non li ho, ma posso ragionare su altri aspetti, che riguardano la frammentazione interna all’Unione”.
L’Ue sta ora lavorando per integrare questa Convenzione all’interno delle proprie leggi, a partire dall’Ai Act, che già impone alle imprese obblighi severi in termini di trasparenza e gestione del rischio.
I principi chiave: trasparenza, robustezza e governance
Tra i principi inclusi nella Convenzione spiccano la trasparenza e la robustezza dei sistemi Ai. La trasparenza non è solo riferita al modo in cui vengono creati gli algoritmi, ma anche alla chiara identificazione di quando e come l’Ai viene utilizzata nelle interazioni con gli esseri umani. Questo obiettivo è stato definito cruciale per mantenere la fiducia pubblica nelle nuove tecnologie e garantire che i cittadini siano sempre consapevoli dei potenziali rischi.
I casi sono all’ordine del giorno, alcuni più eclatanti di altri come quelli che rispondo al nome di Elon Musk. Negli scorsi giorni, il proprietario di X e sostenitore di Trump, ha diffuso un’immagine generata dall’Ai che ritrae Kamala Harris vestita da comunista scatenando le reazioni social.
Se, in questo caso la manipolazione era intuibile, ben più pericoloso è quanto avvenuto a fine luglio, sempre per mano di Musk. O meglio dell’Ai, dietro la volontà del magnate. In quella circostanza, il sostenitore repubblicano aveva condiviso una versione manipolata di un video della campagna di Harris, dove la candidata democratica ‘diceva’ cose mai pronunciate nella realtà. Il video originale era etichettato come “parodia”, ma non il repost di Musk, dove l’indicazione di contenuto generato dall’Ai, obbligatoria secondo la policy di X, è stata omessa.
L’evento he evidenziato come i media alterati dall’intelligenza artificiale potrebbero influenzare le elezioni, mentre la legislazione per gestirli è ancora in fase di sviluppo.
Il rischio deepfake potrebbe presto allargarsi alle aziende, nel ruolo di vittime o di carnefici. Sul punto, la Convenzione stabilisce rigorosi criteri di governance, che obbligano le società a includere documentazione e meccanismi di controllo più forti per monitorare l’impatto dei sistemi Ai sulla società. Gli obblighi di documentazione, ad esempio, mirano a tracciare in modo accurato l’evoluzione dei sistemi Ai durante il loro ciclo di vita, consentendo ai regolatori di intervenire prontamente in caso di violazioni.
Prospettive future: verso una regolamentazione globale dell’Ai?
Con la firma della Framework Convention on Artificial Intelligence, l’Europa ha compiuto un significativo passo avanti nel consolidare la sua leadership nel campo della regolamentazione dell’Ai.
La strada intrapresa con il protocollo, che combina innovazione e tutela dei diritti fondamentali, rappresenta un modello che altre nazioni stanno valutando attentamente come dimostra l’interesse di Paesi come gli Stati Uniti e il Giappone.
In definitiva, il Framework Convention on Artificial Intelligence, Human Rights, Democracy, and the Rule of Law potrebbe fornire un quadro di riferimento per futuri accordi internazionali con l’obiettivo di bilanciare innovazione, trasparenza e protezione dei diritti umani.