Il Consiglio d’Europa ha adottato il primo trattato internazionale giuridicamente vincolante volto a garantire il rispetto delle norme giuridiche in materia di diritti umani, democrazia e Stato di diritto nell’utilizzo dei sistemi di intelligenza artificiale. Con questo testo, l’Europa (non solo l’Ue, come vedremo a breve) si conferma pioniera nella regolamentazione della tecnologia che sta impattando il presente e, ancora di più, impatterà il futuro.
Lo spirito del provvedimento è chiaro: più è veloce il progresso tecnologico, maggiore è l’attenzione necessaria per far sì che l’innovazione sia sostenibile e responsabile. Il nome del provvedimento esprime chiaramente l’approccio olistico con cui l’Unione vuole disciplinare l’uso di questa nuova tecnologia: “Convenzione quadro sull’intelligenza artificiale, i diritti umani, la democrazia e lo Stato di diritto”.
Il trattato è aperto anche ai Paesi non europei, come sottolineato anche dalla Segretaria generale del Consiglio d’Europa, Marija Pejčinović: “La Convezione quadro sull’intelligenza artificiale è un trattato globale unico nel suo genere, che assicurerà che l’intelligenza artificiale rispetti i diritti delle persone. È una risposta alla necessità di disporre di una norma di diritto internazionale sostenuta da Stati di diversi continenti uniti da valori comuni, che consenta di trarre vantaggio dall’intelligenza artificiale, riducendo al contempo i rischi che questa presenta. Con questo nuovo trattato, intendiamo assicurare un utilizzo responsabile dell’IA che rispetti i diritti umani, la democrazia e lo Stato di diritto”.
L’apertura agli altri Paesi Ue è insita nella natura stessa dell’organismo: il Consiglio d’Europa, fondato il 5 maggio 1949, riunisce anche Paesi non Ue ma sul territorio europeo che condividono i valori democratici della Comunità, per un totale di 46 Stati membri. La sua missione è quella di promuovere la democrazia e di proteggere i diritti umani e lo stato di diritto in Europa e non va confuso con il Consiglio Ue.
Convenzione Ue sull’Ai
La Convenzione quadro è stata completata dal Comitato sull’intelligenza artificiale del Consiglio d’Europa e sottoposta per l’adozione al Comitato dei Ministri il 15 marzo scorso, a Strasburgo, durante l’incontro ministeriale annuale del Comitato dei Ministri del Consiglio d’Europa, che riunisce i ministri degli Affari esteri dei 46 Stati membri dell’Organizzazione.
I lavori sono iniziati in tempi non sospetti, quando l’intelligenza artificiale generativa non aveva ancora sparigliato le carte. Il testo è il frutto di uno studio del Comitato sull’intelligenza artificiale (Cai) durato due anni e che ha riunito:
- i 46 Stati membri del Consiglio d’Europa;
- l’Unione europea;
- 11 Stati non membri (oltre a quelli extra-Ue già facenti parte del Consiglio d’Europa): Argentina, Australia, Canada, Costa Rica, Giappone, Israele, Messico, Perù, Santa Sede, Stati Uniti d’America e Uruguay;
- rappresentanti del settore privato, della società civile e del mondo accademico, che hanno partecipato in qualità di osservatori
Il trattato copre l’utilizzo dei sistemi di Ai nel settore pubblico e nel privato.
L’obiettivo del Comitato è quello di estendere il più possibile l’applicazione di queste norme nella consapevolezza che l’Ai può allargare il gap già molto ampio tra ricchi e poveri, intesi sia come individui che come Paesi. Per agevolare l’adozione delle norme nonostante i diversi sistemi giuridici, le parti possono aderire alla Trattato Ue sull’Ai in due modi:
- sottoporsi direttamente alle disposizioni applicabili della convenzione;
- prendere altre misure per conformarsi alle disposizioni del trattato rispettando a pieno i loro obblighi internazionali in materia di diritti umani, democrazia e Stato di diritto.
Cosa prevede il Trattato
La Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale è stata pensata per armonizzare l’intero ciclo di vita dei sistemi di Ai, dalla loro concezione fino al loro utilizzo finale, con i principi e i valori europei.
Per questo, il Trattato stabilisce requisiti di trasparenza e controllo adattati ai contesti e ai rischi specifici, tra cui l’identificazione dei contenuti generati dai sistemi di intelligenza artificiale. In pratica, quando interagiamo con un assistente virtuale o riceviamo raccomandazioni personalizzate online, dovremo essere in grado di sapere che c’è un algoritmo dietro e comprendere come funziona. Una puntualizzazione ancora più importante perché arriva nei giorni in cui l’Ue ha aperto un’indagine su Meta proprio per il funzionamento dell’algoritmo di Instagram e Facebook, che potrebbe generare dipendenza.
La Convenzione prevede che le parti adottino misure per identificare, valutare, prevenire e attenuare i possibili rischi e valutare la necessità di una moratoria, di un divieto o di altre misure appropriate riguardanti l’utilizzo di sistemi di Ai laddove tale utilizzo potrebbe presentare rischi incompatibili con le norme in materia di diritti umani.
Per esempio, se un sistema di Ai viene utilizzato per prendere decisioni che influenzano le persone, come l’approvazione di un prestito bancario o la selezione per un lavoro, il Trattato insiste sul fatto che ci devono essere misure in atto per prevenire qualsiasi forma di discriminazione o pregiudizio.
Indispensabile, poi, il riferimento alla privacy, diritto sempre più avvertito dai cittadini di tutto il mondo, di pari passi con l’evoluzione tecnologica. Per tutelare questo diritto e quello all’uguaglianza, il Trattato prevede che le parti aderenti prevedano specifiche e chiare vie di ricorso per i cittadini. Al cittadino che subisce un danno di privacy o viene discriminato da un sistema Ai, deve essere garantito pieno accesso alla giustizia.
Particolarmente interessante e di attualità, il riferimento ai pericoli per la democrazia. La Convenzione si impegna a proteggere le istituzioni e i processi democratici europei, riconoscendo il rischio che questi vengano manipolati o compromessi dall’Ai. Sul punto, il Trattato è chiaro: l’intelligenza artificiale non deve mai essere usata in modo da minare la fiducia nelle istituzioni o influenzare indebitamente le elezioni. Recentemente, la presidente della Commissione europea Ursula von der Leyen ha messo in guardia l’Unione sul pericolo del deepfake, arma principale della propaganda russa in Europa, insieme agli attacchi hacker commissionati dal governo russo.
Gli interessi nazionali
Come per ogni Trattato, il confine tra ciò che è di tutti e ciò che è di ogni singolo Stato è fondamentale per determinare il peso effettivo dell’accordo. Sul punto, le parti aderenti alla convenzione non saranno tenute ad applicare le disposizioni del trattato alle attività riguardanti la protezione degli interessi di sicurezza nazionale, ma dovranno comunque garantire che tali attività siano condotte nel rispetto delle istituzioni e dei processi democratici e del diritto internazionale.
La Convenzione non si applicherà alle questioni di difesa nazionale né alle attività di ricerca e sviluppo, salvo nei casi in cui i sistemi di intelligenza artificiale potrebbero interferire con i diritti umani, la democrazia e lo Stato di diritto. Esattamente come avviene per le leggi quadro nazionali, la Convenzione quadro sull’Ai stabilisce dei limiti di principio invalicabili dalle parti.
Sistemi di monitoraggio
Per assicurare un’attuazione efficace, la Convenzione istituisce un duplice sistema di controllo:
- un meccanismo di monitoraggio centrale sotto forma di Conferenza delle parti;
- un meccanismo di controllo indipendente per ciascuna parte del Trattato. Questo organo deve controllare la rispondenza tra le decisioni prese a livello nazionale e il testo dell’accordo.
Questi organi nazionali hanno inoltre il ruolo di sensibilizzare il pubblico, stimolare un dibattito pubblico informale e tenere consultazioni multilaterali su come utilizzare questa stravolgente tecnologia.
Le differenze tra la Convenzione Ai e l’Ai Act
Il 13 marzo 2024, il Parlamento europeo ha approvato l’Ai Act, il primo provvedimento al mondo che affronta l’intelligenza artificiale in maniera trasversale e con norme imperative.
Ma quali sono le differenze con la Convenzione del Consiglio d’Europa sull’Ai? Innanzitutto, quest’ultima si concentra sulla creazione di standard internazionali per garantire che l’uso dell’Ai sia in linea con i diritti umani, la democrazia e lo stato di diritto anche al di fuori dell’Ue. Gli Stati non sono obbligati a firmare il Trattato, il testo serve a fissare un insieme di principi e linee guida che i Paesi membri possono scegliere di adottare e implementare nelle loro legislazioni nazionali.
D’altra parte, l’Ai Act mira a stabilire un quadro normativo armonizzato per l’intelligenza artificiale all’interno dell’Unione Europea e, soprattutto, è vincolante per tutti gli stati membri dell’Ue. Il provvedimento adottato a marzo scorso, che si basa su un approccio basato sul rischio classificando i sistemi di intelligenza artificiale in base al loro livello di rischio per la sicurezza e i diritti delle persone, stabilisce requisiti e obblighi specifici per i fornitori e gli utilizzatori di sistemi di Ai.
Entrambe le iniziative sono i pilastri su cui plasmare il futuro di questa tecnologia in Europa e nel mondo, ma operano a livelli e con meccanismi di attuazione diversi.
La “Convenzione quadro sull’intelligenza artificiale, i diritti umani, la democrazia e lo Stato di diritto” sarà aperta alla firma a Vilnius (Lituania) il 5 settembre, in occasione di una conferenza dei ministri della Giustizia.
La prontezza normativa dimostrata nel campo dell’Intelligenza artificiale mette l’Europa in prima fila non solo sul piano normativo, ma anche pratico. Nel giro di pochi mesi qualsiasi istituzione dovrà preoccuparsi di legiferare sull’Ai per evitare ricadute negative sulla società e anche sull’economia. Con l’Ai Act e con la Convenzione sull’Ai, l’Europa sarà già pronta e rappresenterà un indispensabile punto di riferimento per tutti gli attori coinvolti, con buona pace di chi sostiene che la iper regolamentazione sia il principale nemico del progresso tecnologico europeo