Due italiani lavoreranno al codice di condotta europeo per l’intelligenza artificiale

Marta Ziosi e Daniel Privitera avranno un ruolo di spicco nei lavori del Codice
3 giorni fa
4 minuti di lettura
Intelligenza Artificiale

L’Unione Europea consolida il suo primato nel normare l’intelligenza artificiale. Dopo l’AI Act e l’AI Pact, l’Ue punta a realizzare il primo Codice di condotta per i modelli di AI ad uso generale.

Questo passo arriva in un momento in cui l’intelligenza artificiale è sempre più presente nelle nostre vite, non solo in ambito tecnologico, ma anche nella sanità, nella finanza e in molti altri settori. L’idea è semplice: creare un insieme di regole chiare per garantire che l’AI sia sicura e trasparente.

Il progetto è coordinato dall’EU AI Office e coinvolge diversi esperti, tra cui fornitori di IA, accademici, rappresentanti di aziende e della società civile. Il Codice di condotta avrà l’obiettivo di rendere l’intelligenza artificiale uno strumento utile, ma senza compromettere la sicurezza, la privacy e i diritti delle persone.

Non si tratta solo di gestire la tecnologia, ma di affrontare i rischi che essa porta con sé, e l’Ue vuole essere in prima linea nel definire standard globali.

Cosa è l’intelligenza artificiale generica

L’espressione “intelligenza artificiale generica” (o general-purpose AI) si riferisce a quei sistemi di intelligenza artificiale che possono essere utilizzati in una vasta gamma di applicazioni e contesti, non limitati a un compito specifico. A differenza delle AI specializzate (come quelle che si concentrano su una singola funzione, ad esempio il riconoscimento delle immagini o la traduzione automatica), le AI generiche sono progettate per essere adattabili e flessibili, capaci di affrontare problemi e compiti diversi senza richiedere modifiche strutturali.

Per esempio, i modelli di linguaggio come GPT, utilizzati per rispondere a domande, tradurre testi, scrivere articoli e anche codificare, rientrano in questa categoria. Sono strumenti che possono essere impiegati in settori come la sanità, l’educazione, il marketing e l’industria tecnologica, rendendoli molto versatili e quindi potenzialmente più difficili da regolamentare rispetto alle intelligenze artificiali focalizzate su compiti specifici.

Il ruolo di presidenti e vicepresidenti

La supervisione del processo di stesura del Codice è affidata a un gruppo di presidenti e vicepresidenti, scelti per la loro esperienza in settori chiave come diritto, governance dell’AI e sicurezza informatica. Questi esperti guideranno i lavori attraverso quattro gruppi di lavoro, ognuno con uno scopo specifico.

Il loro compito non sarà solo quello di facilitare le discussioni, ma anche di raccogliere e sintetizzare i contributi dei partecipanti alla consultazione multi-stakeholder, che ha già prodotto 430 contributi preliminari. La loro leadership è cruciale per garantire che i temi della trasparenza, della valutazione del rischio, della mitigazione delle minacce tecniche e della governance dei fornitori di IA siano affrontati in modo esaustivo.

Le discussioni dureranno fino ad aprile 2025, quando verrà presentata la bozza finale del Codice di condotta.

I gruppi di lavoro e i loro obiettivi

Ogni gruppo di lavoro si focalizzerà su un’area specifica, con presidenti e vicepresidenti provenienti da diversi contesti accademici e industriali.

  • Gruppo 1: Trasparenza e norme relative al copyright. Co-presieduto da Nuria Oliver e Alexander Peukert, questo gruppo avrà il compito di affrontare questioni legate alla trasparenza degli algoritmi e ai diritti d’autore nell’ambito dell’intelligenza artificiale. La loro esperienza combina competenze tecniche e giuridiche, con Oliver, direttrice della ELLIS Alicante Foundation, e Peukert, esperto di diritto del copyright presso l’Università di Francoforte;
  • Gruppo 2: Identificazione e valutazione del rischio. Il gruppo, guidato da Matthias Samwald con l’italiana Marta Ziosi nel ruolo di vicepresidente, si occuperà della valutazione dei rischi legati all’uso dell’AI. Samwald è un professore dell’Università di Vienna con una vasta esperienza nell’IA applicata alla medicina, mentre Ziosi è una giovane ricercatrice italiana che sta guadagnando rapidamente riconoscimenti per il suo lavoro sull’etica dell’intelligenza artificiale;
  • Gruppo 3: Attenuazione del rischio tecnico. Questo gruppo sarà diretto da Yoshua Bengio, uno dei pionieri del deep learning, affiancato dall’italo-tedesco Daniel Privitera. Il loro compito sarà di sviluppare linee guida per ridurre i rischi legati alla sicurezza tecnica dei modelli di AI;
  • Gruppo 4: Gestione interna del rischio e governance dei fornitori di AI generica. Il gruppo sarà presieduto dall’ex eurodeputata Marietje Schaake e avrà il compito di sviluppare misure per la governance interna delle aziende che forniscono intelligenza artificiale generica.

Chi sono i due italiani: Marta Ziosi e Daniel Privitera

Tra i numerosi esperti coinvolti nel progetto, spiccano due figure italiane che rivestono ruoli di rilievo nei gruppi di lavoro: Marta Ziosi e Daniel Privitera.

Marta Ziosi

Marta Ziosi Digital Ue
Marta Ziosi, vicepresidente del gruppo “Identificazione e valutazione del rischio”

Marta Ziosi è una ricercatrice emergente nel campo dell’intelligenza artificiale e della governance tecnologica. Attualmente ricopre il ruolo di vicepresidente del gruppo di lavoro 2, che si occupa della valutazione del rischio. Ziosi ha conseguito il dottorato presso l’Oxford Internet Institute e ha dedicato gran parte del suo lavoro allo studio dei pregiudizi algoritmici e degli standard per i grandi modelli linguistici. La sua carriera si distingue per l’attenzione all’equità e alla giustizia sociale nell’uso dell’intelligenza artificiale. Inoltre, è fondatrice di AI for People, un’organizzazione non-profit che mira a garantire che le tecnologie avanzate siano utilizzate per il bene pubblico. La sua presenza nel gruppo di lavoro 2 garantisce un focus su questi aspetti critici.

Daniel Privitera

Daniel Privitera Digital Ue
Daniel Privitera, vicepresidente del gruppo “Attenuazione del rischio tecnico”

Daniel Privitera, invece, è il vicepresidente del gruppo 3, responsabile della mitigazione del rischio tecnico. Privitera ha un background diversificato e internazionale, che unisce la sua esperienza italiana e tedesca. È il fondatore del KIRA Center a Berlino, un centro indipendente che si occupa di politiche sull’intelligenza artificiale. Privitera ha anche contribuito a importanti ricerche internazionali sulla sicurezza dell’AI, collaborando con esperti provenienti da tutto il mondo. La sua esperienza lo rende una figura chiave nella gestione dei rischi tecnici legati all’intelligenza artificiale.

Anche loro saranno protagonisti del Codice di Condotta per l’uso dell’intelligenza artificiale generica, l’ennesimo passo avanti dell’Ue nel regolare quella che molti definiscono la “quarta rivoluzione industriale”.