AI europea: la buona notizia di Open LLM e la cattiva delle 135 pagine per capire un singolo articolo dell’AI Act

L'Unione europea risponde a Usa e Cina e lancia il proprio modello di intelligenza artificiale basato su trasparenza e rispetto delle disuguaglianze
2 giorni fa
4 minuti di lettura
Ribera Teresa Afp
La commissaria Ue per la Concorrenza, Teresa Ribera (Nicolas Tucat/Afp)

L’Unione europea risponde a Usa e Cina e lancia Open Euro LLM (Large Language Model), un modello di intelligenza artificiale con cui punta a distinguersi dai concorrenti. Si tratta di una iniziativa open-source sostenuta da un consorzio di venti istituti di ricerca, aziende Ai e centri di supercalcolo europei, con il supporto della Commissione.

Tra lo strapotere economico del progetto Stargate e la paura per i dati personali dati in pasto a DeepSeek, con Open Euro LLM, Bruxelles vuole mandare un messaggio chiaro: si può operare nel settore dell’intelligenza artificiale anche senza calpestare i principi di trasparenza e responsabilità sociale.

Ma si può essere anche competitivi? Secondo gli analisti è questo il punto più dolente del progetto europeo.

Open Euro LLM, principi chiari ma poche risorse

Alla guida di Open Euro LLM ci sono Jan Hajič, linguista computazionale dell’Università di Praga, e Peter Sarlin, co-fondatore di Silo Ai, il maggior laboratorio privato di intelligenza artificiale presente in Europa, già acquisito dal produttore americano di chip Amd per quasi 670 milioni di dollari. Tra i partner, l’iniziativa europea vanta la presenza di Aleph Alpha, eccellenza tedesca nel settore, il finlandese Csc, che utilizza uno dei supercomputer più potenti al mondo, e il francese Lights On, la prima impresa di intelligenza artificiale generativa europea quotata in borsa.

Il discorso, però, si incarta proprio sulla questione economica: con un budget di soli 52 milioni di euro, Open Euro LLM è molto distante dai 500 miliardi di investimenti annunciati da Trump per il progetto Stargate e dalle cifre di DeepSeek, che pure ha dimostrato di poter abbattere i costi per lo sviluppo dell’intelligenza artificiale (anche se i confronti tra le spese di OpenAi e quelli dell’Ai cinese partono da considerazioni fallaci). Anche restando in Europa le cifre appaiono irrisorie. Basti pensare che la francese Mistral AI ha raccolto 385 milioni di euro in un solo round.

“Con questa cifra si riesce a creare un modello linguistico, basandosi sulle esperienze dei modelli open già esistenti, lavorando su quello, aggiungendo e personalizzando ciò che già esiste, ma per un’infrastruttura è già più difficile”, ha dichiarato Vincenzo Cosenza riportato da Agenda Digitale. Come sottolineato dal consulente di innovazione e formatore sui temi di Ai per “riequilibrare i rapporti tecno-geopolitici con la Cina e con gli Usa” servono investimenti molto più ingenti.

D’altra parte il progetto europeo si distingue per i suoi valori e principi, che enfatizzano la trasparenza, l’inclusività e la responsabilità sociale, in contrasto con le pratiche di alcune aziende statunitensi e cinesi. Il che rende ancora più auspicabile uno ‘Stargate europeo’ come ampiamente spiegato dal divulgatore digitale Raffaele Gaito ai microfoni di Eurofocus. È pur vero che i Ventisette spesso non trovano l’accordo su tematiche meno delicate o almeno quando i soldi in ballo sono molti meno, ma questa potrebbe essere l’ultima chiamata per l’Europa.

Proprio l’approccio collaborativo è uno dei principali punti di forza di Open LLM che incoraggia la partecipazione di ricercatori, sviluppatori e aziende in tutta Europa, creando un ecosistema in cui le conoscenze e le risorse possono essere condivise. Questo non solo promuove l’innovazione, ma garantisce anche che i modelli siano sviluppati tenendo conto delle esigenze locali e delle normative europee. Inoltre, Open LLM si impegna a sviluppare i modelli in modo etico adottando misure per prevenire bias, stereotipi e discriminazioni da parte dei modelli di intelligenza artificiale.
La trasparenza nel processo di sviluppo è un altro aspetto fondamentale del progetto europeo, che permette agli utenti di comprendere come funzionano i modelli e quali dati sono i dati utilizzati. Un aspetto venuto alla ribalta con il confronto tra DeepSeek e il Garante della Privacy italiano, il primo a chiedere lumi sul trattamento dei dati personali.

Un’Ai davvero democratica?

Parlando dell’Ai cinese si è usato (e forse abusato) il concetto di “democratizzazione” dell’Ai, incentivata dalla natura open source dell’Ai di Liang Wenfeng e soci. Open Euro LLM vuole rendere concreto questo concetto offrendo un linguaggio liberamente disponibile per imprese e istituzioni pubbliche, in armonia con le leggi, la cultura e la diversità dei Ventisette. Infatti, grazie alla collaborazione con comunità open-source come LAION, open-sci e OpenML, i modelli sviluppati a livello europeo saranno aperti e ottimizzabili per esigenze specifiche di industria e settore pubblico.

Il progetto europeo si inserisce nel più ampio quadro strategico per l’innovazione e l’indipendenza tecnologica promosso da Bruxelles come dimostra il fatto che OpenEuroLLM abbia ricevuto il sigillo Step (Strategic Technologies for Europe Platform), il programma Ue per incentivare gli investimenti nelle tecnologie strategiche.

Le linee guida Ue sulla sicurezza dell’Ai

Intanto, Bruxelles si muove anche sotto il profilo normativo che è sempre stato il punto di forza dell’Unione europea. La Commissione Ue ha infatti pubblicato le linee guida sui divieti dell’Ai Act, ovvero sulle pratiche di intelligenza artificiale classificate “a rischio inaccettabile” e quindi vietate dall’art. 5 del testo. Giova ricordare che il Regolamento europeo segue un percorso di attuazione a tappe (qui per conoscere le varie fasi).

Le linee guida si concentrano su pratiche come il riconoscimento biometrico in tempo reale nei luoghi pubblici, i sistemi di punizione sociale e altre applicazioni che possono compromettere i diritti fondamentali e la dignità umana. La complessità della materia è evidente nel fatto che la Commissione ha dedicato ben 135 pagine a spiegare questi divieti. Un’indicazione della serietà con cui l’Ue affronta le implicazioni etiche e sociali dell’Ia, ma anche un campanello d’allarme: l’Europa ha bisogno di snellire le procedure e i contenuti per essere competitiva con i mercati Usa e Cina, caratterizzati da una forte deregulation.

L’Ue stessa sembra in affanno rispetto alla propria regolamentazione, dato che le linee guida sono entrate in vigore il 4 febbraio, due giorni dopo che gli stessi divieti sono diventati applicabili in base alla calendarizzazione dell’Ai Act. Chiarimenti del genere dovrebbero arrivare prima che le nuove norme entrino in vigore, anche perché le aziende, in caso di violazione, rischiano sanzioni fino al 7% del fatturato globale. Ciò che l’Ue deve sicuramente evitare è un altro autogol, dopo quello registrato sulle auto green.

Le linee guida di Bruxelles specificano chiaramente che le pratiche vietate non solo minacciano la sicurezza e la privacy degli individui, ma possono anche contribuire alla discriminazione e all’ingiustizia sociale. Perciò, la Commissione ribadisce l’importanza di proteggere i diritti fondamentali e promuovere un’Ai che rispetti i valori europei, come la dignità umana, la libertà e la democrazia. Questo approccio dell’Ue si differenzia nettamente dalle pratiche di alcune aziende cinesi e statunitensi, che mettono al primo posto l’innovazione e il profitto (anche) a scapito di considerazioni etiche.

Tuttavia, perché l’approccio europeo abbia davvero un ruolo nello sviluppo dell’intelligenza artificiale, serve che i progetti siano competitivi. Ai Ventisette il difficile compito di trovare un compromesso tra principi e redditività, nella consapevolezza che un bagnino può salvare la vita di qualche bagnante avventuratosi in acque troppo alte, ma non può evitare uno tsunami.