La Commissione Europea ha deciso di ritirare la Direttiva sulla responsabilità dell’intelligenza artificiale (AI Liability Directive), una mossa che ha suscitato forti reazioni all’interno del Parlamento europeo e tra gli stakeholder del settore tecnologico. La proposta, avanzata nel 2022 in parallelo all’AI Act, mirava a modernizzare il quadro normativo esistente per affrontare i danni causati dai sistemi di intelligenza artificiale e garantire un’armonizzazione della protezione legale tra i diversi Stati membri. Tuttavia, secondo la Commissione, non si intravedono margini di accordo politico nel prossimo anno, rendendo opportuno il ritiro della normativa. Questa decisione solleva interrogativi sulla capacità dell’Unione Europea di costruire un mercato digitale unico e competitivo, bilanciando innovazione e tutela dei cittadini.
L’AI Liability Directive avrebbe introdotto un meccanismo di responsabilità ex post, applicabile solo in caso di danni effettivi causati dall’intelligenza artificiale. A differenza dell’AI Act, che si configura come un quadro regolatorio preventivo, la direttiva sulla responsabilità sarebbe intervenuta successivamente per garantire l’accesso alla giustizia delle vittime di eventuali danni. La sua cancellazione lascia un vuoto normativo che, secondo Axel Voss, eurodeputato del Partito Popolare Europeo e relatore principale della normativa, rischia di generare un “Far West normativo” in cui la regolamentazione della responsabilità dell’AI sarà determinata da un mosaico frammentato di 27 legislazioni nazionali differenti, mettendo in difficoltà le startup e le pmi europee.
La posizione del Parlamento Europeo e le critiche alla Commissione
Axel Voss ha criticato apertamente la decisione della Commissione, definendola un errore strategico che compromette la capacità dell’Europa di costruire un mercato digitale orientato al futuro. Secondo Voss, l’assenza di una normativa unitaria sulla responsabilità dell’AI potrebbe rafforzare il potere delle grandi aziende tecnologiche, penalizzando le piccole e medie imprese che non dispongono delle risorse per affrontare dispute legali complesse in più giurisdizioni nazionali.
Inoltre, uno studio presentato dal servizio di ricerca del Parlamento Europeo al Comitato per gli Affari Giuridici ha evidenziato alcune problematiche derivanti dall’attuale quadro normativo, in particolare per quanto riguarda i modelli di linguaggio avanzati come ChatGPT e Claude.ai. Questi sistemi, infatti, potrebbero non rientrare nell’ambito di applicazione della revisione della Direttiva sulla responsabilità del prodotto, sollevando preoccupazioni sulla protezione dei consumatori e sulla certezza del diritto.
Il commissario europeo Maroš Šefčovič ha giustificato la scelta della Commissione sottolineando le difficoltà incontrate nel processo legislativo e la mancanza di progressi tangibili. Secondo Šefčovič, molte delle proposte in discussione sono bloccate da anni senza prospettive concrete di avanzamento, rendendo più utile concentrare gli sforzi su altri dossier legislativi. Tuttavia, il Commissario ha anche lasciato aperta la possibilità di riprendere la discussione sulla direttiva qualora i co-legislatori dimostrino un impegno concreto nel trovare una soluzione condivisa.
L’impatto sulle imprese e il rischio di un mercato frammentato
Il ritiro della Direttiva sulla responsabilità dell’AI, indicato nel programma di lavoro 2025, ha generato reazioni contrastanti tra le parti interessate. Le associazioni di categoria del settore tecnologico e le grandi imprese tendono a ritenere che le disposizioni già previste dalla Direttiva sulla responsabilità del prodotto siano sufficienti a disciplinare le implicazioni legali dell’intelligenza artificiale. D’altra parte, le associazioni dei consumatori hanno espresso preoccupazione per il rischio di una protezione insufficiente nei confronti dei danni causati dall’AI, in assenza di una normativa specifica.
Un aspetto particolarmente critico riguarda l’impatto sulle startup e sulle pmi, che si troveranno ad affrontare un panorama normativo frammentato e disomogeneo. Mentre le grandi multinazionali dispongono delle risorse per adattarsi alle diverse legislazioni nazionali, le realtà imprenditoriali più piccole potrebbero incontrare difficoltà insormontabili nel garantire conformità a regolamentazioni differenti in ciascuno Stato membro. Questo scenario potrebbe ridurre la competitività delle imprese europee rispetto ai colossi tecnologici statunitensi e cinesi, con il rischio di una fuga di talenti e investimenti verso mercati più favorevoli.
Il futuro della regolamentazione dell’AI in Europa
Alla luce di questa decisione, il dibattito sulla regolamentazione dell’intelligenza artificiale in Europa rimane aperto. La Commissione ha affermato che valuterà l’opportunità di proporre un nuovo quadro normativo o un approccio alternativo in futuro. Tuttavia, la mancanza di una chiara roadmap legislativa alimenta l’incertezza tra le imprese e i cittadini, sollevando interrogativi sulla capacità dell’Ue di bilanciare innovazione e protezione dei diritti.
Nel contesto globale, altri attori stanno avanzando con normative più definite. Gli Stati Uniti, ad esempio, stanno discutendo diverse proposte di legge per regolare la responsabilità dell’AI, mentre la Cina ha già introdotto regolamenti stringenti per il settore. L’Unione Europea, che punta a essere leader nella regolamentazione delle nuove tecnologie, rischia di rimanere indietro se non riuscirà a trovare una soluzione condivisa.