“La democrazia è ormai ‘digitale’”: ma il rapporto con l’AI resta difficile

Nell’era delle agorà social, dove pubblico e privato si confondono e la libertà di parola sembra muoversi su un terreno sempre più scivoloso, l’AI è entrata come una forza dirompente che apre a nuove domande
9 ore fa
4 minuti di lettura
Oreste Pollicino all'AI Fest
Oreste Pollicino, professore di Diritto Digitale alla SDA Bocconi School of Management (Adnkronos)

L’intelligenza artificiale sta riscrivendo le regole della democrazia, che ormai è sempre più ‘democrazia digitale’. Nell’era delle agorà social, dove pubblico e privato si confondono e la libertà di parola sembra muoversi su un terreno sempre più scivoloso, l’AI è entrata come una forza dirompente che apre a nuove domande. Chi stabilisce i confini del dibattito? E’ giusto dire qualsiasi cosa, anche quando travalica nell’hate speech e nella disinformazione? E come la mettiamo con le regole? Oreste Pollicino, professore di Diritto Digitale alla SDA Bocconi School of Management, ha affrontato queste spinose e quanto mai attuali questioni in uno speech nell’ambito dell’AI Fest che si è tenuto a Milano il 26 e 27 febbraio.

La caratteristica dell’AI: l’autonomia

Pollicino ha delineato due elementi principali nel complicato rapporto tra AI e democrazia. Quanto al primo aspetto, la caratteristica dell’AI attuale è l’autonomia: “L’AI non è nuova, già nel 1950 Turing ne parlava”, ma “tutto era stabilito dalle statistiche e dall’essere umano”. “Nell’epoca pre-Altman (Sam Altman, fondatore di Open AI che nel 2022 con Chat GPT ha fatto esplodere la rivoluzione dell’AI, ndr), c’era poca autonomia e più human oversight”, mentre ora quest’ultimo “scompare dalla definizione”.

Lo stesso AI Act, di cui lo scorso 2 febbraio sono entrate in vigore le disposizioni relative alle pratiche vietate, “prova a definire l’AI come un meccanismo basato su diversi livelli di autonomia che in base a deduzioni e input produce output prevedibili in autonomia”, che è il “vero elemento di discontinuità che si collega alla democrazia”, ha spiegato il professore.

“La democrazia digitale è ormai la democrazia tout court”

E veniamo al secondo punto: per Pollicino occorre prendere atto che “la democrazia digitale è ormai la democrazia tout court”, caratterizzata dal fatto per cui oggi ci sono ancora delle agorà, ovvero degli spazi di discussione pubblica, ma sono agorà digitali. E sono “diversi dalle agorà delle polis greche perché hanno una dimensione proprietaria e non collettiva”, ovvero appartengono a privati.

Lo stesso vale per i contenuti: in sostanza, ha spiegato l’esperto, al centro del dibattito ci sono cose “pubbliche o parapubbliche”, ma la discussione avviene in un luogo che sembra pubblico mentre in realtà è privato. Un luogo dove avviene anche il “libero scambio delle idee”, che per Pollicino è più un “mercato”. E siamo sicuri che questo mercato “sia proprio libero?”, ha chiesto il professore aggiungendo una sua risposta: “Il mercato tecnologico è tutto tranne che libero, è fatto di oligopoli e monopoli”.

La ‘zona grigia’ della libertà di espressione

Si arriva così al “problema di tutelare la libertà d’espressione, cane da guardia della democrazia, ma anche di avere regole per avere una bussola”.

Se negli ultimi tempi, soprattutto a opera delle forze di estrema destra e della nuova amministrazione Usa a guida Donald Trump (e Elon Musk, suo stretto braccio destro, nonché uomo più ricco del mondo e proprietario, tra le altre cose, di X), si sono sentiti richiami al “ritorno alle origini” della libertà d’espressione, ritenuta soffocata dalla iper-regolamentazione europea, per Pollicino la questione è più complessa.

Intanto, ha affermato il professore, quello attuale delle piattaforme è un modello di business che va visto come una scelta tra i modelli di business possibili, e non giustificato con un “ritorno alle origini” della libertà d’espressione.

Inoltre, ci muoviamo su un terreno molto scivoloso: “Non tutto quello che diciamo è libertà d’espressione, a volte è hate speech o disinformazione, che è una zona grigia perché è legittima ma dannosa: lawful but harmful”, ha sottolineato Pollicino.

Ed è proprio questa zona grigia “il campo dove si combatte oggi la battaglia per la democrazia”.

Cosa va rimosso? E chi lo decide? I ‘Terms&Conditions’

D’altronde il problema effettivamente esiste: cosa va rimosso e cosa no dalle piattaforme web, e ancora a monte, chi lo decide? Chi rimuove e come?

Attualmente sono le VLP, Very Large Platform, a farlo: in sostanza, c’è stata “una delega di potere pubblico al potere privato”, ha spiegato Pollicino. Il punto però sono i criteri alla base delle scelte di moderazione dei contenuti: “Oggi si applicano le condizioni contrattuali delle grandi piattaforme, i ‘Terms&Conditions’”, ha evidenziato Pollicino aggiungendo che questo “non è per forza un male”.

Tuttavia rimane quella zona grigia di contenuti tecnicamente non illegittimi, non penali, ma dannosi, una zona ampia che apre alla discrezionalità. E qui può insinuarsi il pericolo per la democrazia: “Il pubblico sta delegando funzioni para costituzionali”.

È pur vero che “il regolatore europeo non può conoscere tutto quello che nel rapporto tra scienza e diritto, quindi è giusto delegare, ma non in blocco”, ha affermato il professore.

Ue e Usa: due approcci opposti

L’Ue ha comunque regolato, prima al mondo, l’AI. A partire dal Codice europeo contro la disinformazione del 2022 – diventato pochi giorni fa Codice di Condotta nell’ambito del Digital Service Act – contenente buone pratiche cui le piattaforme aderiscono volontariamente.

E poi l’AI Act, col quale “La self-regulation è diventata co-regulation (pubblico-privato): la Commissione può fare enforcement, comminare multe”. Si tratta di norme che per Pollicino funzionano “come un guard rail, per non far debordare”.

Completamente diverso l’approccio degli Usa, dove partendo dal principio che “non esistono fake news sotto il Primo emendamento” si è arrivati a una “forsennata self-regulation, un po’ moderata da Biden ma ora con Trump osserviamo un cambiamento completo che è soprattutto politico”.

E di fronte a questa completa differenza di vedute, e all’attuale ostilità da parte dell’amministrazione Trump verso l’Unione europea, Pollicino ha suggerito che gli europei possano “anche guardare al modello cinese o indiano, se si vede che di là (in Usa, ndr) non c’è corrispondenza”.

Bisogna stare attenti, in definitiva, anche all’”effetto contagio al ribasso”, molto facile a verificarsi come dimostrano il ritiro da parte di Musk dal Codice di condotta del 2022 e la recente decisione di Meta di non impegnarsi più negli standard di fact-checking.

L’equilibrio tra regole, innovazione e valori

Per farlo, ha spiegato Pollicino, occorre “evitare la semplicistica dicotomia ‘regolazione vs innovazione’”, che potrebbe portare a preferire la seconda a scapito di ogni ‘guard rail’, come nel modello americano appunto.

La domanda piuttosto, ha concluso il professore offrendo un importante spunto di riflessione, “è quale sia l’equilibrio tra una regola che non soffochi e il mantenimento dei valori che ci caratterizzano”.

Rimanendo sempre coi piedi per terra: “C’è da essere preoccupati? Sì. C’è da essere distopici? No”, ha concluso.