“Non abbiamo votato ChatGpt”. Questo è il senso della polemica nata negli ultimi giorni in Svezia. Ad alimentarla è stato il primo ministro Ulf Kristersson, finito nel mirino dell’opinione pubblica per aver ammesso di consultare regolarmente gli strumenti di intelligenza artificiale per ottenere un secondo parere, nel suo ruolo di capo di governo.
Ma Kristersson non è il solo a usare l’Ai per farsi “aiutare” nel quotidiano lavoro di amministrazione pubblica. Altri politici hanno attirato l’attenzione per le stesse motivazioni. Ma quali sono i rischi?
Non solo il primo ministro svedese…
È il caso del parlamentare Mark Sewards, del partito laburista del Regno Unito, ha collaborato con una startup di intelligenza artificiale per creare una sua rappresentazione virtuale di se stesso, utilizzando la sua voce e consentendo alle persone di chiedere aiuto su questioni locali o quesiti politici. Il rappresentante del West Yorkshire ha spiegato che ciò “aiuterà a rafforzare il legame tra l’ufficio di un parlamentare e gli elettori che serviamo“, ma alcuni si chiedono se di questo passo non si crei un ulteriore distacco tra i politici e il pubblico.
Anche in Italia un caso simile ha attirato l’attenzione dell’opinione pubblica. L’ex presidente del Senato Renato Schifani, ad esempio, ha pubblicato sui propri profili social un post che conteneva lo script inviato all’Ai. Al Chatbot, infatti, chiedeva di suggerirgli “un post per Facebook in prima persona e con enfasi, adatto a un tono istituzionale ma coinvolgente per raccontare l’inaugurazione di alcune opere contro l’emergenza idrica in Sicilia?”. La richiesta, avanzata all’intelligenza artificiale da chi ne cura la comunicazione, ha fatto il giro del web diventando una gaffe che è subito rimbalzata sui social.
Ma a livello internazionale è forse proprio il presidente statunitense Donald Trump a preoccupare con il suo uso massiccio di Intelligenza artificiale per la creazione di video fake poi diffusi sui propri canali social. Tra i più famosi, quello pubblicato sul sito Truth Social nel quale si vedono Trump e il primo ministro israeliano Benjamin Netanyahu prendere il sole in un resort in stile Dubai, mentre Elon Musk viene inondato di banconote mentre cammina su una spiaggia. Il problema? Le ambientazioni extralusso sono situate nella Striscia di Gaza dove oggi vige fame e guerra. “Abbiamo l’opportunità di fare qualcosa che potrebbe essere fenomenale… la Riviera del Medio Oriente, potrebbe essere magnifica”, erano le parole di Trump a corredo del video.
Il parere degli esperti
Gli esperti di tecnologia hanno espresso perplessità rispetto all’utilizzo dell’Ai da parte dei politici. Per Simone Fischer-Hübner, ricercatrice informatica dell’Università di Karlstad, “bisogna essere molto cauti“, ha dichiarato all’Aftonbladet mettendo in guardia dall’utilizzare ChatGpt per gestire informazioni sensibili. Il portavoce del premier, Tom Samuelsson, ha affermato che il premier non ha fornito all’Ia “informazioni sensibili per la sicurezza. Viene usata più come riferimento”.
La dottoressa Susan Oman, dell’Università di Sheffield, ha spiegato che il crescente utilizzo dell’intelligenza artificiale nel settore pubblico ha creato diversi problemi negli ultimi anni, in particolare per le generazioni più anziane che non riescono sempre a cogliere rapidamente la differenza tra reale e virtuale: “Potrebbero non rendersi conto di stare chattando con un bot e spesso pensano di stare chattando con una persona fisica. Questa può rivelarsi un’esperienza piuttosto angosciante e accrescere la confusione”.
Come viene e sarà usata l’Ai: dal public speech alle elezioni
Una ricerca dell’International Panel on the Information Environment (Ipie) ha esaminato in modo completo l’impiego dell’intelligenza artificiale generativa (GenAI) nelle elezioni nazionali del 2024 a livello globale. La ricerca si è concentrata sugli incidenti documentati di uso della GenAI, classificandoli per tipo (creazione di contenuti, proliferazione, ipertargeting) e identificando gli attori coinvolti (esterni, partiti politici, lobbisti, attori commerciali a pagamento e governi).
Per citare alcuni esempi anche europei, il Partito della Libertà d’Austria (Freiheitliche Partei Österreich, Fpo) è stato protagonista di un incidente legato all’Ai, durante le elezioni dello scorso anno: un’ala del partito di destra si è avvalso di deepfake per fare propaganda, nonostante gli altri partiti in corsa avessero firmato un accordo volontario per astenersi dall’uso dell’Ai durante le elezioni.
In Lituania, invece, pare che attori statali bielorussi siano intervenuti durante le elezioni presidenziali utilizzando strumenti GenAi per tradurre interviste ingannevolmente modificate e segmentare il pubblico di destinazione in due lingue (russo e lituano). Questo è un esempio di ipertargeting condotto da un “attore straniero” con lo scopo di interferire nelle elezioni.
Nel suo studio del 2024, Ai Forensics, organizzazione non-profit con sede in Europa specializzata in auditing algoritmico, ha analizzato come le immagini generate dall’intelligenza artificiale siano state utilizzate nelle campagne politiche francesi durante le elezioni del Parlamento europeo e le elezioni legislative del 2024. Ciò che è emerso è un gruppo di 51 casi di immagini generate dall’intelligenza artificiale su Facebook, Instagram e X. Il Rassemblement National, Reconquête e Les Patriotes hanno utilizzato immagini di intelligenza artificiale generativa come strategia di campagna integrale (un solo caso è stato osservato sia da L’Alliance Rurale che dall’Union des Démocrates et Indépendants). Queste immagini avevano lo scopo di enfatizzare narrazioni anti-Ue e anti-immigrazione: “Nessuna delle immagini generate dall’intelligenza artificiale è stata etichettata come tale dai partiti politici o dalle piattaforme di hosting – scrivono i ricercatori -. I nostri risultati evidenziano la necessità di una moderazione più rigorosa dei contenuti e di politiche più rigorose a livello europeo che disciplinino l’uso dell’intelligenza artificiale generativa nelle elezioni, per salvaguardare i processi democratici e l’integrità elettorale”.
Cosa fare?
Secondo l’Istituto per gli Studi di Politica Internazionale (Ispi), le responsabilità di un uso consapevole dell’Ai ricadono su più soggetti e a questi è chiesto di tutelare i cittadini da disinformazione o manipolazione politica. Come?
Le aziende che sviluppano strumenti di intelligenza artificiale generativa adottano diverse tattiche, inclusa l’incorporazione di filigrane per identificare i contenuti generati artificialmente. Google, ad esempio, ha introdotto SynthID, uno strumento che modifica sottilmente i pixel di un’immagine per includere un pattern invisibile, rilevabile anche dopo modifiche significative. Alcune di queste aziende si sono anche impegnate nello sviluppo di tecnologie per la classificazione dei contenuti generati artificialmente. Tuttavia, l‘implementazione delle filigrane presenta sfide, come decidere quando renderne l’uso obbligatorio, dato che non tutti i contenuti Ai sono ingannevoli.
Le piattaforme di social media giocano un ruolo cruciale nella lotta ai deepfake attraverso la moderazione dei contenuti, utilizzando sistemi di Ai per la rimozione automatica e moderatori umani per i casi ambigui. L’obiettivo è rimuovere rapidamente i contenuti falsi per impedirne la viralità. Queste piattaforme intendono implementare sistemi di etichettatura per indicare l’origine artificiale dei contenuti, anche se non sempre specificano se il contenuto è dannoso o falso. In Europa, piattaforme come Google e Facebook aderiscono volontariamente al Codice di condotta sulla disinformazione per ridurre la diffusione di disinformazione e il Digital Services Act (Dsa) impone loro trasparenza sugli algoritmi per mitigare i rischi dei contenuti Ai.
I governi stanno intervenendo emanando leggi per ritenere responsabili creatori, piattaforme e utenti dei deepfake, e per stabilire requisiti legali per la loro generazione. Negli Stati Uniti, 27 Stati stanno adottando misure, che includono requisiti di divulgazione (richiedendo disclaimer sui media Ai elettorali) e divieti di deepfake in periodi specifici prima delle elezioni. A livello internazionale, il Brasile, ad esempio, ha imposto un divieto assoluto dell’uso della tecnologia deepfake nella propaganda elettorale per il 2024. La nuova legge europea sull’Ai impone l’etichettatura e le filigrane per i contenuti generati o manipolati.
I media, i giornalisti e le organizzazioni di fact-checking sono in una posizione privilegiata per verificare i fatti e le fonti, una competenza critica nell’era dei deepfake. Essi contribuiscono ad aumentare la consapevolezza del pubblico sulla tecnologia deepfake e utilizzano tecniche come la consultazione di madrelingua per l’audio, l’esame dei metadati e strumenti online come “Ai or not” per l’autenticazione iniziale. Organizzazioni come ‘Witness’ hanno avviato progetti per assistere cittadini e redazioni nell’analisi di materiale elettorale potenzialmente ingannevole, mostrando maggiore successo nell’identificazione di video manipolati rispetto all’audio. La collaborazione tra aziende tecnologiche, mondo accademico e governi, facilitata dai media, è essenziale per sviluppare strategie efficaci.