Il riconteggio dei voti in Romania conferma la vittoria vittoria inaspettata dell’ultranazionalista Calin Georgescu al primo turno delle presidenziali. Nel mentre i tre partiti di estrema destra hanno triplicato il consenso di cui godono (32%) rispetto al 2020. Quelli filoeuropei potranno comunque creare un governo di maggioranza, ma tanto dipenderà dall’elezione del prossimo presidente, a cui spetta nominare il premier. Occhi puntati sulla sfida tra Georgescu e la liberale Elena Lasconi il prossimo 8 dicembre.
La vicenda elettorale nel Paese al confine con l’Ucraina ha riportato bruscamente l’attenzione sul rischio di manipolazione elettorale. Cruciale la campagna su TikTok di Georgescu, talmente efficace da rasentare l’incredibile e portare il Consiglio supremo di difesa nazionale romeno ad accusare la piattaforma cinese di “trattamento preferenziale”. Le autorità europee e romene hanno incontrato i rappresentanti di TikTok e altre aziende social, mentre la Commissione soppesa l’apertura di un’indagine formale.
Il sospetto è che l’algoritmo di TikTok abbia influenzato il risultato delle elezioni amplificando i contenuti di Georgescu a scapito di altri. Ora si tratta di capire chi avrebbe manipolato l’algoritmo. Come ha spiegato ad Adnkronos Mattia Caniglia, Senior Intelligence and Policy Analyst presso il Global Disinformation Index, è ancora troppo presto per indicare possibili responsabili. Ma si sa dell’esistenza di una rete di coordinamento in grado di potenziare i contenuti del candidato, e si sa che ha messo in campo “tecniche simili” a quelle utilizzate da attori pro-Russia in Moldova.
È evidente che i meccanismi della democrazia siano sempre più esposti a quelli della sfera digitale – ambito che Russia, Cina, Iran e Corea del Nord trattano apertamente come un campo di battaglia dove condurre operazioni ibride per indebolire l’Occidente. Per Eurofocus Caniglia approfondisce il funzionamento delle operazioni di influenza, partendo dal caso Georgescu e finendo per analizzare il futuro del suo ambito, quello della lotta alla disinformazione, all’alba della seconda era Trump.
Le ombre dietro alla campagna TikTok
Anzitutto serve mettere ordine tra ipotesi e certezze. Non è detto che la manipolazione sia avvenuta per via di un’influenza straniera, evidenzia l’esperto: potrebbe anche essere scaturita dalla strategia social che ha usato Georgescu. Da una parte le autorità hanno rilevato che spesso i suoi post non erano etichettati come contenuto politico, come richiesto dalla legge (TikTok ribatte che ha preso le contromisure necessarie). Dall’altra non è chiaro chi abbia finanziato la campagna: il candidato assicura che dietro ci fossero solo lui e la moglie, ma secondo Caniglia servono ben altre risorse per raggiungere quel livello di visibilità.
A ogni modo, i ricercatori hanno rilevato l’esistenza concreta di una rete di coordinamento pensata per amplificare la viralità dei contenuti di Georgescu. Da una parte un esercito di account falsi (almeno 5.000) che hanno messo like, commentato e ricondiviso certi post in maniera coordinata. Dall’altra una schiera di influencer pagati per promuovere determinati contributi – evitando di etichettare i loro contenuti come pubblicità sponsorizzata, cosa doppiamente illegittima, perché quella politica è vietata su TikTok.
Sono due esempi di quello che gli esperti definiscono comportamenti inautentici coordinati, progettati per moltiplicare la visibilità dei contenuti in maniera artificiale. Una manipolazione “dal basso” dell’algoritmo che – come rileva Caniglia – “fa parte del toolkit della disinformazione russa”.
Chi dava le direzioni? I ricercatori hanno identificato una serie di gruppi Telegram popolati da “volontari” pronti a ricevere istruzioni dettagliate su cosa commentare, come rilanciare, quali hashtag usare. “Questi canali erano gli strumenti di coordinamento, e i partecipanti sono stati incentivati con premi in denaro e competizioni. Tattica che abbiamo osservato in Moldova analizzando i comportamenti online degli attori pro-russi”, un parallelo certo senza nemmeno tirare in causa la natura dei messaggi veicolati da Georgescu.
Terreno fertile
Per apprezzare l’entità dell’operazione serve evidenziare che in Romania TikTok è utilizzato da nove milioni di cittadini su un totale di diciannove, motivo per cui tutti i candidati hanno utilizzato la piattaforma. Altro elemento rilevante: lo scetticismo diffuso nei confronti dei media mainstream che emerge dai dati del Reuters Institute, con l’indice di fiducia crollato al 27%, unito alle percentuali di cittadini che si informano online (66%) e via social media (44%), Telegram su tutti.
L’esperto ricorda che la disinformazione non attecchisce nel vuoto ma sfrutta “finestre di opportunità, momenti di particolare tensione nella vita democratica di un Paese”, come quelli elettorali. Servono anche “una serie di condizioni sociali, economiche e culturali che si riversano dentro il dibattito politico”, del genere che Georgescu è stato in grado di cavalcare intercettando un malcontento e trasformandolo in voto di protesta.
La dimensione internazionale
Le implicazioni non si sentono solo a livello nazionale. La Romania ha “un’importanza non irrilevante dal punto di vista geopolitico”. Esistono fortissimi collegamenti con la popolazione della vicina Moldova, altro Paese molto attenzionato dal Cremlino. Ed è un partner fondamentale per la difesa dell’Ucraina, nonché culla di un’importante base Nato (a Deveselu) che diventerebbe fondamentale in caso di peggioramento della guerra cinetica russa.
Questi e altri elementi fanno pensare a un interesse russo nella vittoria di Georgescu, che ha definito i missili Usa a Deveselu una “vergogna” nazionale, promesso di fermare gli aiuti militari all’Ucraina, criticato l’appartenenza della Romania alla Nato e all’Ue e invocato l’uso di “saggezza russa” nella definizione della politica estera.
Acque torbide
In questo contesto, i contenuti della campagna di Georgescu sono rapidamente passati da una media di circa 70 milioni a 120-140 milioni di visualizzazioni. Aumento “naturale” o causato da comportamenti inautentici coordinati? “Solo un’indagine della Commissione può portare TikTok a divulgare i particolari relativi all’amplificazione dei contenuti”, sottolinea Caniglia.
Va detto che la piattaforma non brilla per trasparenza. Per esempio, la società non ha mai veramente spiegato perché la “Lettera all’America” di Osama Bin Laden sia diventata virale tra gli utenti più giovani nel 2023. Un fenomeno che presenta un chiaro rischio di “salto di specie” del messaggio, ovviamente estremista e violento, dalla sfera social al mondo fisico.
Al momento chi fa ricerca non ha veramente modo di studiare come e perché un contenuto diventa virale: può dedicarsi all’“ascolto” (social media listening) con determinati strumenti, ma finché le piattaforme non rendono quei dati completamente accessibili – e nessuna di quelle grandi lo fa davvero – si può procedere solo a tentoni, spiega l’esperto.
Il capitolo Dsa
È qui che entra in gioco il Digital Services Act, il pacchetto di leggi europee sulla sfera digitale, che richiede di valutare e mitigare rischi sistemici nel contesto di processi elettorali e che contiene anche strumenti per scoperchiare le “black box” degli algoritmi. La Commissione europea sta appunto valutando se aprire un’indagine formale per scoprire se la piattaforma ha rispettato gli obblighi del Dsa, mezzo “potente” (prevede multe fino al 6% del fatturato annuo globale) ma che deve ancora arrivare a piena maturità, sottolinea Caniglia. Senza contare che “in molti contesti la disinformazione è illegittima, ma non illegale”.
Minacce ibride…
Il lavoro di chi fa ricerca nel campo della disinformazione si sviluppa sul delicato confine tra libertà di espressione e perversione del discorso democratico. Tuttavia, sarebbe un errore trattare l’argomento solo dal punto di vista della qualità dell’informazione, senza tener conto del più ampio contrasto tra sistemi democratici e autoritari. Anche perché i primi danno per scontata una sfera, quella della libertà d’informazione, che i secondi tentano di ritorcergli contro.
“Ci immaginiamo operazioni chiare, percorsi che vanno da A a B. Ma spesso l’obiettivo è il caos, sparigliare le carte, diminuire l’affezione verso processi e istituzioni democratiche”, spiega l’esperto del Gdi, sottolineando che la disinformazione è una delle minacce ibride che operano al di sotto delle soglie di rilevamento e attribuzione (quella che poi fa scattare la risposta degli Stati). Per questo un soggetto come Georgescu – “con il suo messaggio centrato sul decadimento dei valori occidentali” – è di interesse strategico per il Cremlino.
Va infine ricordato che le operazioni di influenza sono solo uno degli strumenti in un ventaglio di strategie da mandare avanti in parallelo. Caniglia ricorda che il Consiglio supremo di difesa romeno ha denunciato anche una serie di cyberattacchi contro i sistemi legati al processo elettorale, indicando la Russia come possibile colpevole. “Ma esattamente come accade nella sfera cyber, dall’individuazione del pericolo disinformazione all’attribuzione di responsabilità la strada è lunga”.
…e dove trovarle
In questo caso è utile fare paralleli, continua, visto che la combinazione di disinformazione e attacchi informatici è stato un “elemento persistente nelle operazioni di influenza russe degli ultimi tre anni” come Doppelganger e Portal Kombat. E il Cremlino sa modulare le sue strategie in base al Paese-obiettivo: “in Italia ne abbiamo avuto la prova nel 2022, quando la Russia ha messo in circolo narrative sul fatto che l’Europa avrebbe gelato senza il gas russo. In parallelo ha sferrato attacchi cyber nei confronti delle infrastrutture e dei fornitori di energia italiani. Un combinato disposto pensato per aumentare la sensazione di insicurezza energetica” e far passare il messaggio che ridurre e sanzionare gli idrocarburi russi sarebbe stato ancora più controproducente.
Per questo è più utile pensare alla disinformazione come strumento di guerra ibrida; un “hard tool”, dunque anche militare, sottolinea Caniglia. I servizi segreti e di sicurezza di Russia, Cina e Iran hanno divisioni apposite e unità dedicate all’aggressione nell’infosfera. Dalle fabbriche di troll russi al concetto di media convergence (la graduale integrazione tra propaganda interna ed esterna) sancito nelle direttive degli organi del Partito comunista cinese, esiste “un’architettura istituzionale che ci parla di un disegno strategico” da parte delle potenze autocratiche.
La (non) rivoluzione dell’IA
Si parla da tempo del pericolo intelligenza artificiale in ambito elettorale, specie per quanto riguarda i deepfake. Ma dall’analisi delle ultime tornate elettorali, inclusa quella romena, emerge che le falsificazioni generate o potenziate dall’IA hanno avuto un ruolo molto marginale rispetto alle aspettative, rileva l’esperto. Al contrario, sembrano molto più pericolosi i cheapfake (falsi di bassa qualità, creati con tecniche elementari come il montaggio) e i testi generati dall’IA.
Tuttavia, la tecnologia è in rapida evoluzione e le implicazioni rimangono preoccupanti. Canlglia ricorda che durante il periodo elettorale a Taiwan gli operatori di Pechino hanno iniziato a chiamare a casa gli elettori che sapevano essere in bilico tra i candidati più o meno bendisposti verso la Cina. “Sappiamo già che l’IA è in grado di generare voci e conversazioni sempre più convincenti; non serve tanto per immaginarsi cosa si può ottenere automatizzando un’operazioni del genere”.
Gli sforzi multilaterali…
C’è un lato meno angosciante da considerare: gli ultimi anni di sconquassamenti geopolitici e aumento di aggressioni ibride hanno accelerato lo sviluppo della disciplina di contrasto alla disinformazione. L’esperto evidenzia il lavoro fatto dall’unità di Comunicazione strategica (Stratcom) del Servizio europeo per l’azione esterna (Eeas), che ha avuto il merito di definire e de-politicizzare il concetto di “manipolazione e interferenza straniera dell’informazione” (Fimi) lasciando da parte i contenuti e concentrandosi sulle modalità operative e sulle dinamiche, coordinate e inautentiche, che caratterizzano queste operazioni.
Nelle istituzioni europee il tema è molto sentito: “il concetto di Fimi è citato in una decina di lettere di incarico ai nuovi commissari europei”. Si registrano progressi anche sul versante della cooperazione internazionale, dove “a livello di G7 e partner occidentali abbiamo scommesso sulla condivisione di informazioni”, spiega l’esperto. Sono in corso “sforzi multipolari per rafforzare la resilienza di Paesi like-minded”, un lavoro già avviato anche in ambito Nato.
… e il rischio di The Donald?
La spinta rischia di indebolirsi con il ritorno di Donald Trump alla Casa Bianca, avverte l’esperto. Oltreoceano, negli ambienti vicini al tycoon, sono in molti a vedere il settore del fact-checking come un universo politicizzato, composto da critici ostili all’ala trumpiana dei repubblicani. In alcuni casi sono già calati i finanziamenti verso gli enti del settore privato. Secondo Caniglia occorre aspettare e vedere come si concretizza questa pulsione, che probabilmente andrà a impattare soprattutto il settore dedito alla disinformazione interna.
A ogni modo, le strutture che si sono venute a creare a livello internazionale “hanno un peso specifico importante”. Lo spazio dell’informazione vede un “confronto molto attivo” tra Usa e Occidente da una parte, Cina, Russia e altri Paesi autocratici dall’altra, in una corsa a definire il volto del prossimo ordine mondiale. E a nessuno sfugge il fatto che sfilarsi da questa contesa significherebbe lasciare il campo libero agli avversari, ancora più spazio per guadagnare influenza in territori strategici, come l’Africa.
Il punto è che la lotta alla disinformazione è di interesse strategico, del genere che travalica il quadro politico. “Anche con un cambiamento di orizzonti sotto Trump vedo il rinforzarsi, non un allentarsi, dell’attenzione rispetto al confronto con la Cina. Perlomeno in una prima fase. E questo tocca anche aspetti di minaccia ibrida”, conclude Caniglia. Per tornare a TikTok: la decisione dei legislatori Usa di forzarne la vendita o metterla a bando è stata una delle pochissime mosse bipartisan del Congresso a stelle e strisce.