Mythos, l’AI di Anthropic che spaventa l’Europa: “Può trasformare le vulnerabilità in crisi”

L’Ue è stata esclusa dall'accesso al modello super avanzato di Dario Amodei, talmente pericoloso da essere concesso per i test solo a un ristretto club di 'fortunati'. Pierguido Iezzi, esperto di cyber security, spiega cosa c’è in gioco
2 ore fa
11 minuti di lettura
Cybersecurity
(Canva)

Handle with care. Maneggiare con cura. Il rischio che il nuovo modello di intelligenza artificiale sviluppato da Anthropic – il famosissimo Mythos -, possa diventare, se usato in modo ostile, un acceleratore di attacchi informatici, è tale che l’azienda di Dario Amodei ha deciso di essere prudente e non concedere la tecnologia a un utilizzo più ampio, nel timore che possa finire nelle mani sbagliate. Dunque, lo scorso aprile l’ha aperta ai test solo per una quarantina di enti e organizzazioni, principalmente statunitensi, in quello che ha chiamato ‘Project Glasswing’. L’Unione europea non è stata inclusa e pertanto non ha potuto testare il modello di superhacking. La cosa ha scatenato nel blocco molta agitazione.

Bruxelles sta cercando un canale con Anthropic per consentire alle aziende europee di testare la propria resilienza, ha confermato a inizio mese durante l’Ecofin il commissario per l’Economia Valdis Dombrovskis. Ma al momento senza esito. Intanto però è in trattativa con OpenAI, l’azienda produttrice di ChatGPT, per ottenere l’accesso a un modello in grado di identificare le vulnerabilità dei software.

La questione del nuovo modello comunque è complessa e tocca molti aspetti, perché non si tratta solo di cosa Mythos possa fare, ma di chi potrà usarlo e con quali controlli, e naturalmente del vantaggio competitivo e delle asimmetrie che si creano tra chi ha accesso ai sistemi di frontiera (ad esempio gli Stati Uniti) e chi no (ad esempio, l’Europa). Di tutte queste cose, Eurofocus ha parlato con Pierguido Iezzi, direttore Cyber e Strategie di Zenita Group, autore tra l’altro di ‘Hackerare la Mente’. E lo ha fatto partendo dal capire cosa sia questo ormai mitologico Mythos – nomen omen.

Cos’è Mythos

“Mythos è una nuova generazione di intelligenza artificiale progettata per analizzare sistemi digitali, individuare vulnerabilità e ricostruire possibili percorsi di attacco. È una AI capace di analizzare qualunque sistema complesso, non solo tecnologico, ma anche economico, industriale – persino sociale – e leggerne le fragilità. Non si limita a trovare problemi, ma li collega tra loro e ne comprende le conseguenze”, spiega Iezzi.

In queste settimane si è parlato molto di vulnerabilità, perché Anthropic ha affermato che l’anteprima ne aveva scoperte in modo autonomo “migliaia”, in “ogni principale sistema operativo e browser web”, superando tra l’altro la maggior parte dei professionisti umani. Il timore è dunque che il modello consenta a criminali hacker di infiltrarsi in infrastrutture critiche di ogni tipo.

“Di fatto, Mythos identifica e trasforma le vulnerabilità in una fragilità – sottolinea l’esperto -, identificando la modalità con cui puoi accedere all’interno dell’azienda. In pratica, è un sistema che ti guarda la porta di casa e te la sfonda”, con l’aggravante – e questo è il punto – che il modello “ti dice anche come muoverti all’interno della casa”.

Perché Mythos è pericoloso

Ma Mythos è davvero così pericoloso? Oppure c’è anche del ‘marketing’ da parte di Anthropic, sia rispetto alle Big Tech sia rispetto a competitor esterni (leggasi Cina)? Il direttore di Zenita Group spiega: “C’è certamente una componente narrativa, come accade sempre quando una tecnologia diventa simbolica. Ma il punto non è se Mythos sia ‘pericoloso’ in senso assoluto. Il punto è che rende leggibili fragilità che prima erano disperse, nascoste, difficili da collegare”.

Collegare i puntini deboli

“Un aggressore non deve più cercare solo una singola falla – continua l’esperto -. Può capire quali debolezze, se collegate, producono il massimo impatto. Non è più soltanto una questione di accesso, quanto di traiettoria. Chi capisce il percorso, capisce dove colpire”. Il rischio più grande perciò “è la propagazione, il modo in cui la singola vulnerabilità può collegarsi ad altre e trasformarsi in crisi”.


Per essere chiari, “Mythos non crea il rischio, lo illumina. E quando una fragilità diventa leggibile, può essere anticipata, ma anche sfruttata. Questa è la vera discontinuità”.

Fattore tempo

C’è poi un aspetto che qualunque malintenzionato conosce bene: il fattore tempo. Come sottolinea l’AI Security Institute (Aisi) del Regno Unito, che ha avuto accesso a Mythos e ha pubblicato un’analisi tecnica dettagliata, il modello di Anthropic può svolgere in brevissimo tempo attività che a professionisti umani richiederebbero giorni di lavoro. E a costi parecchio inferiori, come evidenzia il britannico National Cyber Security Centre.

Laboratorio vs vita reale

Va precisato che i test svolti dall’Aisi sono stati effettuati su sistemi aziendali di piccole dimensioni, debolmente difesi e vulnerabili. Non si tratta insomma di una situazione reale, che ha (o dovrebbe avere) difensori attivi e strumenti di protezione. Ecco perché gli stessi esperti avvisano di “non poter affermare con certezza se Mythos Preview sarebbe in grado di attaccare sistemi ben protetti”.

Iezzi conferma: ”Il laboratorio dimostra una capacità, ma una simulazione semplificata non equivale automaticamente a una minaccia operativa immediata. Servono contesto, accesso, dati, capacità di esecuzione”. Tuttavia, prosegue, “sarebbe sbagliato liquidare questi risultati. La storia dell’innovazione mostra che ciò che oggi funziona in laboratorio tende, nel tempo, ad avvicinarsi al mondo reale”.

E proprio nella prospettiva di ulteriori avanzamenti dell’AI, gli esperti dell’Aisi sottolineano l’importanza e l’urgenza di investire nella difesa cibernetica, di alzare il livello delle difese di base e di aggiornare i metodi con cui governi e istituti testano il rischio cyber dell’AI. Modelli di frontiera come Mythos, spiegano, possono già diventare strumenti utili per attaccare reti piccole, vulnerabili o mal protette, se un attore malevolo fornisce loro istruzioni e accesso.

Il vantaggio dei difensori: il campo di battaglia lo plasmano loro

Per il Ncsc, comunque, i difensori mantengono ancora alcuni vantaggi rispetto agli attaccanti: non solo possono collaborare a livello globale, ma soprattutto possono plasmare il ‘campo di battaglia’ per renderlo più favorevole per sé e più svantaggioso per l’avversario.

Per Iezzi però questa non è una lettura completa. “I difensori hanno un vantaggio importante: conoscono i propri sistemi, possono modificarli, segmentarli, rafforzarli, progettare l’ambiente. Ma gli aggressori hanno meno vincoli, più libertà di sperimentazione e possono muoversi in modo più opportunistico”. Alla fine, secondo l’esperto di Zenita Group, “il vantaggio non sarà di chi possiede l’AI più potente, ma di chi saprà usarla meglio per comprendere la complessità. Chi conosce meglio il proprio sistema, vince tempo”. “E nella sicurezza – ribadisce l’esperto -, il tempo è potere”.

Se questa è la situazione, chi rischia di più? Per Iezzi i settori più esposti sono quelli più interconnessi: energia, trasporti, finanza, sanità, telecomunicazioni, grandi piattaforme digitali, supply chain globali. Ma “la lezione è più ampia: ogni organizzazione complessa può diventare fragile se non conosce le proprie dipendenze critiche”.

Dipendenza tecnologica

E a proposito di dipendenze critiche, l’esclusione dell’Unione europea dal club di chi ha ottenuto Mythos Preview implica che il blocco non abbia potuto e non possa valutare e testare personalmente il controverso modello di AI. Questa cosa mette in luce, ancora una volta, il divario con gli Usa, e una “dipendenza tecnologica che è anche una dipendenza strategica”, come sottolinea l’esperto.

“Il rischio esiste e va preso sul serio”, spiega ancora, aggiungendo che “l’accesso alla tecnologia sta diventando una leva geopolitica. Non riguarda più solo il mercato, ma la capacità di condizionare interi sistemi regolatori, industriali e strategici. L’Europa deve leggere questo segnale con lucidità: chi dipende troppo da tecnologie esterne può trovarsi vulnerabile non solo sul piano operativo, ma anche su quello politico. Non è detto che ogni esclusione sia una scelta ostile. Ma ogni esclusione mostra una dipendenza. E ogni dipendenza, in un mondo fragile, può diventare pressione”.

Asimmetria pericolosa

Stando così le cose, è giusto che Mythos non sia stato dato anche all’Unione europea? Per Iezzi, “la distribuzione controllata è comprensibile quando si parla di tecnologie ad alto impatto. Ma apre una questione enorme: chi accede per primo a strumenti capaci di leggere le fragilità dei sistemi acquisisce un vantaggio strategico. La selezione può essere necessaria per ragioni di sicurezza, ma deve essere accompagnata da trasparenza, governance e coinvolgimento pubblico. Altrimenti il rischio è creare una nuova asimmetria tra chi vede il rischio e chi lo subisce”.

Un’asimmetria grave se chi è escluso sono i governi o agenzie pubbliche chiave: secondo l’esperto questo “è uno dei rischi più sottovalutati”, perché “parliamo di sovranità: uno Stato che non comprende le fragilità dei propri sistemi almeno quanto gli attori privati più avanzati rischia di perdere capacità di indirizzo, controllo e prevenzione”.

D’altronde, l’AI “nasce come tecnologia commerciale, ma quando è in grado di analizzare sistemi complessi, individuare fragilità e ricostruire percorsi di attacco, entra inevitabilmente nel dominio della sicurezza nazionale. Alcune tecnologie non sono più solo prodotti. Sono leve strategiche. Mythos appartiene a questa categoria”, precisa ancora il direttore di Zenita Group.

E chi dovrebbe decidere quando un modello cyber è “troppo potente” per una diffusione ampia? Spiega Iezzi: “Serve una governance multilivello: aziende, autorità pubbliche, organismi tecnici indipendenti e cooperazione internazionale. Il problema è che oggi molti governi stanno rincorrendo, perché l’innovazione corre più velocemente dei processi decisionali pubblici. Ed è proprio questo il vuoto da colmare”. Perché “i governi possono ancora indirizzare la tecnologia, ma devono cambiare passo: meno reazione, più anticipazione; meno burocrazia, più capacità tecnica; meno regolazione tardiva, più presenza nei luoghi in cui la tecnologia viene sviluppata. Chi arriva solo al momento della norma, arriva tardi”.

Cosa fanno Ue ed Italia?

Cosa sta facendo dunque l’Ue (e l’Italia) per non arrivare tardi? Per Iezzi Bruxelles sta puntando sulla sovranità del dato, “che oggi è una delle infrastrutture fondamentali del potere digitale. Chi controlla, protegge ed elabora i dati ha maggiore capacità di negoziare, innovare e difendere i propri interessi strategici”.

E in questo senso “l’Italia può giocare un ruolo chiave”, perché “la sua posizione geografica e infrastrutturale l’ha resa storicamente un punto di accesso naturale al Mediterraneo. Nel digitale questo ruolo può tradursi in una funzione nuova: diventare uno snodo strategico per il transito, la protezione e la valorizzazione dei dati”.

Nel digitale, basti pensare a “il ruolo della Sicilia e del Mezzogiorno nelle rotte dei cavi sottomarini, che collegano Europa, Mediterraneo, Africa e Medio Oriente. Non sono semplici infrastrutture tecniche: sono arterie geopolitiche del dato”.

Questo ha portato a una serie di investimenti da parte delle Big Tech – “dalle nuove infrastrutture cloud e data center nel Mezzogiorno agli hub di ricerca su intelligenza artificiale, HPC e quantum computing nel Nord Italia” – che hanno trasformato l’Italia in “un possibile porto del dato nel Mediterraneo: non solo un punto di passaggio, ma una piattaforma da cui l’Europa può rafforzare la propria autonomia digitale e la propria capacità di accesso sicuro ai dati”.

Puntare sulla sovranità del dato non rende inutili gli altri investimenti. Anzi, li rende indispensabili. Pensiamo alle infrastrutture cloud e data center, agli hub di ricerca su AI, HPC e quantum, fino allo Space Cloud di Leonardo per la Difesa, che porta capacità di calcolo, storage e intelligenza artificiale direttamente su una costellazione satellitare cyber-sicura. Sono leve diverse, ma convergono sullo stesso obiettivo: ridurre la dipendenza tecnologica e aumentare la capacità dell’Italia e dell’Europa di proteggere, elaborare e valorizzare i propri dati.

Insomma, “non stiamo costruendo una sovranità intesa come isolamento. Stiamo costruendo leve tecnologiche, industriali e strategiche che permettono all’Italia e all’Europa di non essere semplici utilizzatori di tecnologie altrui, ma attori capaci di negoziare, scegliere e competere. La vera autonomia digitale non significa fare tutto da soli: significa non essere costretti a dipendere da altri nei passaggi critici”.

Si può regolare l’innovazione?

Le regole non sono ‘il male’ come spesso sottintendono i più critici dell’istinto regolatorio di Bruxelles. Per Iezzi qui le considerazioni da fare sono diverse. Intanto “la regolazione non può pretendere di anticipare integralmente l’innovazione, perché non si può disciplinare in modo efficace ciò che non si conosce ancora nella sua reale portata”.

Inoltre, “quando parliamo di tecnologie emergenti, è molto difficile mappare fin dall’inizio tutti i rischi possibili, perché gli usi, le combinazioni e gli effetti sistemici si manifestano spesso solo dopo la diffusione concreta della tecnologia”, né puoi prevedere le declinazioni o gli utilizzi che conseguono dalle nuove tecnologie; declinazioni che “possono essere marginali oppure profondamente trasformative”. Basti pensare a ChatGPT, continua il direttore di Zenita Group: “Pochi avevano previsto la velocità e l’ampiezza dell’evoluzione che abbiamo osservato negli ultimi anni”.


Una cosa è certa: “Oggi la capacità di previsione si è accorciata: non riusciamo più a proiettare con sicurezza gli effetti di una tecnologia su orizzonti lunghi, perché l’innovazione procede più velocemente dei cicli regolatori, industriali e sociali”, come riconosce Iezzi. E quindi come si risolve? Per l’esperto, partendo da principi di base che diventano “il punto di ancoraggio”, ovvero “una prima linea di difesa per garantire diritti fondamentali, responsabilità, trasparenza e tutela della persona”. Da lì ci si muove.
Esempi in tal senso, elenca, sono “il Gdpr, che ha messo il dato personale al centro della tutela giuridica; l’AI Act, che introduce un approccio basato sul rischio; il Digital Services Act, che responsabilizza le piattaforme rispetto agli impatti sistemici dei servizi digitali”. Certamente tutte queste normative “dovranno essere aggiornate, integrate e rese operative nel tempo, perché il diritto, quando incontra tecnologie così dinamiche, non può essere statico”.


Qualcosa però manca, avvisa il direttore di Zenita Group: “Una disciplina più specifica per i modelli AI ad alta capacità operativa, soprattutto quando possono incidere sulla sicurezza, sulle infrastrutture critiche, sulle supply chain, sulla stabilità dei sistemi e sulla continuità dei servizi essenziali”. “Per alcune funzioni particolarmente sensibili potrebbe essere necessario ragionare su meccanismi autorizzativi, valutazioni indipendenti, livelli di accesso differenziati e forme di supervisione pubblica e tecnica”.


Con un’avvertenza: “Non basta una regolazione cyber in senso stretto, perché Mythos mostra che il tema non è solo la sicurezza informatica tradizionale. Il punto è la capacità di un modello di analizzare sistemi complessi, individuare fragilità, collegarle tra loro e trasformarle in percorsi d’impatto”, spiega Iezzi. “Una regolazione generale sull’AI è necessaria, ma potrebbe non essere sufficiente quando una tecnologia modifica il rapporto tra vulnerabilità, fragilità e crisi”. Anche perché se per ora il nuovo “dirompente” modello non è disponibile a tutti, “la storia dell’innovazione ci insegna che ciò che oggi è ristretto domani può diventare più accessibile. Se non sarà Mythos, sarà un altro modello. Per questo la governance va costruita prima che queste capacità diventino ordinarie”.

Cosa possono fare i cittadini

Rimane un punto: le persone comuni cosa possono fare? “Il cittadino non può governare Mythos, ma può ridurre la propria esposizione e la propria prevedibilità digitale. Significa proteggere l’identità, limitare la dispersione dei dati personali, usare autenticazioni forti, verificare le fonti e sviluppare senso critico. In un mondo in cui tutto diventa più leggibile, anche i comportamenti delle persone diventano più prevedibili. E ciò che è prevedibile può essere profilato, orientato, influenzato”, avverte Iezzi.


“In Italia convivono livelli molto diversi di digitalizzazione e consapevolezza”, precisa l’esperto. Le persone comuni “hanno percepito che il rischio esiste”, ma manca un punto chiave: “spesso continuiamo a vivere lo schermo come una barriera, quasi fosse una porta blindata. In realtà è una superficie di esposizione: attraverso quello schermo passano identità, dati, relazioni, pagamenti, fiducia e decisioni”. Così come non viene colto che “molti strumenti per ridurre il rischio esistono già, ma devono diventare comportamenti abituali, non reazioni episodiche dopo un problema”.


In definitiva, sottolinea Iezzi, va creata un’abitudine, come quando si tiene stretta la borsa o lo zaino nei luoghi affollati: una precauzione che viene in automatico. “Il punto vero è che parliamo spesso di tecniche, strumenti e procedure, ma costruiamo ancora troppo poco una forma mentis digitale. La sicurezza personale non nasce solo dalla tecnologia che usiamo, ma dal modo in cui impariamo a muoverci nell’ambiente digitale”. Eppure, nel mondo di oggi “la consapevolezza non è più un elemento accessorio: è una componente essenziale della sicurezza. Vale per le aziende, vale per le istituzioni e vale per ogni cittadino”, conclude l’esperto.