Iran, il Pentagono ha utilizzato Claude nonostante lo scontro con Anthropic (e il ban di Trump)

La società di Amodei è diventata un "rischio nella catena di approvvigionamento", ma è ancora indispensabile per il Comando centrale Usa
1 ora fa
3 minuti di lettura
Ceo Anthropic, Dario Amodei, e capo Pentagono, Pete Hegseth, Pentagono usa Claude negli attacchi in Iran
Il Ceo di Anthropic, Dario Amodei, e il capo del Pentagono Pete Hegseth (Afp)

Anthropic rifiuta le richieste del Pentagono, Trump annulla i contratti con la società di Dario Amodei, il Pentagono utilizza Claude per le operazioni militari in Iran.

I continui capovolgimenti degli ultimi giorni tra l’azienda californiana e il Dipartimento della Guerra guidato da Pete Hegseth mostrano come l’intelligenza artificiale sia sempre più indispensabile per i governi. Soprattutto quando le operazioni militari sono al primo posto della to do list.

Come il Pentagono ha utilizzato Claude negli attacchi all’Iran

In meno di 24 ore è successo tutto e il suo contrario. Il 28 febbraio il Pentagono ha definito Anthropic un “rischio nella catena di approvvigionamento“, una misura solitamente destinata alle aziende estere “nemiche” degli States, Donald Trump ha annullato i milionari contratti tra l’amministrazione Usa e la società californiana; il 1° marzo il Comando centrale degli Stati Uniti ha usato Claude negli attacchi in Iran per le seguenti finalità:

  • Valutazione dell’intelligence: analisi dati satellitari, intercettazioni e feed sensori per prioritarizzare le minacce;
  • Identificazione target: selezione di obiettivi precisi (come i siti missilistici e bunker dell’Irgc), riducendo i tempi da diverse settimane a poche ore;
  • Simulazioni battaglia: generando modelli di scenari (digital twin), previsioni delle controffensive iraniane e il calcolo dei danni collaterali. Tra questi si segnala la strage nella scuola primaria femminile di Minab, nel sud del Paese, dove i raid di Usa e Israele hanno ucciso 148 bambine e ne hanno ferite 95 (bilancio ancora provvisorio).

Tecnicamente questo utilizzo, seppure borderline, non infrange i due limiti imposti dal Ceo Dario Amodei per l’utilizzo del proprio modello di Ai (Claude): la sorveglianza di massa e le armi autonome. L’impiego di Claude, invece, infrange direttamente il ban del presidente Donald Trump, il quale ha annunciato che l’intero governo federale smetterà di lavorare con l’azienda californiana.

Perché è stato utilizzato Claude

Ma allora perché il Pentagono ha usato Claude in Medio Oriente?

Il motivo è di natura opportunistica: Claude era l’unico modello Ai completamente approvato per i sistemi classificati dell’esercito americano, e, nonostante i proclama, non può essere rimpiazzato in pochi giorni. Da qui il tentativo estremo dell’amministrazione Usa di ottenere il “nulla osta” da Anthropic per l’utilizzo militare dei suoi sistemi. Una richiesta respinta dal Ceo Dario Amodei perché: “I sistemi Ai di frontiera non sono abbastanza affidabili da governare armi completamente autonome” e “in alcuni casi l’Ai possa minare, anziché difendere, i valori democratici“.

La rottura tra il Pentagono e Anthropic

Da qui la rottura tra la Casa Bianca e Anthropic che a parole si è già consumata, ma nei fatti no. L’eliminazione completa di Claude dai sistemi del Pentagono potrebbe richiedere fino a sei mesi (periodo di transizione che scatta dalla rescissione contrattuale) a causa del suo diffuso utilizzo, anche da parte di partner come la israeliana Palantir

In passato, Claude era stato utilizzato per gli attacchi contro specifici obiettivi a Caracas, nell’operazione militare che ha portato alla cattura dell’ex presidente venezuelano Nicolás Maduro. Da quel momento in poi la tensione tra l’azienda californiana e l’amministrazione Trump è aumentata, fino al rifiuto dei giorni scorsi.

Un rifiuto che è stato preso come un oltraggio alla Casa Bianca: Anthropic “non fa le regole”, ha dichiarato Emil Michael. Parlando con DefenseScoop, il sottosegretario americano alla Difesa ha puntato il dito contro la decisione di Dario Amodei: “Non puoi avere un’azienda di Ai che vende Ai al Dipartimento della Guerra e poi non le permette di fare le cose da Dipartimento della Guerra”, sostenendo che i guardrail “devono essere tarati sui nostri casi d’uso, finché sono legali”.

In varie interviste, Michael ha ribadito che il il Pentagono “seguirà sempre la legge ma non si piegherà ai desideri di nessuna società a scopo di lucro” e che non permetterà a “nessuna azienda privata di dettare le opzioni militari”. Più diretti gli attacchi sui social Sui social, dove il sottosegretario ha accusato il Ceo di Anthropic, Dario Amodei, di avere un “complesso di Dio”, di essere “un bugiardo” e di voler “controllare personalmente l’esercito degli Stati Uniti”. Per Michael il rifiuto di Anthropic è un atto di arroganza che “mette a rischio la sicurezza nazionale”.

Nelle more di nuovi strumenti (il Pentagono ha sottoscritto un nuovo accordo con OpenAi dopo il rifiuto di Anthropic), il Dipartimento della Guerra ha messo da parte l’orgoglio e lo scontro ideologico contro la “woke” Anthropic e ha scelto di usare la migliore tecnologia a sua disposizione per attaccare l’Iran.

Gli ultimi articoli

Da non perdere

Javier milei donald trump

Grana e gorgonzola “made in Usa”: cosa rischia l’Italia

L'accordo bilaterale Arti (Agreement on Reciprocal Trade and Investment) firmato il 12
Antonio costa presidente consiglio ue ipa ftg

Board of Peace, l’Ue apre al dialogo con Trump (ma con riserva). E Miller avverte Netanyahu

Bruxelles pronta a collaborare con Washington sulla governance per Gaza, ma restano