Pentagono contro Anthropic: ultimatum sui limiti di Claude per l’uso militare

L’azienda rischia di essere classificata come “pericolosa”, domani scade l’ultimatum
5 ore fa
4 minuti di lettura
Pete Hegseth Segretario Usa Difesa Ipa Ftg
Il capo del Pentagono Pete Hegseth (Ipa/ftg)

Prima ancora di esplodere contro la Cina, la guerra dell’Ai potrebbe implodere negli Stati Uniti. Il segretario alla Difesa degli Stati Uniti, Pete Hegseth, ha chiesto ad Anthropic, proprietaria di Claude, di rendere disponibile i suoi sistemi di intelligenza artificiale, senza limitazioni, per l’uso militare. Ma l’azienda guidata da Dario Amodei, da sempre una delle più attente a uno sviluppo etico e trasparente dell’Ai, ha respinto la richiesta, perché ritiene che, se usata in ambito militare senza i “guardrail”, l’intelligenza artificiale può essere letale. E soprattutto perché Anthropic non vuole giocare alla guerra.

Il confronto tra Hegseth e Amodei si è subito trasformato in un gioco di forza.

Il segretario alla Difesa ha dato un ultimatum al Ceo dell’azienda: se entro domani, venerdì 27 febbraio, non accetterà la richiesta, i contratti posti in essere tra l’amministrazione americana e la società verranno annullati. Una tale decisioni avrebbe ripercussioni anche sulla difesa Usa, dal momento che Anthropic è la prima società di Ai a ricevere contratti di centinaia di milioni di dollari dal Pentagono per la gestione di documenti secretati e legati alla sicurezza nazionale.

Un funzionario della difesa sentito dal Wall Street Journal ha detto che Anthropic ha tempo fino alle 17:01 (le 23:01 italiane) per rispondere alla richieste del Pentagono.

Cosa chiede il Pentagono ad Anthropic (e perché adesso)

Alla luce dello scenario geopolitico sempre più teso, il segretario alla Difesa degli Stati Uniti vuole integrare subito le tecnologie di Anthropic nei programmi di difesa. Dal canto suo, l’azienda chiede garanzie e cautele sul loro impiego, sia per quanto riguarda le azioni sul campo che per le applicazioni di sorveglianza di massa.

Martedì 24 febbraio, Pete Hegseth e Dario Amodei si sono incontrati a Washington, in una riunione che i giornali statunitensi hanno definito cordiale ma inconcludente. Il ceo di Anthropic, che ha lasciato OpenAi proprio per sviluppare un’Ai più “etica”, ha confermato le proprie posizioni, mentre il Segretario alla Difesa ha minacciato di rivedere gli accordi siglati con l’azienda.

Più volte Hegseth ha garantito che l’utilizzo di queste tecnologie avverrà “nei limiti di legge”. Il punto è che in molti casi i limiti non esistono, perché non esistono ancora le norme. L’amministrazione Trump ha già cancellato con un colpo di spugna leggi già esistenti; i rischi per le zone grigie sono evidenti.

Nel memorandum del 9 gennaio, parlando dell’importanza dei sistemi di intelligenza artificiale per l’esercito, Hegseth ha scritto: “Dobbiamo accettare che i rischi di non muoversi abbastanza velocemente superano i rischi di un allineamento imperfetto”, aggiungendo che bisogna “individuare in modo aggressivo ed eliminare gli ostacoli burocratici a una più profonda integrazione, residui di tecnologie informatiche e di modalità di guerra del passato”.

Proprio nella guerra, però, Anthropic non vuole essere coinvolta.

I “guardrail” di Anthropic: armi autonome e sorveglianza

Dario Amodei ha detto più volte di non voler consentire che l’Ai di Anthropic venga utilizzata in azioni militari che potrebbero portare all’uccisione di esseri umani né in attività di sorveglianza di massa. “I principali ambiti che ci preoccupano sono le armi completamente autonome e la sorveglianza di massa dei cittadini statunitensi. Vogliamo assicurarci che i nostri modelli non vengano usati in questo modo”, ha detto il Ceo della società in questa intervista televisiva su Cnbc.

Nel saggio “The Adolescence of TechnologyAmodei sostiene che “dovremmo usare l’intelligenza artificiale per la difesa nazionale in tutti i modi tranne quelli che ci renderebbero più simili ai nostri avversari autoritari”, includendo tra questi “la sorveglianza domestica di massa, la propaganda di massa e le armi autonome”, che indica come possibili “crimini contro l’umanità”.

Davanti a posizioni così distanti, Pete Hegseth ha prospettato due alternative, qualora Anthropic rifiuti la proposta del Pentagono.

L’ultimatum e le leve del governo: supply-chain risk e Defense Production Act

La prima opzione messa sul tavolo, secondo i media statunitensi, è che Anthropic venga indicata come una “supply-chain risk”, ovvero come un fornitore del governo che costituisce un rischio per la sicurezza nazionale. Questa soluzione avrebbe serie conseguenze sulla società guidata da Amodei e su decine di altri fornitori del Pentagono che da anni utilizzano le tecnologie di Anthropic nei propri sistemi. Queste, per evitare sanzioni o la perdita di contratti milionari, dovrebbero interrompere ogni rapporto con l’azienda incriminata.

La seconda opzione sarebbe quella di attivare il “Defense Production Act”, una norma che viene attivata durante le emergenze nazionali nel settore energetico e in quello della salute (era stato attivato durante la pandemia per accelerare la produzione dei vaccini). In questo caso, il governo americano potrebbe obbligare Anthropic a fornire i servizi richiesti, con il rischio di ricorsi e contenziosi in tribunale. Le due alternative sono ai poli opposti: la prima taglierebbe fuori l’azienda dalle attività del Pentagono, la seconda renderebbe obbligatoria la sua partecipazione.

Il difficile rapporto tra Trump e Anthropic

La tensione tra Anthropic e l’amministrazione Trump è valoriale, prima ancora che pratica. L’esecutivo guidato dal tycoon ha sempre messo al primo (e unico) posto gli interessi economici. Davanti alla strage umanitaria di Gaza, il tycoon ha parlato della Striscia come di una “miniera d’oro immobiliare” sottolineando il grande potenziale finanziario della ricostruzione.
Parlando di Ucraina, invece, il presidente Usa ha lodato il modo di fare trattative utilizzato da Steve Witkoff, respingendo le critiche dopo la fuga degli audio con Putin: “Deve vendere il piano all’Ucraina, deve venderlo alla Russia. Questo è ciò che fa un mediatore” (qui per approfondire).

Dall’altra parte del tavolo c’è Anthropic, una società fondata nel 2021 da alcuni ingegneri (tra cui Amodei), che decisero di lasciare OpenAi, ritenendo che la società stesse sottovalutando i problemi relativi alla sicurezza dei suoi modelli Ai.

In questi anni, Amodei ha allertato più volte sui rischi dell’intelligenza artificiale. L’ultimo allarme è arrivato a fine gennaio, quando il Ceo di Anthropic ha detto che “Nessun governo è pronto” per l’evoluzione che avrà l’intelligenza artificiale nel 2027.

Non solo. In Anthropic lavorano alcuni ex funzionari del governo Biden e la società ha diversi sostenitori che fanno riferimento ai democratici. Tutti questi motivi (e la necessità di avere più fornitori) hanno portato il Pentagono ad attivare contratti con altre aziende, come OpenAI e Alphabet, con l’intenzione di autorizzare i loro sistemi anche per i documenti secretati e di sicurezza nazionale. Hegseth ha inoltre annunciato un maggiore coinvolgimento di xAI, la società di Elon Musk che sviluppa sistemi di intelligenza artificiale.

Intanto, prova a mettere spalle al muro Anthropic per diventare più forte in campo militare.

Gli ultimi articoli