Anthropic non ha aspettato la scadenza dell’ultimatum (oggi alle 23:01 italiane) per rispondere al Pentagono. L’azienda non intende rimuovere i “guardrail” che impediscono l’uso di Claude in due casi specifici, la sorveglianza interna di massa e le armi completamente autonome.
Un no esplicito alle al capo del Dipartimento della Guerra, Pete Hegseth, che aveva chiesto all’azienda di rimuovere ogni limite per usare i suoi sistemi di Ai in ambito militare.
Il post di Anthropic
Il Ceo di Anthropic Dario Amodei, che insieme ad altri suoi collaboratori aveva lasciato OpenAI proprio per creare un’Ai più “etica”, ha risposto alle pressanti richieste del governo americano con un luna dichiarazione, di cui riportiamo le parti essenziali.
Il testo si apre con una posizionamento chiaro nella sfera geopolitica: “Credo profondamente nell’importanza esistenziale dell’uso dell’intelligenza artificiale per difendere gli Stati Uniti e le altre democrazie e per sconfiggere i nostri avversari autocratici”.
A conferma di queste parole, Amodei ricorda che la società ha rinunciato a diversi milioni di dollari di fatturato per interrompere l’uso di Claude da parte di aziende legate al Partito Comunista Cinese, di aver subito e respinto gli attacchi informatici di Pechino e di aver sostenuto controlli rigorosi sulle esportazioni di chip per garantire un “vantaggio democratico”.
“Anthropic – si legge ancora nella dichiarazione – è consapevole che è il Dipartimento della Guerra, non le aziende private, a prendere decisioni militari. Non abbiamo mai sollevato obiezioni a specifiche operazioni militari, né abbiamo tentato di limitare l’uso della nostra tecnologia in modo mirato.
Tuttavia, in un ristretto numero di casi, riteniamo che l’Ai possa minare, anziché difendere, i valori democratici. Alcuni utilizzi sono semplicemente al di fuori di ciò che la tecnologia odierna può fare in modo sicuro e affidabile. Due di questi casi d’uso non sono mai stati inclusi nei nostri contratti con il Dipartimento della Guerra e riteniamo che non dovrebbero esserlo ora”.
Il riferimento, esplicitato più avanti, è alla sorveglianza interna di massa e armi completamente autonome.
La sorveglianza di massa e le armi autonome
Sul primo punto, Anthropic spiega che: “Sosteniamo l’uso dell’Ai per missioni di intelligence e controspionaggio estere legittime. Tuttavia, l’uso di questi sistemi per la sorveglianza interna di massa è incompatibile con i valori democratici. La sorveglianza di massa basata sull’Ai presenta gravi e nuovi rischi per le nostre libertà fondamentali”.
Sul secondo punto, l’azienda sottolinea che “le armi parzialmente autonome, come quelle utilizzate oggi in Ucraina, sono vitali per la difesa della democrazia. Anche le armi completamente autonome (quelle che escludono completamente gli esseri umani dal ciclo e automatizzano la selezione e l’ingaggio dei bersagli) possono rivelarsi fondamentali per la nostra difesa nazionale. Ma oggi, i sistemi di intelligenza artificiale di frontiera non sono semplicemente sufficientemente affidabili per alimentare armi completamente autonome. Non forniremo consapevolmente un prodotto che mette a rischio i combattenti e i civili americani”.
In pratica, l’azienda guidata da Dario Amodei, che è la prima società di Ai a ricevere contratti di centinaia di milioni di dollari dal Pentagono per la gestione di documenti secretati e legati alla sicurezza nazionale, conferma la posizione e le motivazioni alla base del suo rifiuto. La palla passa ora a Pete Hegseth che ha minacciato di annullare i contratti sottoscritti tra l’amministrazione Usa e Anthropic.
Cosa chiede il Pentagono ad Anthropic (e perché adesso)
Alla luce dello scenario geopolitico sempre più teso, il segretario alla Difesa degli Stati Uniti vuole integrare subito le tecnologie di Anthropic nei programmi di difesa. Dal canto suo, l’azienda chiede garanzie e cautele sul loro impiego, sia per quanto riguarda le azioni sul campo che per le applicazioni di sorveglianza di massa.
Martedì 24 febbraio, Pete Hegseth e Dario Amodei si sono incontrati a Washington, in una riunione che i giornali statunitensi hanno definito cordiale ma inconcludente. Il ceo di Anthropic, che ha lasciato OpenAi proprio per sviluppare un’Ai più “etica”, ha confermato le proprie posizioni, mentre il Segretario alla Difesa ha minacciato di rivedere gli accordi siglati con l’azienda.
Più volte Hegseth ha garantito che l’utilizzo di queste tecnologie avverrà “nei limiti di legge”. Il punto è che in molti casi i limiti non esistono, perché non esistono ancora le norme. L’amministrazione Trump ha già cancellato con un colpo di spugna leggi già esistenti; i rischi per le zone grigie sono evidenti.
Nel memorandum del 9 gennaio, parlando dell’importanza dei sistemi di intelligenza artificiale per l’esercito, Hegseth ha scritto: “Dobbiamo accettare che i rischi di non muoversi abbastanza velocemente superano i rischi di un allineamento imperfetto”, aggiungendo che bisogna “individuare in modo aggressivo ed eliminare gli ostacoli burocratici a una più profonda integrazione, residui di tecnologie informatiche e di modalità di guerra del passato”.
Proprio nella guerra, però, Anthropic non vuole essere coinvolta.
I “guardrail” di Anthropic: armi autonome e sorveglianza
Dario Amodei ha detto più volte di non voler consentire che l’Ai di Anthropic venga utilizzata in azioni militari che potrebbero portare all’uccisione di esseri umani né in attività di sorveglianza di massa. “I principali ambiti che ci preoccupano sono le armi completamente autonome e la sorveglianza di massa dei cittadini statunitensi. Vogliamo assicurarci che i nostri modelli non vengano usati in questo modo”, ha detto il Ceo della società in questa intervista televisiva su Cnbc.
Nel saggio “The Adolescence of Technology” Amodei sostiene che “dovremmo usare l’intelligenza artificiale per la difesa nazionale in tutti i modi tranne quelli che ci renderebbero più simili ai nostri avversari autoritari”, includendo tra questi “la sorveglianza domestica di massa, la propaganda di massa e le armi autonome”, che indica come possibili “crimini contro l’umanità”.
Davanti a posizioni così distanti, Pete Hegseth ha prospettato due alternative, qualora Anthropic rifiuti la proposta del Pentagono.
L’ultimatum e le leve del governo: supply-chain risk e Defense Production Act
La prima opzione messa sul tavolo, secondo i media statunitensi, è che Anthropic venga indicata come una “supply-chain risk”, ovvero come un fornitore del governo che costituisce un rischio per la sicurezza nazionale. Questa soluzione avrebbe serie conseguenze sulla società guidata da Amodei e su decine di altri fornitori del Pentagono che da anni utilizzano le tecnologie di Anthropic nei propri sistemi. Queste, per evitare sanzioni o la perdita di contratti milionari, dovrebbero interrompere ogni rapporto con l’azienda incriminata.
La seconda opzione sarebbe quella di attivare il “Defense Production Act”, una norma che viene attivata durante le emergenze nazionali nel settore energetico e in quello della salute (era stato attivato durante la pandemia per accelerare la produzione dei vaccini). In questo caso, il governo americano potrebbe obbligare Anthropic a fornire i servizi richiesti, con il rischio di ricorsi e contenziosi in tribunale. Le due alternative sono ai poli opposti: la prima taglierebbe fuori l’azienda dalle attività del Pentagono, la seconda renderebbe obbligatoria la sua partecipazione.
Il difficile rapporto tra Trump e Anthropic
La tensione tra Anthropic e l’amministrazione Trump è valoriale, prima ancora che pratica. L’esecutivo guidato dal tycoon ha sempre messo al primo (e unico) posto gli interessi economici. Davanti alla strage umanitaria di Gaza, il tycoon ha parlato della Striscia come di una “miniera d’oro immobiliare” sottolineando il grande potenziale finanziario della ricostruzione.
Parlando di Ucraina, invece, il presidente Usa ha lodato il modo di fare trattative utilizzato da Steve Witkoff, respingendo le critiche dopo la fuga degli audio con Putin: “Deve vendere il piano all’Ucraina, deve venderlo alla Russia. Questo è ciò che fa un mediatore” (qui per approfondire).
Dall’altra parte del tavolo c’è Anthropic, una società fondata nel 2021 da alcuni ingegneri (tra cui Amodei), che decisero di lasciare OpenAi, ritenendo che la società stesse sottovalutando i problemi relativi alla sicurezza dei suoi modelli Ai.
In questi anni, Amodei ha allertato più volte sui rischi dell’intelligenza artificiale. L’ultimo allarme è arrivato a fine gennaio, quando il Ceo di Anthropic ha detto che “Nessun governo è pronto” per l’evoluzione che avrà l’intelligenza artificiale nel 2027.
Non solo. In Anthropic lavorano alcuni ex funzionari del governo Biden e la società ha diversi sostenitori che fanno riferimento ai democratici. Tutti questi motivi (e la necessità di avere più fornitori) hanno portato il Pentagono ad attivare contratti con altre aziende, come OpenAI e Alphabet, con l’intenzione di autorizzare i loro sistemi anche per i documenti secretati e di sicurezza nazionale. Hegseth ha inoltre annunciato un maggiore coinvolgimento di xAI, la società di Elon Musk che sviluppa sistemi di intelligenza artificiale.
Intanto, prova a mettere spalle al muro Anthropic per diventare più forte in campo militare.
