GEODI – UNINT

Perché il Pentagono vuole distruggere Anthropic

Estratto dell’articolo, Why the Pentagon Wants to Destroy Anthropic, per il The New York Times, venerdì 6 marzo 2026.

Estratto dell’articolo, Why the Pentagon Wants to Destroy Anthropic, per il The New York Times, venerdì 6 marzo 2026.

 

Il presente articolo consiste nella trascrizione dell’intervista del giornalista statunitense Ezra Klein a Dean Ball avvenuta durante l’ultima puntata di “The Ezra Klein Show”. Dean Ball, ricercatore senior presso la Foundation for American Innovation (FAI), è l’ex consigliere per le politiche di intelligenza artificiale (d’ora in poi IA) della Casa Bianca di Trump ed è stato anche il principale redattore del Piano d’azione americano per l’IA.

Venerdì 27 febbraio il Segretario della Difesa degli Stati Uniti d’America Pete Hegseth ha annunciato la rescissione del contratto del governo con l’azienda di IA Anthropic (che ha appena raggiunto una valutazione di circa 380 miliardi dollari e il cui fatturato annuo supera i 19 miliardi di dollari), che ha sede a San Francisco ed è stata fondata nel 2021 dai fratelli Dario e Daniela Amodei, ex membri di rilievo di OpenAI. E non solo: Hegseth intendeva anche designarla come un rischio per la catena di approvvigionamento americana.

La designazione di rischio della catena di fornitura riguarda tecnologie così pericolose da non poter essere presenti in nessuna parte della catena di approvvigionamento militare statunitense. È stata utilizzata in passato per tecnologie prodotte da aziende straniere come la cinese Huawei, quando si temeva lo spionaggio.

Non è però mai stata utilizzata contro un’azienda americana. Una novità assoluta  nei confronti di un attore economico nazionale che, proprio in questo momento, fornisce servizi all’esercito statunitense. Il sistema di IA di Anthropic, Claude, è stato infatti utilizzato ad esempio nel raid contro Nicolás Maduro.

Quello che ha portato alla rottura del rapporto tra il Pentagono e Anthropic riguarda l’uso di sistemi di IA per sorvegliare il popolo americano utilizzando dati disponibili in commercio.

Quindi, cosa sta succedendo? Come intende il governo impiegare questi sistemi di IA? E cosa significa che sta cercando di distruggere una delle aziende leader americane nel settore dell’IA per aver stabilito le condizioni per l’impiego di queste nuove, potenti e incerte tecnologie?

Per rispondere a questi quesiti, Ezra Klein, come riportato sopra, ha deciso di intervistare Dean Ball, al quale, come primo argomento da approfondire, ha chiesto di spiegare come si è arrivati al punto in cui il Dipartimento della Guerra americano ha etichettato Anthropic come un rischio per la “supply chain” statunitense.

 

1- Cronologia di un conflitto

Per fare chiarezza sulla questione, Ball è partito dall’estate del 2024, quando il Dipartimento della Difesa (l’attuale Dipartimento della Guerra) e Anthropic raggiunsero un accordo per l’uso di Claude in contesti classificati, come ad esempio l’analisi di intelligence e il potenziale supporto alle operazioni militari in tempo reale. L’accordo che Anthropic stabilì con l’amministrazione Biden prevedeva due restrizioni d’uso: la sorveglianza di massa domestica e l’uso per armi letali completamente autonome erano infatti due utilizzi proibiti.

Nell’estate del 2025, durante l’amministrazione Trump, si decise di estendere la durata temporale del contratto mantenendo le stesse condizioni. Quindi l’amministrazione Trump accettò anche quelle due restrizioni.

Nell’autunno del 2025, però, il Sottosegretario alla Guerra per la Ricerca e l’Ingegneria Emil Michael giunse alla conclusione che non aveva senso essere vincolati da quelle restrizioni d’uso.

L’obiezione non riguardava tanto la sostanza delle restrizioni, quanto l’idea stessa di restrizioni d’uso in generale. È in quel preciso momento che è cominciato il conflitto fra il Dipartimento della Guerra e Anthropic.

Secondo il Dipartimento della Guerra, non spetta ad un’azienda privata stabilire quando le armi letali autonome saranno pronte per il grande pubblico. Questa è una decisione che devono prendere i leader politici.

Pete Hegseth però, come accennato sopra, non solo ha rescisso il contratto con Anthropic, ma ha anche dichiarato che etichetterà l’azienda come un rischio per la catena di approvvigionamento americana. Il suo obiettivo, ha continuato Dean Ball, è quello di impedire a tutti gli appaltatori militari di intrattenere relazioni commerciali con Anthropic. Il punto critico non è la diffidenza nei confronti dell’IA, che è stata invece accolta con entusiasmo da parte del Pentagono, quanto piuttosto il fatto che Emil Michael si sia rifiutato di accettare la clausola (voluta da Dario Amodei, fondatore e CEO di Anthropic) che avrebbe impedito di utilizzare Claude per analizzare dati commerciali raccolti in massa.

Secondo Pete Hegseth, come puntualizzato da Ezra Klein, il vero obiettivo di Anthropic è quello di assumere il potere di veto sulle decisioni operative dell’esercito degli Stati Uniti. Sollecitato in merito, Dean Ball ha precisato che non crede che Anthropic stia effettivamente cercando di ottenere il controllo operativo sulle decisioni militari.

 

2- Le vere motivazioni alla base della volontà del Pentagono di distruggere Anthropic

Ball ha poi aggiunto che secondo lui la vera questione cruciale è la seguente: dovrebbero essere le entità private, come ad esempio Anthropic, a stabilire quali sono i limiti e le potenzialità delle macchine e degli agenti artificiali, o dovrebbe esserne responsabile il governo?

Secondo Ball, a differenza di altri laboratori di ricerca sull’IA, Anthropic è consapevole dell’idea di applicare essenzialmente l’etica della virtù: mentre gli altri laboratori si basano maggiormente sull’idea di creare regole rigide, stabilendo soprattutto che cosa l’IA non possa fare, Anthropic tenta di creare un agente virtuoso, in grado di decidere (più o meno autonomamente) cosa fare in contesti diversi.

Proseguendo poi nella disamina della situazione conflittuale fra il Governo americano e Anthropic, Ball ha affermato che il motivo principale per cui il Pentagono vuole letteralmente distruggere Anthropic risiede nel timore che Claude possa essere addestrato sulla base di modelli che non condividono e che non si basano sui “valori” dell’amministrazione Trump. In altre parole, la paura è quella di affidarsi per le operazioni di difesa militare ad un’IA che potenzialmente potrebbe autonomamente (o quasi) mettere in discussione le decisioni dell’attuale Governo americano. Il problema è chiaramente ed ovviamente di natura politica.

Ezra Klein, infatti, ha poi asserito che, quando Trump ha definito Anthropic un’azienda di sinistra radicale ed ha etichettato i suoi dipendenti come dei “pazzi di sinistra”, si è rifatto ad una precisa retorica iniziata già da Elon Musk, che per lungo tempo ha duramente attaccato Anthropic e Dario Amodei su ‘X’, che costituisce linfa informativa vitale proprio dell’amministrazione Trump.

Se si mette in atto la minaccia di distruggere completamente l’azienda, si tratta di una sorta di assassinio politico, ha polemicamente sentenziato Ball.

 

3- L’accordo fra il Dipartimento della Guerra e OpenAI e la questione della nazionalizzazione dei laboratori di ricerca sull’IA

Klein ha poi chiesto delucidazioni a Ball sul perché il Dipartimento della Guerra abbia deciso di firmare un accordo con OpenAI, nonostante quest’ultima abbia affermato di condividere le stesse linee guida di Anthropic. Come mai l’amministrazione Trump ha deciso di schierarsi dalla parte di OpenAI? Questa la domanda fondamentale secondo Ezra Klein.

Secondo Dean Ball, è difficile rispondere con esattezza a una tale domanda, in quanto magari potrebbe essersi trattato “semplicemente” di divergenze politiche e di rancore nei confronti di Anthropic. Ma potrebbe anche essere che OpenAI sia in grado di essere un attore più neutrale, in grado di fare affari in modo più produttivo con il governo, e in realtà ha semplicemente fatto un lavoro migliore.

Ezra Klein ha poi espresso il suo personale parere sulla questione: lui si dichiara scettico sul fatto che OpenAI abbia ottenuto garanzie che Anthropic non aveva, ma è meno scettico sul fatto che Sam Altman (co-fondatore e Amministratore Delegato di OpenAI) e Greg Brockman (co-fondatore e Presidente di OpenAI) possano avere rapporti migliori con l’amministrazione Trump.

Tornando a questioni di natura politica, Dean Ball ha dichiarato che il voler distruggere una realtà come Anthropic risponde alla logica che vede nella nazionalizzazione dei laboratori di ricerca sull’IA la soluzione alle varie problematiche sopra descritte. Ma questo, secondo Ball, non prende sul serio l’idea che Anthropic possa avere ragione. E se considerassimo la nazionalizzazione da parte del governo un atto di profonda tirannia? Cosa faremmo? Queste le domande che secondo Ball non possono non essere poste.

Ball rimane convinto che una tecnologia estremamente potente come l’IA rimarrà ancora, almeno per un certo periodo, nelle mani di aziende private e, dal suo punto di vista, non è affatto detto che questo sia un male.

A questo punto, secondo Klein il problema è un altro, quello del controllo, che sottopone a Ball nel seguente modo: se si considera che le tecnologie si stanno insinuando ovunque, come si può mantenere il controllo democratico su tutto questo, ammesso che ci si riesca?

Secondo Ball, ci sono molti modi diversi per mantenere il controllo democratico sulle cose. Innanzitutto, le istituzioni di mercato. Inoltre, gli incentivi legali, che influenzano ogni singolo attore della società: i laboratori saranno vincolati in questo senso; le IA stesse saranno vincolate in questo senso.

Ma lo Stato, specifica Ball, è in un certo senso il peggiore attore, proprio perché detiene il monopolio della violenza legittima. Quindi ciò di cui si ha bisogno è di un ordine in cui lo Stato continui a detenere il monopolio della violenza legittima – quindi, in altre parole, mantenga la sovranità – ma non controlli unilateralmente questa tecnologia a causa del suo monopolio e della sua sovranità.

Un’ulteriore riflessione interessante sviluppata da Klein è la seguente: dal momento che il personale militare statunitense ha sia il diritto, sia, in realtà, l’obbligo, di disobbedire agli ordini illegali e che se sei un dipendente del governo degli Stati Uniti e fai cose illegali, ne sei effettivamente responsabile, quando si parla di armi letali autonome per gli agenti di polizia o per le stazioni di polizia, chi ne è responsabile? Chi deve opporsi a un ordine illegale in tal senso? Quando si escludono sempre di più gli esseri umani, ci si ritrova in situazioni molto spinose.

Anche secondo Ball è di fondamentale importanza che per ogni attività di un agente ci sia un essere umano responsabile che può essere citato in giudizio, portato in tribunale e ritenuto responsabile penalmente o civilmente. 

Quando si ragiona su concetti di primaria rilevanza e portata quali la responsabilità, la libertà, il potere, la politica, si arriva inevitabilmente, secondo Ball, al cuore delle questioni fondamentali della fondazione americana. Il governo americano, puntualizza Ball, è stato fondato da persone preoccupate per la tirannia, preoccupate per il potere dello Stato e che hanno riflettuto a lungo su come limitarlo.

Quindi, l’idea che la democrazia sia sinonimo di un governo che ha la capacità unilaterale di fare ciò che vuole con questa tecnologia non può essere vera. Come dare forma a queste restrizioni e come comprendere se siano effettivamente reali o meno: queste sono alcune delle questioni politiche centrali che, secondo Ball, è doveroso affrontare oggi.

 

Lorenzo Romagnoli – PhD Candidate

Coordinamento a cura di Ciro Sbailò

Università degli Studi Internazionali di Roma - UNINT

Via Cristoforo Colombo, 200 - 00147 Roma | C.F. 97136680580 | P.I. 05639791002 | Codice SDI: M5UXCR1 | Mail: geodi@unint.eu