En janvier, Anthropic a refusé d’assouplir les garde-fous de ses modèles d’intelligence artificielle et a déclenché une riposte immédiate du Pentagone qui l’a classée « supply-chain risk ». Le label a gelé plusieurs contrats fédéraux et menace jusqu’à 3 milliards de dollars de revenus projetés pour 2026.
Le différend a pris racine dans deux lignes rouges fixées par Dario Amodei : pas d’usage pour la surveillance domestique ni pour les armes autonomes. Le patron d’Anthropic a pourtant longtemps courtisé la sphère militaire américaine. En 2024, il avait signé un accord de 200 millions de dollars avec le Département de la Défense pour adapter Claude à la gestion de documents classifiés. Les négociateurs du Pentagone ont ensuite jugé que les restrictions intégrées au modèle rendaient impossible toute simulation de combat.
Le 6 mars, la General Services Administration a confirmé la rupture du contrat OneGov et a publié un projet de règles exigeant que tout fournisseur d’IA accorde au gouvernement une licence irrévocable pour « tout usage légal ». Josh Gruenbaum, commissaire du Federal Acquisition Service, a déclaré que « maintenir une relation commerciale avec Anthropic serait dangereux pour la nation ». La Maison-Blanche n’a pas commenté.
Les investisseurs d’Anthropic, dont Amazon et Google, ont immédiatement cherché à désamorcer la crise. D’après deux sources proches du dossier, Andy Jassy a échangé directement avec l’administration Trump pour éviter une interdiction totale de Claude dans les marchés publics. Le risque est lourd car 80 % du chiffre d’affaires d’Anthropic provient des ventes aux entreprises et la valorisation de l’IPO dépend de la stabilité de ces contrats.
Le bras de fer a pris une tournure politique. Le Pentagone veut que les modèles d’IA soient soumis uniquement au droit américain tandis qu’Anthropic défend le principe d’un contrôle éthique intégré au code. Les juristes notent que la base légale du classement « supply-chain risk » reste fragile car aucune violation de sécurité n’a été démontrée. Plusieurs estiment que la mesure traduit une animosité administrative plutôt qu’une menace réelle.
Sur le terrain économique, la sanction a paradoxalement dopé la popularité de Claude. L’application a atteint la première place sur l’App Store et le rythme annuel de revenus a bondi de 14 à 19 milliards de dollars en quelques semaines. Des messages de soutien ont fleuri devant le siège de San Francisco : « God loves Anthropic ».
Il y a désormais une fracture ouverte entre la Silicon Valley et le Département de la Défense. L’IA américaine se découvre un nouveau front, celui du contrôle moral de ses algorithmes.

