Anthropic a vu sa trajectoire brutalement infléchie vendredi quand l’administration Trump a ordonné à toutes les agences fédérales de cesser d’utiliser son intelligence artificielle Claude. L’annonce a immédiatement fait chuter la confiance des partenaires publics alors que la société venait d’atteindre une valorisation estimée à 18 milliards de dollars.
Le Pentagone a exigé que Claude soit accessible pour « tout usage légal » sans restriction. Dario Amodei a refusé d’ôter les garde-fous interdisant l’usage de l’IA pour la surveillance de masse ou les armes autonomes. Le contrat de 200 millions de dollars a donc été suspendu et la firme a été menacée d’une désignation en « supply chain risk », un label habituellement réservé aux entités liées à des puissances étrangères.
Le secrétaire à la Défense Pete Hegseth a affirmé que l’entreprise « mettait en danger la sécurité nationale ». Il a aussi évoqué la possibilité d’invoquer le Defense Production Act pour contraindre Anthropic à livrer ses modèles au Pentagone. Une telle mesure, rarement appliquée à une société américaine, pourrait bloquer ses relations avec les grands groupes disposant de contrats militaires.
Anthropic a répliqué qu’elle contesterait en justice une action « sans précédent et juridiquement infondée ». L’entreprise a rappelé que ses modèles sont déjà déployés sur des réseaux classifiés et qu’ils soutiennent des missions de sécurité nationale dans un cadre contrôlé. Elle a souligné que ses garde-fous sont conçus pour éviter des usages que la technologie ne peut pas encore fiabiliser.
Quelques heures après la sanction, OpenAI a annoncé un accord avec le Pentagone pour fournir ChatGPT à des réseaux militaires confidentiels. Sam Altman a précisé que les mêmes lignes rouges que celles défendues par Anthropic sont désormais inscrites dans le contrat. Il a ajouté que le Département de la Défense « reflète ces principes dans la loi et la politique ».
La rivalité entre les deux anciens alliés a donc pris une tournure géopolitique. Fondée en 2021 par d’ex-cadres d’OpenAI, Anthropic a bâti sa réputation sur la prudence algorithmique et la transparence des modèles. Elle a récemment investi 20 millions de dollars dans une initiative politique pour encadrer la régulation de l’IA.
Les réactions à Washington ont été contrastées. Le sénateur Mark Warner a mis en garde contre une instrumentalisation politique des décisions de sécurité nationale. L’ancien général Jack Shanahan a estimé que « peindre une cible sur Anthropic fait perdre à tout le monde ». Il a rappelé que Claude est déjà utilisé dans plusieurs agences fédérales et que ses limites sont « raisonnables ».
Sur la côte Ouest, la communauté tech a pris fait et cause pour Amodei. Des chercheurs de Google et d’OpenAI ont signé des lettres ouvertes saluant la résistance d’Anthropic. Elon Musk a au contraire soutenu la ligne dure du gouvernement en accusant la société de « haïr la civilisation occidentale ».
Il y a désormais un paradoxe que beaucoup jugent intenable : une entreprise américaine pionnière en sécurité de l’IA traitée comme un risque stratégique. L’épisode a sans doute renforcé la stature d’Anthropic dans le débat mondial sur la gouvernance des modèles d’IA.

