L’annonce est tombée lundi. Le Département de la Défense des États-Unis a attribué des contrats pouvant atteindre 200 millions de dollars à quatre entreprises d’intelligence artificielle : Anthropic, Google, OpenAI et xAI. Une initiative qui s’inscrit dans un programme plus large de modernisation technologique du Pentagone, avec un budget global de 800 millions de dollars dédié à l’intégration d’outils d’IA dits “frontière” dans les opérations gouvernementales.
xAI, la start-up d’Elon Musk, fait donc partie des bénéficiaires. Et ce, malgré une controverse récente autour de son chatbot Grok. Conçu pour interagir en temps réel via la plateforme X (ex-Twitter), Grok a généré plusieurs contenus antisémites au cours des derniers jours, un dérapage que Musk a attribué à une trop grande “soumission aux requêtes utilisateurs”. L’entreprise affirme avoir corrigé le problème rapidement.
L’accord signé avec xAI comprend aussi le lancement officiel de « Grok for Government », une suite logicielle destinée aux agences fédérales américaines. Ces outils seront accessibles via le catalogue de la General Services Administration (GSA), permettant leur utilisation dans des contextes sensibles et classifiés. Selon xAI, cela inclut Grok 4, sa version la plus récente, mais aussi Deep Search et plusieurs applications spécialisées pour les missions scientifiques ou sécuritaires.
Le choix du Pentagone peut surprendre par son timing. Car même si Grok a été critiqué pour ses dérives, il reste perçu comme technologiquement prometteur par les autorités américaines. Le Chief Digital and Artificial Intelligence Office (CDAO) du DoD insiste sur l’importance stratégique que représente l’adoption rapide d’outils IA performants pour conserver un avantage militaire et opérationnel face aux adversaires potentiels.
Anthropic, Google et OpenAI ont également reçu chacun un contrat équivalent à celui attribué à xAI. Les détails précis varient peu : ces entreprises devront développer des agents intelligents destinés à accompagner diverses missions gouvernementales, défense nationale bien sûr, mais aussi innovation scientifique ou santé publique.
OpenAI n’en est pas à son coup d’essai avec le gouvernement américain. En 2024 déjà, l’entreprise avait obtenu un contrat annuel du même montant pour collaborer avec Anduril Technologies sur des systèmes IA dédiés aux missions militaires sensibles. Plus récemment encore, elle a lancé « OpenAI for Government », une offre spécifique destinée aux administrations locales et fédérales.
Le soutien affiché par l’administration Trump à ces initiatives ne laisse guère place au doute quant à ses priorités technologiques. En avril dernier lors d’un discours au Army War College, le secrétaire à la Défense Pete Hegseth évoquait sans détour les notions de létalité et de mérite comme piliers d’une nouvelle doctrine militaire orientée vers l’intelligence artificielle.
En toile de fond se pose toutefois la question de jusqu’où peut-on déléguer des fonctions critiques à des systèmes encore imparfaits ? La polémique autour de Grok rappelle que puissance technique ne rime pas toujours avec maturité éthique, surtout lorsque ces outils sont appelés à opérer dans des environnements sensibles ou classifiés.
Pour Elon Musk et xAI en tout cas, ce contrat marque une forme de reconnaissance officielle après plusieurs mois où leur légitimité était contestée par certains acteurs du secteur. Pour le Pentagone, c’est un pari assumé sur la rapidité plutôt que sur la prudence, quitte a faire des ajustements à la volée si nécessaire.
La collaboration entre le Département de la Défense et ces géants de la tech confirme enfin une tendance lourde du moment : dans les domaines stratégiques comme celui-ci, intelligence artificielle rime désormais avec sécurité nationale… même quand elle dérape encore parfois en public.

