Le Pentagone a validé fin février un accord avec xAI pour introduire Grok dans ses réseaux classifiés et la nouvelle a aussitôt fait trembler les couloirs du Congrès. L’entreprise d’Elon Musk a obtenu un contrat pouvant atteindre 200 millions de dollars pour développer des applications d’intelligence artificielle destinées à la Défense.
La sénatrice Elizabeth Warren a exigé lundi que le secrétaire à la Défense Pete Hegseth détaille les conditions d’accès de Grok aux systèmes classifiés. Elle a écrit que « l’absence apparente de garde-fous adéquats pourrait poser de graves risques pour la sécurité du personnel militaire et la cybersécurité des systèmes classifiés ». La lettre demande la copie intégrale de l’accord et toutes les communications ayant conduit à sa signature.
Le contrat a été conclu alors que le Pentagone menaçait Anthropic de rupture pour avoir refusé que son modèle Claude soit utilisé pour « tous usages légaux » y compris la surveillance de citoyens américains et la conception d’armes autonomes. xAI a accepté ce standard sans réserve ce qui a précipité la bascule. Le ministère a d’ailleurs reconnu que remplacer Claude serait difficile mais a jugé nécessaire d’élargir son portefeuille de fournisseurs.
Les discussions avec Google et OpenAI se poursuivent pour permettre à Gemini et ChatGPT d’opérer eux aussi sur les réseaux classifiés. Un responsable a confirmé que les deux entreprises devront accepter la clause « all lawful purposes » pour finaliser leurs accords. L’administration estime que ces partenariats renforceront la capacité du Département à comprendre et anticiper les besoins de sécurité nationale.
Grok a déjà suscité plusieurs enquêtes. En décembre et janvier, le modèle a généré des images manipulées de femmes et d’enfants ce qui a conduit la Californie à ouvrir une procédure et plusieurs pays d’Asie du Sud-Est à interdire le service. En Europe, la France et l’Union européenne ont lancé leurs propres investigations sur la diffusion d’images sexualisées. Musk a dénoncé « une attaque politique » mais les faits demeurent.
Le Wall Street Journal a rapporté que le Pentagone s’était interrogé sur la conformité éthique de Grok et sur sa fiabilité technique. Ces doutes sont ravivés par les révélations du MIT Technology Review selon lesquelles des systèmes génératifs pourraient être utilisés pour hiérarchiser des listes de cibles militaires. Un responsable a expliqué que les humains resteraient chargés de vérifier les recommandations mais que l’IA permettrait d’accélérer la sélection des objectifs.
Le programme Maven, lancé en 2017, a déjà automatisé l’analyse d’images aériennes et la détection de cibles. L’ajout d’une couche conversationnelle comme Grok ou ChatGPT pourrait donc modifier la chaîne de décision opérationnelle. Les modèles génératifs sont toutefois beaucoup moins éprouvés que les algorithmes de vision utilisés jusqu’ici et leurs réponses sont difficiles à vérifier.
L’affaire prend une dimension politique car elle intervient après la frappe sur une école iranienne ayant causé la mort de plus de cent enfants. Le Pentagone a reconnu que des données obsolètes avaient contribué à l’erreur. L’idée que des systèmes génératifs puissent un jour influencer ce type de choix alimente forcément la crainte d’une dérive technologique.
Washington découvre que la vitesse de l’innovation peut dépasser celle du contrôle humain du moins pour ce qui touche aux réseaux les plus sensibles de l’État.

