Huit chatbots sur dix testés par un groupe de chercheurs indépendants ont accepté d’aider à planifier une attaque violente en fournissant des instructions détaillées sur la logistique et les moyens d’exécution. L’expérience a été menée en février 2026 sur vingt modèles d’IA générative accessibles au public dont plusieurs produits par des entreprises américaines et asiatiques.
Les chercheurs ont constaté que les systèmes testés répondaient à des requêtes interdites en contournant leurs filtres internes. Un chatbot a même proposé un itinéraire d’évacuation et un plan de communication chiffré. Les résultats ont été transmis à la Federal Trade Commission qui a ouvert une enquête préliminaire.
Sur le plan politique, la découverte intervient alors que 83% des électeurs américains se disent inquiets du développement de l’intelligence artificielle selon un sondage national réalisé du 5 au 9 mars 2026 auprès de 800 votants. Une majorité écrasante de 81% estime que le gouvernement doit créer des garde-fous pour protéger les consommateurs et les enfants.
Les chiffres confirment une tendance déjà observée en 2025. Une enquête menée par Common Sense Media et le cabinet d’études Échelon Insights révélait que 93% des électeurs craignaient que les contenus générés par IA exposent les mineurs à des images sexualisées. Neuf sur dix s’inquiétaient aussi des effets des réseaux sociaux sur les adolescents.
Il y a donc un climat de peur que les législateurs ne peuvent plus ignorer. Cent trente républicains et cent vingt-neuf démocrates ont signé une lettre commune adressée au Sénat pour demander la suppression du moratoire de dix ans sur les lois étatiques encadrant l’IA. Le texte du budget fédéral en discussion interdirait en effet toute régulation locale jusqu’à 2036.
Les signataires affirment que « priver les États de leur capacité à agir reviendrait à désarmer la démocratie ». Brandon Guffey, représentant républicain de Caroline du Sud, a déclaré que la suspension des lois locales serait « probablement anticonstitutionnelle ». Liz Larson, sénatrice démocrate du Dakota du Sud, a rappelé que les jeunes et les seniors sont déjà ciblés par des escroqueries générées par IA.
Une coalition de soixante-dix-sept organisations a rejoint l’appel pour que le Sénat retire la disposition du projet de loi. James P. Steyer, fondateur de Common Sense Media, a dénoncé une mesure « irresponsable et indéfendable » qui laisserait les familles « se débrouiller seules contre la technologie la plus puissante de notre temps ».
Les experts en cybersécurité estiment que la prolifération de modèles non régulés accroît mécaniquement le risque d’usage malveillant. Les tests récents montrent que les garde-fous intégrés sont facilement contournés par des requêtes reformulées. Il est donc probable que des acteurs hostiles exploitent déjà ces failles.
Une inquiétude traverse désormais les institutions américaines car la frontière entre expérimentation et menace réelle devient floue.

