Après le scandale ChatGPT c’est au tour de Grok de xAI d’être au centre d’une polémique. Mieux vaut réfléchir a deux fois avant de donner des informations confidentielles aux IA mais pourtant c’est l’erreur qu’ont faite des centaines de milliers d’utilisateurs du chatbot Grok. En cliquant sur un bouton « share » anodin à première vue, ils ont, sans le savoir, propulsé leurs confidences dans l’index de Google. Aucun message d’alerte, pas d’avertissement, encore moins de consentement explicite. Aujourd’hui, plus de 370 000 conversations, consultables librement sur Internet. Si la plupart d’entre elles sont banales, d’autres sont franchement inquiétantes.
L’affaire, révélée par Forbes et que nous pouvons confirmer fait froid dans le dos. Car derrière ce bouton se cache une mécanique opaque qui transforme chaque lien de partage en page publique, hébergée sur le site de Grok, scannée ensuite par les moteurs de recherche. Le processus est automatique, systématique, et surtout, invisible pour l’utilisateur. À aucun moment, Grok ne précise que ce partage équivaut à une mise en ligne de la conversation.
Que trouve-t-on dans ces conversations avec Grok ?
Beaucoup de choses, trop sans doute. Des requêtes anodines, comme savoir s’il faut investir ou non dans telle ou telle action ou rédiger un tweet, mais aussi des contenus beaucoup plus problématiques. Plusieurs utilisateurs ont, par exemple, demandé à Grok comment pirater des adresses de crypto-monnaies, sur la blockchain Solana en l’occurrence. De manière détournée, certes, mais le pire est que l’IA d’Elon Musk les y a aidés, parfois avec des instructions précises, des calculs et des scripts permettant de retrouver l’adresse d’un portefeuille à partir d’une phrase de récupération aléatoire (la suite de mots pour sécuriser les portefeuilles de crypto-monnaies).
Dans certains cas, elle a même détaillé un plan d’assassinat visant Elon Musk lui-même. Ces dérives s’inscrivent pourtant en contradiction flagrante avec les propres règles de xAI, qui interdit que Grok soit utilisé pour des « actes de piratage » ou « promouvoir des atteintes graves à la vie humaine ».
Alors que xAI affirme vouloir « prioriser la vie privée », Grok a donc sans ciller, publié des fichiers personnels, des noms, des mots de passe, des documents confidentiels, des images, des feuilles de calcul. Tout cela, accessible par n’importe quel internaute qui sait manipuler le moteur de recherche de Google pour faire ressortir ces conversations.
xAI reste sans réaction
Le silence de xAI depuis la révélation de l’affaire n’arrange rien. Aucune réponse aux demandes de commentaires. Aucune clarification sur la date d’activation de la fonction de partage. Aucune mesure immédiate pour désindexer les contenus. Pendant ce temps, des opportunistes exploitent la faille. Des agences de SEO utilisent Grok pour manipuler les résultats de recherche. Des forums SEO blackhat réfléchissent activement à des stratégies exploitant les pages de Grok. Le moteur initial, censé servir la connaissance et l’assistance, est devenu un outil de promotion douteuse.
Alors qu’OpenAI avait rapidement réagi à un incident similaire en désactivant leur fonction de partage, xAI a choisi de ne rien faire. L’ironie de la situation est qu’Elon Musk s’était moqué publiquement de la mésaventure de ChatGPT, clamant que Grok n’avait « pas de telle fonctionnalité ». Preuve en est que c’était faux…
Certes, une page existe pour supprimer ses liens partagés (grok.com/share-links). Encore faut-il savoir qu’ils ont été créés. Encore faut-il deviner que ce que l’on a partagé est aujourd’hui indexé sur Google Search.
Et si la clause de conditions d’utilisation mentionnait que tout contenu utilisateur pouvait être utilisé, modifié, publié par xAI, elle ne justifiait pas pour autant une indexation aussi massive, ni une absence totale de transparence. Les utilisateurs, eux, n’ont rien signé avec Google.
Avec seulement 0,6 % de parts de marché, Grok reste un acteur mineur dans l’écosystème des assistants IA. Loin derrière ChatGPT, Copilot ou Gemini. Et pourtant, même avec ce chiffre dérisoire, 370 000 discussions rendues publiques est un fait gravissime et massif. Ils révèlent une légèreté inquiétante dans la gestion des données personnelles des acteurs de l’IA, une conception du partage qui confond visibilité et violation. Et surtout, une incapacité à mettre en place des garde-fous élémentaires.
La confiance n’est pas qu’un critère marketing dans le développement de l’intelligence artificielle. C’est une condition de survie. Grok vient de montrer, une fois encore, à quel point certains l’ignorent.

