Vos conversation avec ChatGPT peuvent être visibles sur Google. Oui, littéralement dans les résultats de recherche, au milieu de vos requêtes santé, CV, ou décoration de maison. L’affaire a explosé jeudi. Et OpenAI a immédiatement désactivé la fonctionnalité incriminée : le partage de conversation.
L’outil en question permettait aux utilisateurs de rendre leurs conversations partageables via un lien public, avec une option supplémentaire pour les rendre « découvrables » par les moteurs de recherche comme Google. Une case à cocher, rien de plus. Le problème ? Des milliers d’utilisateurs l’ont utilisée, parfois sans comprendre ce que cela impliquait, et leurs échanges se sont retrouvés exposés au grand public.
C’est VentureBeat qui a sonné l’alarme après que des internautes ont découvert qu’une simple recherche “site:chatgpt.com/share” dans Google donnait accès à ces discussions. Résultat, des fragments intimes du quotidien, parfois identifiants (noms, lieux, données sensibles), accessibles à tous.
OpenAI a tenté d’expliquer que c’était un “short experiment”, destiné à aider les gens à découvrir des conversations utiles via le moteur de recherche. En théorie, seuls ceux qui avaient activement choisi de rendre leur échange public étaient concernés. Mais en pratique, ça n’a pas suffi.
“Nous pensons que cela ouvrait trop facilement la porte à des partages accidentels”, a reconnu l’équipe sécurité d’OpenAI sur X (ex-Twitter). La mesure semblait pourtant encadrée, c’est-à-dire opt-in explicite et double validation, mais manifestement mal comprise ou négligée par nombre d’usagers.
La réaction ne s’est pas fait attendre. Moins de 24 heures après la polémique initiale sur X et Reddit, OpenAI a supprimé purement et simplement la fonctionnalité. Un revirement rapide, mais révélateur.
Car ce n’est pas un cas isolé. Bard (Google) et Meta AI ont connu des épisodes similaires où des conversations privées se sont retrouvées publiques suite à des erreurs d’interface ou une mauvaise interprétation des réglages par les utilisateurs eux-mêmes.
Le problème dépasse le bug technique ou le clic imprudent, mais il touche au cœur du design produit dans l’intelligence artificielle grand public. Quand on confie ses données personnelles, parfois professionnelles, à un assistant IA pour obtenir un conseil stratégique ou réviser un document sensible, on attend que ces informations restent confidentielles par défaut.
Et pourtant non. Parce que derrière chaque innovation se cache une tension difficile à résoudre entre utilité collective et protection individuelle. Construire une base de connaissances issue d’interactions humaines avec l’IA est une idée séduisante, mais elle exige une sophistication extrême dans sa mise en œuvre.
Un expert sécurité résumait bien le dilemme sur X en affirmant que “Le seuil pour partager accidentellement une info privée ne devrait jamais être juste une case.” D’autres ont critiqué OpenAI pour avoir cédé trop vite sous la pression médiatique, mais certains estimaient que les paramètres étaient suffisamment sûrs si bien utilisés, sauf que justement, ils ne l’étaient pas toujours.
Côté entreprise, ce fiasco soulève des questions lourdes, c’est-à-dire, si même les produits destinés au grand public échouent à garantir la confidentialité basique, que faut-il attendre lorsqu’il s’agit d’intégrer ces outils aux flux internes sensibles d’une organisation ?
Les leaders IT doivent désormais poser clairement plusieurs questions à leurs fournisseurs IA, comme :
- qui peut accéder aux conversations stockée ?
- quelles protections empêchent leur indexation involontaire ?
- quelle est la capacité réelle du fournisseur à réagir rapidement en cas d’incident ?
L’incident ChatGPT montre aussi comment un simple détail technique peut devenir viral et ruiner instantanément la confiance construite autour d’un produit innovant. L’indice ici est clair pour toute entreprise qui envisage sérieusement l’IA dans ses opérations stratégiques, c’est-à-dire que renforcer dès maintenant ses cadres de gouvernance IA n’est plus optionnel.
En fin de compte, ce revers souligne surtout que chez OpenAI comme ailleurs dans le secteur, les décisions doivent désormais intégrer systématiquement le scénario du pire utilisateur possible, celui qui clique sans lire ni comprendre, car c’est lui qui déterminera si votre prochaine grande idée devient virale… ou dangereuse.
Les histoires comme celle-ci rappellent brutalement qu’à mesure que l’intelligence artificielle devient ubiquitaire, chaque erreur coûte plus cher qu’avant, en réputation comme en responsabilité légale.

