JDWJDW
Font ResizerAa
  • Tech & Innovations
  • Mobiles & Apps
  • IA & Robotique
  • Consoles & Jeux Vidéo
  • Films & Séries
  • Animes & Mangas
  • Blockchain & Crypto
  • Plus
    • Web & Internet
    • Geek & Gadgets
    • Informatique & Cybersécurité
    • Réseaux Sociaux & Influence
    • e-Business & Webmarketing
    • Fintech & Néobanques
    • Streaming & P2P
Font ResizerAa
JDWJDW
Rechercher
  • Web & Internet
  • Tech & Innovations
  • Mobiles & Apps
  • Consoles & Jeux Vidéo
  • Films & Séries
  • Animes & Mangas
  • Blockchain & Crypto
  • Geek & Gadgets
  • Informatique & Cybersécurité
  • Streaming & P2P
Avez-vous déjà un compte ? Sign In
Suivez-nous
Tech & Innovations

Vous utilisez ChatGPT ? Attention! Vos conversations sont peut être indexées sur Google

Raphael Gelin
Published 1 août 2025
Last updated: 1 août 2025
Partager
Fuites de données ChatGPT

Vos conversation avec ChatGPT peuvent être visibles sur Google. Oui, littéralement dans les résultats de recherche, au milieu de vos requêtes santé, CV, ou décoration de maison. L’affaire a explosé jeudi. Et OpenAI a immédiatement désactivé la fonctionnalité incriminée : le partage de conversation.

L’outil en question permettait aux utilisateurs de rendre leurs conversations partageables via un lien public, avec une option supplémentaire pour les rendre « découvrables » par les moteurs de recherche comme Google. Une case à cocher, rien de plus. Le problème ? Des milliers d’utilisateurs l’ont utilisée, parfois sans comprendre ce que cela impliquait, et leurs échanges se sont retrouvés exposés au grand public.

C’est VentureBeat qui a sonné l’alarme après que des internautes ont découvert qu’une simple recherche “site:chatgpt.com/share” dans Google donnait accès à ces discussions. Résultat, des fragments intimes du quotidien, parfois identifiants (noms, lieux, données sensibles), accessibles à tous.

OpenAI a tenté d’expliquer que c’était un “short experiment”, destiné à aider les gens à découvrir des conversations utiles via le moteur de recherche. En théorie, seuls ceux qui avaient activement choisi de rendre leur échange public étaient concernés. Mais en pratique, ça n’a pas suffi.

“Nous pensons que cela ouvrait trop facilement la porte à des partages accidentels”, a reconnu l’équipe sécurité d’OpenAI sur X (ex-Twitter). La mesure semblait pourtant encadrée, c’est-à-dire opt-in explicite et double validation, mais manifestement mal comprise ou négligée par nombre d’usagers.

A lire également

gpt-5.4 vs opus 4.7
GPT-5.4 vs Claude Opus 4.7 : le duel des titans de l’IA décrypté benchmark par benchmark
robot humanoide marathon
Un robot humanoïde pulvérise le record du semi-marathon
Claude AI
Anthropic (Claude) et Amazon scellent un pacte titanesque de 100 milliards de dollars

La réaction ne s’est pas fait attendre. Moins de 24 heures après la polémique initiale sur X et Reddit, OpenAI a supprimé purement et simplement la fonctionnalité. Un revirement rapide, mais révélateur.

Car ce n’est pas un cas isolé. Bard (Google) et Meta AI ont connu des épisodes similaires où des conversations privées se sont retrouvées publiques suite à des erreurs d’interface ou une mauvaise interprétation des réglages par les utilisateurs eux-mêmes.

Le problème dépasse le bug technique ou le clic imprudent, mais il touche au cœur du design produit dans l’intelligence artificielle grand public. Quand on confie ses données personnelles, parfois professionnelles, à un assistant IA pour obtenir un conseil stratégique ou réviser un document sensible, on attend que ces informations restent confidentielles par défaut.

Et pourtant non. Parce que derrière chaque innovation se cache une tension difficile à résoudre entre utilité collective et protection individuelle. Construire une base de connaissances issue d’interactions humaines avec l’IA est une idée séduisante, mais elle exige une sophistication extrême dans sa mise en œuvre.

Un expert sécurité résumait bien le dilemme sur X en affirmant que “Le seuil pour partager accidentellement une info privée ne devrait jamais être juste une case.” D’autres ont critiqué OpenAI pour avoir cédé trop vite sous la pression médiatique, mais certains estimaient que les paramètres étaient suffisamment sûrs si bien utilisés, sauf que justement, ils ne l’étaient pas toujours.

Côté entreprise, ce fiasco soulève des questions lourdes, c’est-à-dire, si même les produits destinés au grand public échouent à garantir la confidentialité basique, que faut-il attendre lorsqu’il s’agit d’intégrer ces outils aux flux internes sensibles d’une organisation ?

Les leaders IT doivent désormais poser clairement plusieurs questions à leurs fournisseurs IA, comme :

  • qui peut accéder aux conversations stockée ?
  • quelles protections empêchent leur indexation involontaire ?
  • quelle est la capacité réelle du fournisseur à réagir rapidement en cas d’incident ?

L’incident ChatGPT montre aussi comment un simple détail technique peut devenir viral et ruiner instantanément la confiance construite autour d’un produit innovant. L’indice ici est clair pour toute entreprise qui envisage sérieusement l’IA dans ses opérations stratégiques, c’est-à-dire que renforcer dès maintenant ses cadres de gouvernance IA n’est plus optionnel.

En fin de compte, ce revers souligne surtout que chez OpenAI comme ailleurs dans le secteur, les décisions doivent désormais intégrer systématiquement le scénario du pire utilisateur possible, celui qui clique sans lire ni comprendre, car c’est lui qui déterminera si votre prochaine grande idée devient virale… ou dangereuse.

Les histoires comme celle-ci rappellent brutalement qu’à mesure que l’intelligence artificielle devient ubiquitaire, chaque erreur coûte plus cher qu’avant, en réputation comme en responsabilité légale.

Sources :VentureBeat
Partager cet article
Facebook Whatsapp Whatsapp LinkedIn Reddit Telegram Copy Link

Derniers articles

deepseek
DeepSeek V4 : la Chine relance la course à l’IA open-source avec un modèle de 1 600 milliards de paramètres
IA & Robotique
Windows 11
Microsoft refond l’arrêt et le redémarrage de Windows 11 pour 1 milliard de PC : la fin d’une décennie d’agacement
Informatique & Cybersécurité
google ai
Google prêt à injecter jusqu’à 40 milliards de dollars dans Anthropic : le pari le plus cher de la course à l’IA
IA & Robotique
Meta AI
20 000 licenciements chez Meta et Microsoft : la crise de l’emploi liée à l’IA est-elle déjà là ?
IA & Robotique

Tendance

claude anthropic paresseux
Claude poussé à la paresse ? Le leak qui révèle comment Anthropic bride son service aux utilisateurs
Tech & Innovations
apple intelligence
Siri/Apple Intelligence : John Giannandrea, ancien patron IA quitte Apple la tête basse après huit ans
Mobiles & Apps Tech & Innovations
ios 26.5
iOS 26.5 arrive en bêta avec Maps, chiffrement RCS et pression réglementaire en Europe
Mobiles & Apps
One Piece Live action - Netflix
One Piece saison 3 sur Netflix : tournage lancé, arc Arabasta en ligne de mire
Animes & Mangas
ios 26.4
iOS 26.4 : la mise à jour iPhone qui corrige enfin le clavier et muscle sécurité, batterie, Apple Music
Mobiles & Apps

Vous allez aussi aimer

Meta AI
Tech & Innovations

Meta retarde Avocado et perd du terrain dans la bataille des modèles d’IA

14 mars 2026
iOS 18
Tech & Innovations

iOS 18 : les nouveautés prévues pour la prochaine Maj

27 août 2024
Grok 3
Tech & Innovations

Grok 3 est arrivé ! L’IA de xAI rivalise, voire dépasse, les meilleurs modèles d’OpenAI et Google

18 février 2025
OpenAI
Tech & Innovations

ChatGPT : OpenAI présente le mode « incognito » pour améliorer la confidentialité des utilisateurs

30 avril 2023
robots unitree
Tech & Innovations

Unitree vise 610 millions de dollars à Shanghai et propulse les robots humanoïdes dans l’arène boursière

7 avril 2026
Youzik
Tech & InnovationsWeb & Internet

Youzik ferme définitivement ! Gare aux clones…

4 août 2023
Apple Vision Pro
Tech & Innovations

Vision Pro : la mise à jour visionOS 1.1 est disponible

8 mars 2024
iPhone 16
Tech & Innovations

iPhone 16 : date de sortie, nouveautés, prix… on vous dit tout!

8 mars 2024

Infos légales

  • Mentions légales
  • Politique de confidentialité
  • Nous contacter
  • Partenaires

Maj récentes

gpt-5.5
GPT-5.5 est là : OpenAI répond à Anthropic et Claude Opus 4.7 avec un modèle ultra-puissant
IA & Robotique
kimi k moonshot ai
Moonshot AI lance Kimi k2.6 qui rivalise avec GPT-5.4 et Claude Opus 4.6
Tech & Innovations
claude mythos
Claude Mythos : l’IA trop dangereuse d’Anthropic déjà tombée entre des mains non autorisées
IA & Robotique Informatique & Cybersécurité
qwen
Alibaba lance Qwen 3.6 Max, son dernier modèle IA spécialement taillé pour l’agentique
IA & Robotique

Qui sommes nous ?

Le Journal du Web alias JDW a été fondé et est édité par des passionnés par l’univers web, nouvelles technologies et de la culture populaire.

Newsletter
Inscrivez-vous à notre newsletter pour recevoir nos derniers articles!
Suivez-nous
adbanner
Welcome Back!

Sign in to your account

Username or Email Address
Password

Mot de passe oublié ?