Un polype non détecté peut coûter une vie. En Pologne, une équipe de chercheurs a constaté que des gastroentérologues chevronnés, après seulement quelques mois d’utilisation d’un système d’IA durant des coloscopies, voyaient leur performance chuter une fois l’outil désactivé. L’étude, publiée dans The Lancet Gastroenterology and Hepatology, ne se contente pas de souligner l’utilité de l’intelligence artificielle en médecine. Elle révèle aussi un phénomène inattendu : la dépendance cognitive des médecins à l’IA.
À première vue, le système d’intelligence artificielle mis à l’essai dans quatre centres d’endoscopie polonais a bien fonctionné. L’algorithme, conçu pour détecter les polypes durant les examens, signalait en temps réel les zones suspectes à l’écran à l’aide d’un simple encadré vert. Résultat : lorsqu’il est activé, le taux de détection d’adénomes, indicateur de qualité en coloscopie, s’améliore. C’est une victoire technique. Oui, mais.
En réanalysant les données, Marcin Romańczyk, médecin-chercheur à l’hôpital H-T de Tychy, a découvert que lorsque l’IA était coupée, les médecins, pourtant très expérimentés, détectaient moins de lésions suspectes qu’avant l’introduction du système. L’ADR (adenoma detection rate) chutait de 28,4 % à 22,4 %. Autrement dit, l’IA aidait… mais elle désarmait aussi.
« Nous attendons inconsciemment que le carré vert apparaisse », reconnaît Romańczyk. Un réflexe que certains appellent déjà « effet Google Maps » : une perte de compétences liées à l’automatisation. Le clinicien devient observateur, l’IA, guide. Et si le guide disparaît, la vigilance du médecin s’émousse.
Le phénomène ne se limite pas aux coloscopies. Une étude connexe sur la lecture de mammographies a montré que les non-spécialistes, informés de la présence possible d’un système d’aide, devenaient moins performants. Johan Hulleman, chercheur à l’université de Manchester, parle d’un « effet filet de sécurité » : l’humain se repose sur la machine, et cesse de s’interroger activement.
Mais tous ne s’accordent pas à dire que trois ou six mois d’exposition à l’IA suffisent à désapprendre des compétences acquises en vingt ans. D’après Hulleman, la variation de performance pourrait aussi s’expliquer par des biais statistiques : âge moyen des patients, complexité des cas ou fatigue induite par une hausse du nombre d’examens pendant la période étudiée. Venet Osmani, professeur d’intelligence artificielle clinique à Queen Mary University, tempère lui aussi : le volume total d’actes a augmenté, ce qui pourrait avoir mécaniquement réduit la qualité.
Dans un article du Time, Catherine Menon, informaticienne à l’université de Hertfordshire, souligne que c’est la première fois que des données cliniques suggèrent un réel « deskilling » lié à l’IA en médecine. Selon elle, la dépendance n’est plus seulement théorique. Elle devient observable.
Ces observations viennent en conjonction d’un autre phénomène inquiétant,les patients, eux, font confiance à l’intelligence artificielle, même quand elle a tort. Dans une étude conjointe menée par le MIT, Stanford et Harvard, des participants ont jugé des réponses médicales générées par GPT-3 comme aussi valables, voire plus que celles de vrais médecins. Et ce, même lorsque les réponses étaient inexactes. Plus inquiétant encore : les sujets déclaraient vouloir suivre les conseils de l’IA dans une proportion comparable à ceux des professionnels humains.
Les médecins eux-mêmes ne sont pas toujours capables de distinguer une réponse générée par IA de celle d’un confrère. Une fois les étiquettes masquées, leur évaluation de la pertinence des réponses ne différait pas, que l’origine soit humaine ou algorithmique. L’IA n’est pas seulement un outil, elle devient une voix médicale que même les experts ne parviennent plus à reconnaître comme artificielle.
Toujours dans le Time, Omer Ahmad, gastroentérologue au University College Hospital de Londres, une exposition prolongée à l’IA modifie les habitudes de recherche visuelle, réduit la capacité à analyser les images et peut nuire à la manipulation même de l’endoscope. Il parle d’une altération du regard clinique, d’un affaiblissement de la reconnaissance des motifs pathologiques.
Certaines voix appellent à la prudence, d’autres y voient une opportunité. Allan Tucker, professeur d’intelligence artificielle à l’université de Brunel, rappelle que l’amélioration globale des performances avec IA est un fait. Le risque d’automatisation cognitive n’est pas propre à l’intelligence artificielle ; il accompagne chaque nouvelle technologie. L’essentiel, selon lui, est d’évaluer si l’IA produit de meilleurs résultats que les humains seuls. Et si oui, à quel prix.
Mais sans données solides sur les conséquences à long terme de l’usage généralisé de l’intelligence artificielle dans les diagnostics, les institutions médicales marchent à l’aveugle. « Regardez ce qu’il se passe », alerte Romańczyk. « On a des systèmes IA disponibles, mais pas les données pour comprendre comment ils nous changent, nous les médecins. »
À mesure que l’intelligence artificielle s’impose dans les examens de routine, de l’imagerie mammaire à l’analyse des fonds d’œil, la médecine s’engage dans une lente transition. Une transition où le médecin, sans s’en rendre compte, délègue son jugement à une machine.

