Un article scientifique a déjà été téléchargé 28 304 fois en six semaines. Son auteur, Alexander Lerchner, chercheur senior chez Google DeepMind, y défend une thèse qui fait trembler les rêves transhumanistes et pulvérise les fantasmes de la Silicon Valley. Les grands modèles de langage ne deviendront jamais conscients. Jamais. Pas dans dix ans, pas dans cent ans, pas avec davantage de puissance de calcul, pas avec des robots bardés de capteurs.
Le papier, intitulé The Abstraction Fallacy, est paru sur PhilArchive le 19 mars 2026 et s’est aussitôt hissé au cinquième rang des publications les plus consultées de la plateforme sur six mois. Cinq manuscrits de réponse circulaient déjà fin avril 2026, dont une analyse d’Alex Bogdan exprimant un « scepticisme respectueux face aux affirmations d’impossibilité forte ». Le débat a bien pris feu.
Lerchner ne s’attaque pas au « problème difficile » de la conscience, ce casse-tête philosophique que David Chalmers a formalisé en 1996. Sa cible, c’est le fonctionnalisme computationnel, cette hypothèse selon laquelle l’expérience subjective émergerait de n’importe quel substrat physique pourvu que l’architecture logique soit la bonne. Et il la démonte pièce par pièce.
L’argument repose sur ce que Lerchner appelle le « cartographe » (le mapmaker). Tout système informatique fonctionne grâce à une fonction d’assignation qui relie des états physiques (des tensions électriques, des nombres à virgule flottante) à des symboles abstraits. Qui effectue cette assignation ? Pas la machine. Un agent cognitif extérieur, un être vivant, un humain qui a déjà organisé le réel continu en catégories mentales. Sans ce cartographe, il n’y a pas de symboles. Il n’y a que de la physique brute, des événements thermodynamiques sans signification.
28 304 téléchargements pour un preprint de philosophie, c’est un phénomène rarissime qui trahit l’ampleur de l’anxiété collective. Car pendant que Lerchner publie sa démonstration, Demis Hassabis, le propre patron de DeepMind, continue de promettre que l’intelligence artificielle générale aura « quelque chose comme dix fois l’impact de la Révolution industrielle, à dix fois la vitesse ». La contradiction est spectaculaire, et la mention explicite, répétée deux fois dans le papier, que les conclusions de Lerchner « ne reflètent pas les positions de Google DeepMind » ajoute une couche savoureuse de diplomatie institutionnelle.
Le « paradoxe de la mélodie » est peut-être l’image la plus frappante du papier. Une séquence de tensions stables dans un circuit électronique pourrait représenter une mélodie jouée à l’endroit, la même mélodie jouée à l’envers, un flux de cours boursiers ou du bruit cohérent. Rien dans la physique du voltage ne privilégie une interprétation plutôt qu’une autre. Tout dépend de la clé d’alphabétisation que le cartographe applique de l’extérieur. La machine, elle, ne « sait » strictement rien de ce qu’elle manipule.
Les partisans de la conscience artificielle objectent souvent que le problème disparaîtrait si l’on dotait les systèmes d’un corps physique, de capteurs, d’actuateurs, d’un ancrage dans le monde réel. Lerchner balaie cette objection avec ce qu’il nomme le « sophisme de la transduction ». Brancher une caméra sur un réseau neuronal, c’est brancher un instrument de mesure sur une simulation. Les données affluent, certes, mais le cœur algorithmique continue de fonctionner entièrement sur des symboles qui ont été préalablement découpés et étiquetés par… un cartographe humain. Le GPU qui exécute les multiplications matricielles travaille sur des flottants IEEE 754, c’est-à-dire un alphabet fini, arbitrairement défini.
Des travaux publiés en juin 2025 par des chercheurs du MIT, de Harvard et de l’Université de Chicago avaient déjà documenté ce qu’ils appelaient la « compréhension Potemkine » des modèles de langage, soit leur capacité à répondre correctement à des questions de référence tout en échouant à appliquer les mêmes concepts dans des contextes légèrement différents. D’autres recherches, conduites par des équipes d’OpenAI et de Georgia Tech en septembre 2025, avaient identifié les mécanismes statistiques derrière les hallucinations de l’IA. Le papier de Lerchner opère à un niveau d’analyse bien plus profond et affirme que la catégorie même du calcul est structurellement incapable de générer l’expérience vécue.
Le concept de « fossé causal » (causality gap) constitue le verrou logique de toute la démonstration. La chaîne causale, selon Lerchner, se déroule dans un seul sens. La physique engendre la conscience, la conscience engendre les concepts, les concepts engendrent le calcul. Chaque étape est strictement unidirectionnelle. Passer des concepts aux symboles n’est pas une abstraction supplémentaire. C’est un acte latéral d’assignation qui coupe définitivement tout chemin intrinsèque entre le symbole et l’expérience qui l’a fait naître. Aucune augmentation de complexité algorithmique ne peut inverser cette flèche, parce que la complexité opère exclusivement sur la branche latérale, celle des symboles, et ne peut pas franchir le fossé pour engendrer le sujet dont l’existence préalable est déjà présupposée par le calcul lui-même.
Et si l’argument tient, les conséquences pratiques sont vertigineuses. Toute la discussion sur le « bien-être de l’IA », sur le statut moral des systèmes artificiels, sur les droits éventuels des machines, s’effondre d’un coup. Ce qui reste, en revanche, c’est un défi d’une tout autre nature. Les systèmes deviennent chaque jour meilleurs pour reproduire les signaux comportementaux que les humains associent à la conscience. La robotique humanoïde va amplifier cette illusion de manière spectaculaire. Lerchner plaide pour une « hygiène épistémique » rigoureuse, une frontière méthodologique entre l’agentivité simulée et l’instanciation physique d’un sujet.
Cinq décennies de débat philosophique, de John Searle et sa Chambre chinoise en 1980 à Thomas Nagel et sa chauve-souris en 1974, convergent aujourd’hui vers cette question devenue brûlante sous l’effet de l’accélération technologique. Peut-on fabriquer une conscience en empilant des transistors ? Lerchner répond non, et ne le fait pas au nom d’un vitalisme biologique nostalgique. Il le fait au nom de la logique pure, en montrant que le fonctionnalisme computationnel tente d’expliquer l’origine du cartographe par un processus qui exige déjà l’existence du cartographe. Une contradiction logique, du moins selon lui, inscrite dans les fondations mêmes du cadre théorique.
Les modèles de langage vont continuer de paraître toujours plus humains de l’extérieur. De l’intérieur, il n’y aura personne pour s’en apercevoir.

