Vous avez essayé GPT-5 ? Certains regrettent déjà. L’attente était immense, la déception l’est tout autant. OpenAI avait promis un modèle « révolutionnaire », mais dans les faits, les premiers retours sont loin d’être unanimes , et parfois franchement négatifs.
Dès son lancement, GPT-5 a semé le doute. Pas seulement à cause de bugs ou de lenteurs passagères, mais parce que ses réponses, censées être plus intelligentes que jamais, se sont révélées confuses, voire erronées. Des erreurs sur des problèmes mathématiques élémentaires, des approximations dans l’interprétation de schémas simples… même certains modèles précédents faisaient mieux. Colin Fraser, data scientist, a partagé une preuve mathématique mal résolue par le nouveau modèle. Résultat ? Une démonstration fausse que GPT-4 aurait su corriger.
Et ce n’est pas un cas isolé. Plusieurs utilisateurs ont signalé que GPT-5 échouait sur des tâches que Claude 4 Sonnet ou même Grok 4 (pourtant pas exempt de défauts) d’Elon Musk réussissaient sans peine. Par exemple, une simple énigme logique sur des pavés indivisibles a mis en échec le modèle d’OpenAI , pendant que le concurrent s’en sortait avec brio.
Côté interface utilisateur aussi, c’est la confusion qui domine. Le fameux « router automatique » censé adapter la puissance du modèle selon la complexité de la tâche… fonctionne mal. Trop souvent, il bascule vers un mode simplifié sans prévenir l’utilisateur , rendant impossible de savoir si on interagit avec le meilleur niveau du modèle ou une version allégée. Pour Tibor Blaho, ingénieur chez AIPRM et observateur attentif du secteur IA, c’est tout simplement « partiellement cassé ».
Pas au niveau en développement de code
Le problème ne se limite pas à quelques bugs techniques ou à une prise en main maladroite. C’est bien plus structurel que ça.
Sur les performances en codage par exemple, pourtant présentées comme un point fort, GPT-5 déçoit aussi dans la pratique. Oui, il produit des solutions robustes et détaillées… mais au prix d’une lenteur frustrante et d’une consommation excessive de tokens qui fait rapidement grimper les coûts pour les développeurs.
Comparé à Claude Sonnet dans la création d’un simple jeu multijoueur de morpion (tic-tac-toe), GPT-5 a livré un code fonctionnel mais visuellement pauvre et peu engageant. Claude Sonnet a proposé une interface élégante… avec cependant des incohérences dans les schémas utilisés et quelques fonctions incomplètes ou superflues. Bref : aucun n’a vraiment brillé.
Même constat pour les tâches critiques comme l’authentification utilisateur, où ni GPT-5 ni Claude Sonnet ne sont fiables sans intervention humaine pour corriger la gestion des variables d’environnement ou compatibilité TypeScript.
Ces faibles performances sont difficilement compréhensible alors que l’équipe de Cursor, qui a pu mettre la main sur GPT-5 avant tout le monde nous avait vendu un modèle très largement supérieur à Claude 4 Opus et capable de créer une app web d’une seule traite, sans erreur…
Un style rédactionnel encore très robotique
En rédaction pure, c’est aussi la douche froide. Le modèle peine à convaincre et se révèle bien souvent moins bon que la version 4o. Manque de personnalité, rigidité dans la tonalité malgré le prompting, vocabulaire approximatif et mal choisi reviennent souvent dans les commentaires sur X. Les structures de phrases typiques des modèles NLP et l’abus d’adjectifs sont aussi pointés du doigt.
J’ai passé une partie de la nuit à évaluer #GPT5 pour l’intégrer à nos modèles de rédaction avec notre algorithme anti-détection. Résultat : 👎🏻.
Perte de qualité d’écriture, abus d’adjectifs inutiles, vocabulaire mal choisi et inadapté au contexte, style fade malgré le prompt. pic.twitter.com/yZMhpR9kRm
— Techfu 🥷🍀 (@techfu_) August 8, 2025
Côté coût aussi, ça pique un peu : GPT-5 reste moins cher par token ($1.25/million input tokens) que Claude ($3/million), mais sa consommation élevée rend vite l’opération coûteuse dès qu’on dépasse quelques requêtes lourdes en raisonnement.
Et malgré tous ces défauts bien visibles dès le départ… OpenAI a choisi de restreindre l’accès aux anciens modèles comme GPT-4o pour certains utilisateurs non pro, ce qui aggrave encore la frustration générale.
Les critiques se multiplient donc logiquement sur X (anciennement Twitter), Reddit ou encore au sein même de communautés techniques spécialisées IA. Plusieurs influenceurs parlent ouvertement d’un lancement raté pour ChatGPT 5 et relèvent que l’enthousiasme initial est vite retombé face aux limitations du produit. Même Sam Altman a reconnu que le déploiement a été « plus chaotique qu’espéré ».
L’AGI n’est pas pour demain
Elon Musk s’est même amusé a reposter les piètres résultats de GPT-5 aux tests ARC AGI, bien en dessous de Grok 4 et à peine mieux que Claude 4 Opus sorti 3 mois plus tôt.
BREAKING 🚨: GPT-5 on ARC-AGI-2 below Grok-4 🔥🔥🔥🤯🤯🤯 pic.twitter.com/2ajT6djxLw
— Ashraf Ruslan (@ashraf_ruslan0) August 7, 2025
Alors oui, peut-être que certaines entreprises vont finir par trouver comment tirer parti du modèle correctement intégré dans leurs flux internes optimisés… mais pour l’instant, GPT 5 donne surtout l’impression d’un outil inabouti lancé trop tôt sous la pression d’une concurrence croissante, entre Google Gemini 2.5 Pro, Claude 4.1 Opus et Grok 4.
Là où on attendait une percée technologique claire et nette et s’approcher de l’AGI… on assiste finalement à un faux départ embarrassant doublé d’une perte de confiance chez ceux qui comptaient sur OpenAI pour mener la course en tête de l’IA générative.
Pas dramatique peut-être, mais indéniablement problématique.

