OpenAI a lâché son nouveau monstre ce jeudi. GPT-5.5 débarque à peine un mois après GPT-5.4, et l’entreprise de Sam Altman ne fait même plus semblant de reprendre son souffle dans cette course effrénée contre Anthropic et son Claude Opus 4.7. Le modèle se présente comme le plus intelligent, le plus intuitif, le plus efficace jamais produit par la firme de San Francisco. Rien que ça.
82,7% de précision sur Terminal-Bench 2.0, 58,6% sur SWE-Bench Pro, 84,9% sur GDPval, 78,7% sur OSWorld-Verified… Les chiffres tombent comme une pluie de confettis et dessinent le portrait d’une machine qui ne se contente plus de répondre à des questions. GPT-5.5 planifie, vérifie son propre travail, enchaîne les outils et persiste jusqu’à ce que la tâche soit terminée. Le tout en consommant bien moins de tokens que son prédécesseur pour un résultat supérieur.
La guerre avec Anthropic atteint désormais une intensité presque théâtrale. Anthropic avait récemment dégainé Claude Opus 4.7 et annoncé Mythos Preview, un modèle non public spécialisé en cybersécurité. OpenAI avait immédiatement riposté avec GPT-5.4-Cyber. Et voilà que GPT-5.5 arrive pour écraser tout le monde sur le terrain du code agentique, de l’utilisation autonome de l’ordinateur et de la recherche scientifique. Des ingénieurs seniors ayant testé le modèle en avant-première l’ont d’ailleurs jugé nettement supérieur à GPT-5.4 et à Claude Opus 4.7 en matière de raisonnement et d’autonomie.
Dan Shipper, fondateur et CEO d’Every, a soumis GPT-5.5 à une épreuve redoutable. Après avoir passé des jours à déboguer un problème post-lancement avant de faire réécrire une partie du système par l’un de ses meilleurs ingénieurs, il a rembobiné l’horloge pour voir si le modèle pouvait aboutir à la même solution. GPT-5.4 avait échoué. GPT-5.5 a réussi.
Pietro Schirano, CEO de MagicPath, a vu le modèle fusionner une branche contenant des centaines de modifications frontend avec une branche principale elle aussi fortement modifiée, le tout réglé en une seule passe et en une vingtaine de minutes.
GPT-5.5 est un modèle plus gros, plus gourmand en calcul, et pourtant il égale la latence par token de GPT-5.4 en conditions réelles de production. Ce tour de force repose sur une co-conception étroite avec les systèmes NVIDIA GB200 et GB300 NVL72, et sur une boucle où le modèle a lui-même contribué à optimiser l’infrastructure qui le sert. Codex a notamment analysé des semaines de données de trafic pour écrire des algorithmes heuristiques de répartition de charge, augmentant la vitesse de génération de tokens de plus de 20%.
La recherche scientifique est peut-être le terrain sur lequel le modèle connait l’avancée la plus spectaculaire. GPT-5.5 a découvert une nouvelle preuve sur les nombres de Ramsey, l’un des objets centraux de la combinatoire, vérifiée ensuite dans Lean. Derya Unutmaz, professeur d’immunologie au Jackson Laboratory for Genomic Medicine, a utilisé GPT-5.5 Pro pour analyser un jeu de données d’expression génique comprenant 62 échantillons et près de 28 000 gènes, produisant un rapport de recherche détaillé qui aurait pris des mois à son équipe. Le modèle ne se contente plus de coder ou d’expliquer. Il raisonne, propose des analyses, critique des manuscrits et stress-teste des arguments techniques sur plusieurs passes.
Michael Truell, cofondateur et CEO de Cursor, résume l’avancée avec enthousiasme « GPT-5.5 est sensiblement plus intelligent et plus persistant que GPT-5.4, avec de meilleures performances en codage et une utilisation des outils plus fiable. Il reste concentré sur la tâche bien plus longtemps sans s’arrêter prématurément, ce qui compte énormément pour les travaux complexes et de longue haleine que nos utilisateurs délèguent à Cursor. »
Un ingénieur chez NVIDIA ayant bénéficié d’un accès anticipé est allé jusqu’à déclarer « Perdre l’accès à GPT-5.5, c’est comme si on m’avait amputé d’un membre. » Justin Boitano, VP Enterprise AI chez NVIDIA, enfonce le clou « GPT-5.5 offre la performance soutenue requise pour les travaux lourds d’exécution. Le modèle permet à nos équipes de livrer des fonctionnalités complètes à partir de prompts en langage naturel, de réduire le temps de débogage de jours à heures et de transformer des semaines d’expérimentation en progrès accomplis du jour au lendemain. »
Le déploiement concerne les abonnés Plus, Pro, Business et Enterprise dans ChatGPT et Codex, avec GPT-5.5 Pro réservé aux tiers Pro, Business et Enterprise. L’API suivra très bientôt à 5 dollars par million de tokens en entrée et 30 dollars en sortie. Plus de 85% des employés d’OpenAI utilisent déjà Codex chaque semaine, de la finance au marketing en passant par la data science, et l’équipe Finance a par exemple passé au crible 24 771 formulaires fiscaux K-1 totalisant 71 637 pages, accélérant la tâche de deux semaines par rapport à l’année précédente.
Le calendrier de cette sortie intervient à quelques jours du procès très médiatisé opposant Elon Musk à Sam Altman et Greg Brockman, dont les audiences débuteront lundi dans un tribunal fédéral d’Oakland. Les deux géants de l’IA, OpenAI et Anthropic, lorgnent aussi tous deux vers une introduction en bourse dans les mois qui viennent. Et dans cette partie d’échecs à coups de milliards de paramètres, GPT-5.5 vient de jouer un coup qui va forcer tout le monde à répondre.

