Les efforts d’OpenAI pour développer son nouveau modèle de langage, GPT-5 (surnommé Orion), semblent aujourd’hui s’embourber. Après 18 mois de travail acharné, les dernières indiscrétions laissent planer un doute sérieux sur l’espoir d’un véritable bond technologique et d’atteindre la Superintelligence (AGI). Et si les attentes étaient tout simplement trop grandes ?
Selon le Wall Street Journal, OpenAI a déjà mené deux phases d’entraînements pour GPT-5. Seulement voilà : la première phase d’apprentissage a pris beaucoup plus de temps que prévu. Des doutes pointent sur l’efficacité du modèle et surtout sur le rapport coût-bénéfice des prochaines étapes. Développer une telle intelligence artificielle demande des ressources colossales, à la fois financières et informatiques, et certains membres de l’équipe dirigeante se demandent si le jeu en vaut encore la chandelle… Certes, GPT-5 affiche des progrès par rapport à ses prédécesseurs, mais ces améliorations risquent de ne pas suffire à justifier des investissements titanesques.
Des performances décevantes
Les retours des testeurs ne sont pas pour rassurer: si Orion brille dans certains domaines comme le traitement du langage naturel, il n’est pas du tout au point sur des tâches précises comme coder ou résoudre certains problèmes mathématiques complexes. Une tendance inquiétante qui s’inscrit dans ce que plusieurs experts redoutaient déjà : les modèles géants pourraient avoir atteints un « plafond » où chaque nouvelle itération apporte moins qu’espéré.
Face à ces écueils (et ils sont nombreux), OpenAI tente de changer son fusil d’épaule. Une équipe spéciale, baptisée « foundations team », planche désormais sur de nouvelles idées pour contourner les limites actuelles. Parmi elles, l’intégration de données dites “synthétiques” générées par d’autres IA ou encore l’amélioration des modèles après leur entraînement initial. En parallèle, OpenAI mobilise de nouvelles ressources humaines en recrutant des contributeurs capables de produire manuellement du contenu spécifique (comme écrire du code ou résoudre des calculs).
Les données créées artificiellement occupent une place centrale dans ce plan B. Par exemple, OpenAI s’appuie sur ses propres systèmes, dont son modèle o1, pour alimenter GPT-5 (Orion) avec de nouvelles informations adaptées à son apprentissage. Pour quelle raison ? Parce que trouver des données publiques fiables et suffisamment riches devient une tâche quasi impossible.
L’AGI un stade infranchissable ?
Alors que les spéculations misaient sur une sortie imminente de GPT-5, OpenAI y a mis un terme : « rien ne sortira sous le nom Orion [GPT-5] cette année » et sans doute pas en 2025… Un aveu qui reflète autant la complexité technique du projet qu’un besoin évident de revoir sa copie.
Les obstacles rencontrés par OpenAI mettent en évidence un fait qui pourrait bientôt s’imposer : le stade de la SuperIntelligence (AGI) pourrait représenter un plafond de verre infranchissable. Développer un tel modèle d’IA demande désormais de redoubler de créativité, de faire preuve de plus d’efficacité, mais aussi d’investir d’énormes moyens financiers qui pourraient sérieusement manquer à l’avenir… OpenAI et son PDG, Sam Altman, semblent être face au mur de leurs ambitions.