La startup chinoise DeepSeek a dévoilé vendredi une version préliminaire de son modèle V4, plus d’un an après le séisme provoqué par son modèle R1 sur les marchés technologiques mondiaux. Deux déclinaisons sont déjà proposées au téléchargement. Le V4-Pro embarque 1 600 milliards de paramètres, le V4-Flash en compte 284 milliards, et les deux partagent une fenêtre de contexte d’un million de tokens (environ 750 000 mots).
L’architecture a été profondément remaniée. Trois modes de raisonnement cohabitent désormais dans le même modèle. Le mode « Non-think » vise les tâches quotidiennes, « Think High » s’adresse aux problèmes complexes nécessitant planification, et « Think Max » se réserve les exercices les plus ardus en mathématiques et en programmation. Sur le benchmark Apex Shortlist, dédié au raisonnement de haute difficulté, le V4-Pro-Max affiche un score de 90,2 %. Son rating Codeforces atteint 3 206, un niveau qui le place parmi les meilleurs systèmes de programmation compétitive au monde.
Les performances en codage et en mathématiques rivalisent frontalement avec GPT-5.4 d’OpenAI, Claude Opus 4.6 d’Anthropic et Gemini 3.1 Pro de Google. Le modèle chinois domine sur certains benchmarks de code, tout en accusant un retard sur les épreuves de connaissance générale et de raisonnement élargi. Gemini 3.1 Pro conserve l’avantage sur SimpleQA-Verified (précision factuelle), GPT-5.4 mène sur Terminal Bench 2.0 (utilisation d’outils en environnement agent). Le tableau n’est pas uniforme… et c’est bien là tout l’intérêt de la compétition.
Fidèle à sa stratégie, DeepSeek publie le code en open-source et revendique une efficacité redoutable. Le V4-Pro-Max consomme près de dix fois moins de mémoire que son prédécesseur V3.2 pour le traitement de longs contextes. « Le V4 preview de DeepSeek est une démonstration de force », a estimé Neil Shah, vice-président de la recherche chez Counterpoint Research, soulignant des coûts d’inférence bien inférieurs aux générations précédentes. Wei Sun, analyste principale en IA chez Counterpoint, a ajouté que le profil du modèle suggère « une excellente capacité agentique à un coût nettement réduit ».
Huawei a confirmé vendredi que son dernier cluster de calcul IA, équipé de processeurs Ascend, peut faire tourner le V4 nativement. Le détail reste flou quant à la part réelle des puces Huawei dans l’entraînement du modèle, par rapport aux GPU Nvidia auxquels les entreprises chinoises n’ont plus directement accès (restrictions à l’export américaines). Cette compatibilité avec le silicium domestique pourrait néanmoins accélérer la souveraineté technologique que Pékin poursuit méthodiquement depuis plusieurs années.
Les marchés ont réagi dans deux directions opposées à Hong Kong vendredi. Les concurrents chinois en IA ont lourdement chuté, notamment MiniMax et Zhipu (environ 8 % chacun), tandis que Manycore Tech a perdu 9 %. Les fondeurs de puces, eux, ont bondi. SMIC a gagné 9 %, Hua Hong Semiconductor 15 %. Ivan Su, analyste senior chez Morningstar, a tempéré la portée boursière de l’événement, rappelant que « les marchés ont déjà intégré le fait que l’IA chinoise est compétitive et moins chère ». Il a toutefois observé un glissement stratégique dans le positionnement de DeepSeek, qui place désormais les autres modèles open-source chinois comme rivaux directs. « Ce cadrage n’existait pas avec R1, et cela seul montre à quel point la concurrence domestique s’est intensifiée », a-t-il précisé.
Le lancement intervient, quelques heures seulement après la sortie du GPT-5.5 d’OpenAI, conçu comme réponse à la domination de Claude dans le codage. Alibaba et ByteDance ont également publié de nouveaux modèles cette année. La course à l’IA open-source ne se joue plus entre Washington et Hangzhou, elle se joue partout à la fois, et le V4 de DeepSeek vient rappeler que le ticket d’entrée n’a jamais été aussi bas.

