Sans l’annoncer publiquement, DeepSeek a fait basculer son infrastructure vers un nouveau modèle, la version 3.1. La start-up chinoise a discrètement signalé à ses utilisateurs WeChat que son système V3.1 avait remplacé la version précédente, avec une extension du champ contextuel à 128 000 tokens. Pas de communiqué sur X, aucune documentation sur Hugging Face au moment du lancement, et surtout, aucune mention du modèle R1 qui semble avoir disparu de son interface.
Alors que GPT-5 et Claude 4 occupent l’espace médiatique international, DeepSeek opte désormais pour la stratégie de la discrétion : un modèle de 685 milliards de paramètres, performant sur les benchmarks, mais livré sans fanfare. Dans les heures qui ont suivi sa mise en ligne sur Hugging Face, V3.1 a très vite grimpé dans les classements, soutenu par une communauté mondiale active, qui a rapidement décortiqué ses capacités. Un score de 71,6 % sur le benchmark Aider en codage, soit un point de plus que Claude Opus 4, pour un coût 68 fois inférieur.
Mais derrière le progrès technique, une absence intrigue. La disparition de toute référence à R1, le modèle de raisonnement lancé en janvier. La fonctionnalité “deep think” a été vidée de son étiquette R1, et R2, pourtant annoncé comme la prochaine grande rupture, ne fait l’objet d’aucun calendrier. La consolidation vers un modèle unifié pourrait signaler soit une réorientation stratégique, soit une impasse temporaire sur la voie du raisonnement autonome.
Techniquement, V3.1 marque un jalon. Le modèle accepte plusieurs formats de tenseurs (BF16, FP8_E4M3, F32), et introduit une architecture hybride : chat, codage, raisonnement, tout est intégré dans un seul artefact. Contrairement à d’anciens modèles composites qui s’effondraient sous leur propre complexité, V3.1 maintient cohérence et vitesse. À 1,01 dollar la tâche de codage, il rivalise avec des systèmes fermés facturés 70 fois plus cher. Les premiers tests réels des développeurs confirment que le système traite les requêtes longues avec une rapidité qui rend obsolètes les derniers modèles de raisonnement souvent très lents.
La stratégie open source renverse aussi les équilibres économiques. Alors que les modèles américains verrouillent l’accès via API payantes et licences restrictives, DeepSeek publie librement un modèle de 700 Go, téléchargeable, modifiable, déployable. Les implications sont plus que symboliques puisqu’elles mettent en péril les marges des leaders historiques et redistribuent l’accès à l’intelligence artificielle de pointe. Le calcul est clair : sacrifier la rente immédiate pour gagner en influence globale.
Sur le plan géopolitique, ce choix d’ouverture n’est pas neutre. L’initiative intervient dans un moment de tension entre les États-Unis et la Chine. En publiant un modèle aussi performant sans restriction, DeepSeek contourne les barrières commerciales et les dépendances réglementaires, tout en imposant une nouvelle norme d’accessibilité. L’open source devient ici un levier d’influence, pas simplement une philosophie de développement.
La communauté, elle, a répondu avec enthousiasme. En quelques heures, chercheurs et développeurs du monde entier ont téléchargé, analysé et testé V3.1. Les résultats ont circulé sur Reddit, X, et dans les sous-forums techniques avec une rapidité qui dépasse tout lancement orchestré médiatiquement. Certains ont découvert des tokens spéciaux, suggérant des capacités de recherche web intégrée et de raisonnement interne. D’autres ont noté que chaque point d’entrée du chatbot renvoyait désormais vers V3.1, sans distinction de version. Tout converge vers un modèle unifié, stable et cohérent.
En tout cas, la sortie de V3.1 risque encore de donner des sueurs aux mastodontes de l’IA outre atlantique parce qu’elle rend leur modèle économique moins défendable. Le coût marginal d’un système aussi performant, rendu accessible sans barrière, bouscule les certitudes. Dans ce nouveau jeu, où l’intelligence artificielle cesse d’être artificiellement rare, la question n’est plus qui a la meilleure technologie, mais qui est prêt à la partager.
Pour les autres acteurs, la pression s’accentue. Pour les utilisateurs, les options s’élargissent. Pour l’intelligence artificielle, la compétition s’intensifie.

