Google a frappé fort mercredi lors de sa conférence Cloud Next 2026 à Las Vegas en présentant deux processeurs dédiés à l’intelligence artificielle. La huitième génération de TPU (tensor processing units) se scinde désormais en deux lignes distinctes, le TPU 8t pour l’entraînement des modèles et le TPU 8i pour l’inférence, cette phase où les modèles répondent aux requêtes des utilisateurs.
Cette spécialisation rompt avec des années de puces polyvalentes. « Avec l’essor des agents IA, nous avons estimé que la communauté bénéficierait de processeurs individuellement spécialisés pour l’entraînement et le service », a écrit Amin Vahdat, vice-président senior et directeur technologique IA et infrastructure chez Google. Le TPU 8t promet ainsi de réduire les cycles de développement de modèles « de plusieurs mois à quelques semaines » et affiche un rapport performance-prix 2,8 fois supérieur à celui de la génération Ironwood, dévoilée en novembre dernier.
Le TPU 8i mise quant à lui sur la mémoire SRAM embarquée, avec 384 mégaoctets par puce, soit le triple d’Ironwood. Sundar Pichai, PDG d’Alphabet, a décrit une architecture conçue « pour offrir le débit massif et la faible latence nécessaires à l’exécution simultanée de millions d’agents de manière rentable ». Les deux puces seront disponibles dans le courant de l’année.
Les clients, eux, n’ont pas attendu. Anthropic s’est déjà engagé sur plusieurs gigawatts de capacité TPU. Meta aurait signé un contrat pluriannuel de plusieurs milliards de dollars pour accéder à ces processeurs, selon The Information. OpenAI négocie également de la capacité TPU pour alimenter ses propres services. Et les 17 laboratoires nationaux du département américain de l’Énergie utilisent d’ores et déjà des logiciels d’IA co-scientifique bâtis sur ces puces.
Faut-il pour autant y voir la fin de la domination de Nvidia ? Pas encore… Google ne compare même pas frontalement ses nouvelles puces à celles du géant aux GPU. L’entreprise a d’ailleurs confirmé que Vera Rubin, le dernier processeur de Nvidia, sera bien proposé sur son cloud cette année. Les deux groupes travaillent ensemble au renforcement de Falcon, une technologie réseau logicielle que Google a créée puis versée à l’Open Compute Project en 2023.
Les analystes de DA Davidson estimaient en septembre la valeur combinée de l’activité TPU et de Google DeepMind à environ 900 milliards de dollars. Patrick Moorhead, analyste réputé du marché des semi-conducteurs, a rappelé avec ironie sur X qu’il avait prédit dès 2016 que les TPU seraient une mauvaise nouvelle pour Nvidia. Le fabricant de GPU pèse aujourd’hui près de 5 000 milliards de dollars en capitalisation boursière.
Amazon, Microsoft, Meta et Google investissent tous massivement dans leurs propres accélérateurs IA, grignotant un territoire longtemps réservé à Nvidia et AMD. Les hyperscalers représentent désormais un peu plus de 50 % du chiffre d’affaires data center de Nvidia, qui a généré 193,7 milliards de dollars sur ce segment lors de son exercice fiscal 2026 (clos en janvier). Le paradoxe reste entier, du moins pour l’instant. Plus Google grandit comme fournisseur cloud IA, plus Nvidia vend de puces à Google.

