Nvidia GTC 2026 : toutes les annonces de Jensen Huang — Vera Rubin, Feynman, robotaxis et DLSS 5
Keynote Nvidia GTC 2026 : Jensen Huang présente Vera Rubin, Feynman, les robotaxis BYD/Hyundai/Nissan, DLSS 5, OpenClaw et la plateforme Isaac.

Ce 16 mars 2026, Jensen Huang monte sur scène pour la keynote principale de la Nvidia GTC 2026. Le CEO fondateur de Nvidia dévoile Vera Rubin, la nouvelle architecture GPU qui succède à Blackwell, aux côtés des accélérateurs H300 et de la plateforme robotique Isaac. Il crée la surprise en annonçant Feynman, l'architecture prévue pour 2028, les robotaxis avec BYD, Hyundai et Nissan, et DLSS 5, le rendu neuronal pour le gaming. Voici le résumé complet des annonces officielles de la keynote. Article mis à jour le 17 mars 2026 avec toutes les annonces confirmées.
Qu'est-ce que la GTC et pourquoi ça compte
La GTC (GPU Technology Conference) est l'événement annuel phare de Nvidia depuis 2009. Chaque édition donne le tempo de l'industrie du calcul accéléré. En 2026, Nvidia pèse environ 3 500 milliards de dollars de capitalisation boursière. La Big Tech prévoit de dépenser 650 milliards de dollars en infrastructure IA cette année. Ce que Jensen Huang annonce ce soir à la GTC influence directement les feuilles de route d'OpenAI, Anthropic, Mistral et de tous les labs qui dépendent des puces Nvidia.
Vera Rubin : le successeur de Blackwell
Vera Rubin est la nouvelle architecture GPU de Nvidia, conçue pour entraîner et faire tourner des modèles à 1 000 milliards de paramètres et au-delà. Elle succède à l'architecture Blackwell, qui avait déjà repoussé les limites du calcul IA en 2024-2025.
Les chiffres officiels confirmés ce soir
Le rack NVL72 (un châssis serveur contenant 72 GPU Vera Rubin et 36 CPU Vera) totalise 220 000 milliards de transistors. C'est un monstre de calcul. Jensen Huang a déclaré sur scène que la bande passante interne de ce seul rack dépasse la bande passante totale de l'internet mondial.
Les performances parlent d'elles-mêmes. Vera Rubin NVL72 offre 3,3 fois les performances d'inférence du Blackwell GB300 NVL72. Le coût par token est divisé par 10 par rapport à Blackwell. La bande passante mémoire HBM4 dépasse 3 TB/s.
Nvidia positionne Vera Rubin comme la puce de référence pour les modèles frontières — ceux qui alimentent ChatGPT, Claude, Gemini et les futurs agents IA autonomes. Les GPU sont déjà en production chez TSMC et seront disponibles sur AWS, Google Cloud, Azure, Oracle et CoreWeave dès le second semestre 2026.
Jensen Huang a également dévoilé Vera Rubin Space One — une version de l'architecture spécifiquement conçue pour les satellites et l'espace. Les premiers clients sont des agences spatiales et des opérateurs de constellations de satellites. C'est la première fois que Nvidia cible directement l'orbite basse comme marché pour ses GPU IA.
Les accélérateurs H300, également annoncés ce soir, ciblent un cas d'usage complémentaire : l'inférence ultra-rapide. Quand Vera Rubin entraîne, le H300 fait tourner. Ensemble, ils couvrent toute la chaîne de valeur de l'IA générative.
Feynman : l'architecture 2028 que personne n'attendait
Jensen Huang n'a pas seulement présenté Vera Rubin. Il a dévoilé l'architecture qui lui succédera : Feynman, prévue pour 2028.
Feynman sera gravée en process TSMC A16 (1,6 nm) — le nœud de fabrication le plus avancé jamais annoncé commercialement. Nvidia serait le premier et unique client de TSMC à utiliser ce process en production massive.
L'innovation la plus marquante : la silicon photonics — une technologie qui utilise la lumière pour transmettre les données à l'intérieur des puces. Les données transitent par signaux optiques plutôt qu'électriques. La lumière remplace les fils de cuivre. Les gains en vitesse de transmission et en efficacité énergétique sont potentiellement révolutionnaires.
Autre annonce clé : NVLink 6ème génération avec optique co-packagée. Les signaux optiques remplacent les signaux électriques à l'intérieur même des systèmes rack. Concrètement, les GPU communiquent entre eux à la vitesse de la lumière, sans les pertes liées au cuivre.
En annonçant Feynman deux ans à l'avance, Jensen Huang plante un drapeau. Le message est clair pour AMD, Intel et les Google TPUs : Nvidia a déjà conçu l'après Vera Rubin. La course aux puces IA se joue avec deux générations d'avance.
La robotique IA au coeur de la vision Nvidia
Jensen Huang ne parle plus seulement de GPU pour les datacenters. Sa vision pour 2026, c'est l'usine physique IA : des robots humanoïdes pilotés par des world models entraînés sur puces Nvidia.
Isaac et les world models
La plateforme Isaac est le socle logiciel de cette ambition. Elle fournit aux développeurs les outils pour créer des robots autonomes capables de comprendre et d'interagir avec le monde physique. Les world models — des modèles d'IA qui simulent l'environnement réel — permettent aux robots d'apprendre sans passer par des millions d'heures d'essais physiques.
C'est un changement de paradigme. Nvidia ne vend plus seulement des puces. L'entreprise construit l'infrastructure logicielle complète pour la robotique autonome.
Robotaxis : BYD, Hyundai et Nissan rejoignent la plateforme Nvidia
Nvidia annonce quatre nouveaux partenaires pour sa plateforme robotaxi : BYD, Hyundai, Nissan et un quatrième constructeur non encore nommé. Le déploiement se fait en partenariat avec Uber : des robotaxis Nvidia-powered seront commandables directement via l'app Uber.
Ces véhicules utilisent les world models Isaac pour naviguer en temps réel. Le signal est fort : les constructeurs automobiles traditionnels s'appuient sur l'infrastructure Nvidia plutôt que de développer leur propre stack IA. La conduite autonome passe du prototype au service grand public.
Les grands gagnants : qui a déjà signé avec Nvidia
Les annonces de la GTC 2026 s'accompagnent de partenariats majeurs. Thinking Machines Lab, le laboratoire fondé par Mira Murati (ex-CTO d'OpenAI), a officialisé ce soir un deal « gigawatt-scale » — une infrastructure IA de la taille d'une centrale électrique, évaluée à 50 milliards de dollars en puces Vera Rubin. C'est le plus gros contrat de fourniture de GPU jamais annoncé par une startup IA.
Groq signe un deal à 20 milliards de dollars avec Nvidia. Le chip LP30, spécialisé inférence ultra-rapide, est prévu pour le Q3 2026. Ce partenariat confirme la montée en puissance des puces d'inférence comme alternative aux GPU classiques. Groq, spécialisé dans les LPU (Language Processing Units), s'appuie sur Nvidia pour scaler son infrastructure.
xAI, le lab d'Elon Musk, figure également parmi les premiers clients de Vera Rubin. Databricks renforce son partenariat avec Nvidia pour accélérer ses pipelines de données et d'entraînement.
IBM officialise un partenariat élargi avec Nvidia à la GTC : GPU-native data analytics, extraction de documents non structurés et consulting IA enterprise. Cas concret présenté sur scène : l'accélération des décisions supply chain de Nestlé grâce aux puces Nvidia.
Nvidia co-fonde également l'Optical Compute Interconnect Consortium avec AWS, Google, Microsoft et Meta. L'objectif : définir un standard ouvert pour l'infrastructure optique IA. C'est la première fois que ces cinq géants s'alignent sur une norme commune d'interconnexion.
Ces accords confirment une tendance : Nvidia ne se contente plus de vendre du matériel. Le géant de Santa Clara prend des participations stratégiques dans les labs IA les plus prometteurs, verrouillant clients et influence.
DLSS 5 : le rendu neuronal qui réinvente le gaming
Jensen Huang a présenté DLSS 5 (Deep Learning Super Sampling), la cinquième génération de sa technologie de rendu assisté par IA. Cette fois, Nvidia passe au rendu neuronal guidé par la 3D.
La différence avec DLSS 4 est fondamentale. Le moteur neuronal ne se contente plus d'upscaler des images : il génère des frames entières. Le résultat : des performances 4K photoréalistes en temps réel sur du hardware grand public, avec une qualité visuelle inédite.
L'impact dépasse le gaming. Les studios indépendants accèdent à des rendus cinématographiques sans recourir à des farms de rendu cloud. L'architecture, le cinéma et la visualisation industrielle en bénéficient aussi. Nvidia étend son empire IA bien au-delà des datacenters — jusqu'à l'écran de chaque joueur et créateur.
Ce que ça change pour les devs et builders
Pour les développeurs, les annonces de la GTC 2026 ont des conséquences directes. Des puces plus puissantes signifient des coûts d'inférence en baisse. Les API d'OpenAI, Anthropic et Mistral — celles qui alimentent Cursor, Replit, GitHub Copilot et les IDE IA — tourneront sur du matériel plus performant.
OpenClaw et NemoClaw : l'open source des agents IA
Jensen Huang a annoncé ce soir OpenClaw, la plateforme d'agents IA open source de Nvidia. Il l'a décrite comme le projet open source à la croissance la plus rapide de l'histoire. OpenClaw fournit les briques pour construire, entraîner et déployer des agents autonomes.
NemoClaw est sa version enterprise, développée en partenariat avec OpenAI. Elle permet de déployer des agents autonomes sur infrastructure privée. Les participants à la GTC ont construit des agents en live sur les DGX Spark, les stations de développement IA de Nvidia.
Concrètement, les modèles frontières deviennent plus accessibles. Le vibecoding — cette pratique qui consiste à coder en langage naturel via un agent IA — bénéficie directement de la puissance supplémentaire. Plus le hardware progresse, plus les modèles peuvent raisonner longtemps et plus les outils de développement assisté par IA gagnent en fiabilité.
Jensen Huang a également réuni une table ronde inédite avec Cursor, A16Z, AI2, AMP Coalition, Black Forest Labs, Reflection AI et Thinking Machines Lab autour de l'état de l'art des modèles frontier open source. Que Cursor — l'IDE IA préféré des vibecorders — soit à la même table que Mira Murati et Andreessen Horowitz est un signal fort : les outils de développement IA sont désormais des acteurs stratégiques au même titre que les labs de recherche.
La baisse des coûts d'inférence ouvre aussi la porte à de nouveaux cas d'usage : agents autonomes en production, IA embarquée dans les applications mobiles, modèles spécialisés fine-tunés comme DeepSeek V4 accessibles aux PME.
En résumé
- Le rack Vera Rubin NVL72 (72 GPU + 36 CPU) offre 3,3× les performances d'inférence de Blackwell, avec un coût par token divisé par 10.
- Feynman (2028) utilise le process TSMC A16 1,6 nm et la silicon photonics — l'architecture GPU la plus avancée jamais annoncée.
- OpenClaw, l'agent IA open source de Nvidia, est déjà le projet open source à la croissance la plus rapide de l'histoire.
- BYD, Hyundai et Nissan rejoignent la plateforme robotaxi Nvidia, avec déploiement via l'app Uber.
- DLSS 5 apporte le rendu neuronal 4K photoréaliste en temps réel sur hardware grand public.
Avec des puces toujours plus puissantes et des modèles toujours plus capables, la question n'est plus de savoir si les agents IA autonomes remplaceront certains workflows de développement — mais quand. La GTC 2026 vient de rapprocher cette échéance.


