IA6 min de lecturePar Paul Lefizelier

GTC 2026 : le bilan complet — Vera Rubin, Physical AI, modèles open-weight et 1 trillion de raisons d'y croire

Récap complet de la Nvidia GTC 2026 : Vera Rubin NVL72, Physical AI, 26 Md$ dans l'open-weight, deal Groq et l'opportunité à 1 trillion de dollars selon Jensen Huang.

GTC 2026 : le bilan complet — Vera Rubin, Physical AI, modèles open-weight et 1 trillion de raisons d'y croire

La Nvidia GTC 2026 s'est terminée aujourd'hui, 19 mars — quatre jours d'annonces qui dessinent l'IA des trois prochaines années. Jensen Huang n'a pas juste présenté des GPU. Il a annoncé que Nvidia devient un lab IA, un constructeur de robots et le financier de l'open source. Voici les cinq annonces qui comptent vraiment.

Vera Rubin : Blackwell est déjà dépassé

Dans l'industrie automobile, un nouveau modèle sort tous les trois ou quatre ans. Nvidia sort une nouvelle génération de GPU tous les douze à dix-huit mois. Vera Rubin NVL72 est la preuve de cette cadence folle.

Annoncé lors de la keynote de Jensen Huang à la GTC 2026 (GPU Technology Conference, la conférence annuelle de Nvidia à San Jose), Vera Rubin succède à Blackwell — sorti fin 2025. Disponibilité prévue : second semestre 2026.

Les chiffres : 3,3 fois plus puissant que Blackwell sur l'inférence (la phase où le modèle IA génère des réponses, par opposition au training où il apprend). L'architecture embarque 72 GPU par rack, interconnectés via NVLink, la technologie de liaison ultra-rapide de Nvidia.

Le prix ? Plusieurs millions de dollars par système. Ce n'est pas un produit grand public. C'est l'infrastructure des AI factories — les datacenters entièrement dédiés à l'IA.

Physical AI : les robots arrivent, entraînés en simulation

Jensen Huang l'a dit clairement : le Physical AI est "la prochaine grande vague après le LLM" (les grands modèles de langage comme ChatGPT ou Claude).

Le Physical AI, c'est l'IA qui contrôle des objets physiques — robots, véhicules autonomes, bras industriels. Et Nvidia veut fournir toute la plateforme d'entraînement.

Isaac Sim est la pièce centrale. C'est un simulateur de robots : on entraîne un robot dans un environnement virtuel avant de le laisser toucher le monde réel. La métaphore de Jensen Huang : "tester une voiture en crash test virtuel avant de construire la vraie voiture."

Omniverse, la plateforme de simulation physique de Nvidia, a été mise à jour pour supporter ces cas d'usage. Les partenariats annoncés à la GTC 2026 sont révélateurs : Boston Dynamics, Figure et Tesla Optimus. Les trois leaders de la robotique humanoïde s'appuient sur l'infra Nvidia.

Citation de Jensen Huang : "Every robot, every autonomous vehicle, every factory will be trained in simulation before touching the real world."

26 milliards dans l'open-weight : Nvidia devient concurrent d'OpenAI

C'est l'annonce la plus structurante à long terme. Un filing SEC (déclaration auprès du régulateur boursier américain) a confirmé le chiffre : Nvidia investit 26 milliards de dollars sur cinq ans dans le développement de ses propres modèles IA open-weight (des modèles dont les poids sont publiés — tout le monde peut les télécharger et les utiliser).

Premier résultat concret : Nemotron 3 Super. Le modèle embarque 120 milliards de paramètres au total, dont 12 milliards actifs simultanément. Il est déjà déployé chez Perplexity, Siemens, Palantir et Cadence.

Le signal est massif. Nvidia ne vend plus seulement des GPU. Il construit toute la stack IA — du silicium aux modèles. Si Nvidia fabrique les GPU et les modèles, la question devient : qui a encore besoin d'OpenAI ou d'Anthropic pour les modèles de base ? La course aux modèles prend un nouveau tournant.

C'est aussi un signal fort pour l'investissement dans le secteur. Comme le montre l'explosion du financement IA en 2026, les capitaux se déplacent vers l'infrastructure.

Le deal Groq × Nvidia : l'inférence devient le nouveau marché

20 milliards de dollars. C'est le montant du deal entre Nvidia et Groq, annoncé à la GTC 2026. Groq 3, le nouveau chip d'inférence ultra-rapide, a été dévoilé sur scène.

Pourquoi autant d'argent sur l'inférence ? Parce que le marché bascule. L'entraînement d'un modèle IA se fait une fois. L'inférence — chaque fois qu'un utilisateur pose une question — se fait des milliards de fois par jour.

Jensen Huang l'a résumé : "L'inférence sera aussi grande que le training dans les deux prochaines années." Groq 3 se positionne comme concurrent d'Intel sur les processeurs de calcul dédiés à l'IA. Le pari : rendre l'inférence aussi rapide que la pensée humaine.

Nvidia a aussi investi dans Thinking Machines Lab, le nouveau lab de Mira Murati — un autre signal que l'écosystème IA se restructure autour de Nvidia.

1 trillion de dollars — et des watts gaspillés

La citation qui résume toute la GTC 2026, c'est celle-ci :

"There is so much power squandered in these AI factories. Every unused watt is revenue lost." — Jensen Huang

La projection de Nvidia : le marché total des AI factories atteindra 1 trillion de dollars. Les datacenters IA sont la nouvelle infrastructure critique mondiale — plus que les routes, les câbles ou les tours de télécommunication.

Mais Jensen Huang pointe un problème : une part massive de cette puissance est gaspillée. Des GPU bridés pour éviter des pics électriques. Des cycles de calcul inutilisés. Des watts qui ne produisent rien.

C'est exactement ce que des startups comme Niv-AI tentent de résoudre — optimiser chaque watt, chaque cycle, chaque GPU dans les datacenters. L'opportunité à 1 trillion de dollars ne se capture pas en ajoutant des GPU. Elle se capture en éliminant le gaspillage.


En résumé :

  • La Nvidia GTC 2026 (16-19 mars, San Jose) a présenté Vera Rubin NVL72, le successeur de Blackwell, disponible au second semestre 2026 — 3,3x plus puissant sur l'inférence.
  • Jensen Huang a déclaré le Physical AI "prochaine grande vague" et présenté des simulations de robots via Isaac Sim et Omniverse, avec Boston Dynamics, Figure et Tesla Optimus.
  • Nvidia investit 26 milliards sur 5 ans dans les modèles open-weightNemotron 3 Super est déjà déployé chez Perplexity, Siemens, Palantir et Cadence.
  • Le deal Groq × Nvidia à 20 milliards positionne l'inférence comme aussi stratégique que l'entraînement — Groq 3 a été dévoilé sur scène.
  • Jensen Huang estime l'opportunité totale des AI factories à 1 trillion de dollars"every unused watt is revenue lost."
AnnonceDétailImpact
Vera Rubin NVL723,3x Blackwell, H2 2026Nouveau standard GPU IA
Physical AI + OmniverseRobots entraînés en simulationRévolution robotique
26 Md$ open-weightNemotron 3 Super déjà liveNvidia devient lab IA
Deal Groq × Nvidia20 Md$, Groq 3 dévoiléInférence = nouveau battleground
1 trillion opportunity"Every unused watt is revenue lost"AI factories = infra critique

La GTC 2026 n'est pas une conférence sur les GPU. C'est une conférence sur l'élimination des ressources idle à toutes les échelles — des watts gaspillés dans les datacenters aux GPU bridés pour éviter des pics électriques, aux robots qui n'existent pas encore mais qui seront entraînés en simulation avant de toucher le monde réel. Jensen Huang voit un monde où rien n'est inactif. Chaque watt produit. Chaque GPU calcule. Chaque robot s'entraîne, même quand il n'existe pas encore physiquement. C'est exactement la philosophie Idlen.

#gtc-2026 #nvidia #jensen-huang #vera-rubin #physical-ai #nemotron #blackwell #gpu #datacenter #open-weight