Google Cloud Next 2026 : Gemini Enterprise, A2A à 150 entreprises et TPU 8 — le full-stack agentique de Google prend forme
Le 22 avril 2026 à Las Vegas, Google Cloud a dévoilé la Gemini Enterprise Agent Platform, la TPU 8 dédiée à l'ère agentique, un fonds partenaires de 750 M$ et l'élargissement du protocole A2A, désormais en production chez 150 organisations avec ServiceNow, Salesforce, Atlassian et SAP.

Google Cloud a cessé de présenter des démos d'agents IA. Le 22 avril 2026 à Las Vegas, lors du keynote d'ouverture de Google Cloud Next 2026, Sundar Pichai et Thomas Kurian ont fait un autre pari : empiler tout le stack, du silicium au protocole d'interopérabilité, et signer chaque couche du même nom. Vertex AI disparaît — la plateforme s'appelle désormais Gemini Enterprise Agent Platform. La TPU 8 arrive avec deux variantes dédiées à l'ère agentique. Et le protocole Agent2Agent (A2A), lancé il y a un an comme proposition open source, est désormais en production chez 150 organisations avec des intégrations natives chez ServiceNow, Salesforce, Atlassian et SAP. La démo cover-band a laissé la place au produit d'entreprise.
Vertex AI devient Gemini Enterprise Agent Platform
Le premier signal est sémantique, mais il compte. Google a consolidé Vertex AI, Agent Builder et ses modèles Gemini sous une seule marque : Gemini Enterprise Agent Platform. L'idée est que le couplage entre le modèle, l'outillage agent et le runtime d'entreprise devient le produit, pas trois produits à cliquer-assembler.
La plateforme couvre tout le cycle de vie d'un agent : développement, test, déploiement, optimisation. Les nouveautés clés :
- Agent registries — un catalogue d'agents au niveau entreprise, avec versioning et politiques d'accès
- Shared context — une couche de mémoire partagée entre agents d'un même tenant
- Runtime engines — un environnement d'exécution isolé et gouverné, pensé pour les charges longues
- Developer platform — plus de 200 modèles disponibles, incluant les modèles tiers comme Claude d'Anthropic
- No-code agent builder — un constructeur d'agents pour Google Workspace, branché sur les mêmes primitives
Le message implicite est important : Google accepte que ses clients enterprise utilisent aussi Claude, Llama ou d'autres modèles frontier. Le verrou n'est plus le modèle — c'est la plateforme d'orchestration autour. C'est le même pari qu'Amazon a fait avec son investissement de 25 milliards dans Anthropic et l'expansion Trainium — la couche infrastructure compte plus que l'exclusivité du modèle.
A2A franchit la barre des 150 organisations en production
La pièce la plus révélatrice du keynote n'est pas un lancement. C'est un chiffre. Le protocole Agent2Agent — un standard ouvert pour que des agents de différents éditeurs se découvrent, collaborent et se délèguent des tâches — est désormais en production chez 150 organisations. Et les intégrations natives listées dressent un portrait précis du marché enterprise 2026 :
- ServiceNow — les agents IT ops et ITSM
- Salesforce — Agentforce sur CRM, service et marketing
- Atlassian — Jira, Confluence, tickets et issues
- SAP — ERP, finance, supply chain
Le support natif A2A est livré dans les frameworks agents les plus utilisés : Google Agent Development Kit, LangGraph, CrewAI, LlamaIndex Agents, Semantic Kernel (Microsoft) et AutoGen. Autrement dit, A2A ne se contente plus d'exister — il devient la plomberie par défaut de l'agentique enterprise, indépendamment du cloud ou du framework choisi.
Le cas d'usage type décrit par Google : un agent Salesforce Agentforce détecte un risque de churn sur un compte, délègue à un agent Vertex AI la génération d'un plan de rétention, qui interroge un agent ServiceNow sur les derniers tickets support du client, puis remet la recommandation dans Agentforce. Aucune des trois boîtes n'a besoin de comprendre l'architecture interne des deux autres. C'est exactement le pattern d'interopérabilité que Stripe a préfiguré côté paiements avec le MPP (Machine Payments Protocol) — un protocole d'intermédiation que chacun adopte parce que le coût de ne pas l'adopter est de rester hors du graphe.
TPU 8 : une puce pour l'inference agentique, une pour l'entraînement
Sur la partie silicium, Google a dévoilé sa huitième génération de Tensor Processing Units, taillée pour les charges spécifiques de l'ère agentique.
| Variante | Cible | Optimisation |
|---|---|---|
| TPU 8t | Entraînement | Modèles frontier à très grande échelle |
| TPU 8i | Inference | Charges agentiques — sessions longues, multi-tour, concurrence élevée |
La distinction matérielle entre training et inference est l'élément le plus intéressant. Les agents ne ressemblent plus à des charges d'inference traditionnelles. Un agent en production peut tourner pendant des minutes ou des heures, accumuler un contexte, appeler des outils, attendre des réponses externes. Le profil compute est très différent des batch d'inference one-shot. La TPU 8i est le premier silicium mainstream conçu explicitement pour ce profil — un positionnement que Nvidia pousse aussi avec la Vera Rubin et les Groq 3 LPX.
La thèse de fond est la même que celle portée par NeoCognition avec ses 40 M$ de seed pour des agents auto-apprenants : les agents fiables ne sont pas des appels à un modèle plus gros, ce sont des systèmes qui tournent longtemps et apprennent de leur environnement. Ça change le silicium qu'il faut.
750 millions de dollars pour former l'écosystème partenaires
En parallèle, Google Cloud a annoncé un fonds de 750 millions de dollars destiné à son réseau de 120 000 partenaires — cabinets de conseil, intégrateurs systèmes, éditeurs tiers et partenaires de distribution. L'enveloppe couvre cinq chantiers :
- Identification de la valeur agentique dans les portefeuilles clients
- Prototypage d'agents sur mesure
- Construction et déploiement en production
- Upskilling des équipes partenaires
- Ingénieurs Google forward-deployed embarqués chez les intégrateurs
C'est le signal qui manquait pour lire le playbook. Google ne parie pas sur un flux de déploiement direct vers les Fortune 500 — il parie que les agents arriveront chez le client via Accenture, Deloitte, Capgemini et les centaines d'intégrateurs régionaux. L'upskilling des partenaires est la couche de distribution. C'est exactement la playbook qu'a bâtie Databricks — et ce n'est pas un hasard si Ion Stoica, co-fondateur de Databricks, a investi en angel dans NeoCognition.
Project Mariner, MCP managé, Workspace Studio
Trois autres annonces méritent d'être retenues, parce qu'elles complètent le full-stack.
Project Mariner — Un agent de navigation web, présenté comme production-ready, capable d'exécuter des workflows multi-étapes dans des interfaces web non prévues pour l'automatisation. C'est le contre-jeu direct de l'agent Computer Use d'Anthropic et du mode Desktop de Codex d'OpenAI. Tout le monde veut devenir la couche d'action qui clique à la place de l'utilisateur.
MCP managé — Le protocole Model Context Protocol, lancé par Anthropic en 2024 et désormais standard de facto, est proposé en version managée sur l'ensemble des services Google Cloud. Chaque service GCP expose automatiquement son endpoint MCP. C'est le miroir enterprise de ce qu'on a vu émerger chez Figma avec les Canvas Agents MCP.
Workspace Studio — Un IDE agentique dédié à la construction de workflows personnalisés sur Gmail, Docs, Sheets, Drive et Meet. Le positionnement est de faire à Google Workspace ce que les app builders comme Lovable ou Kilo Code font au web : du vibe coding pour les workflows business.
ServiceNow élevé au rang de partenaire stratégique de l'année
Dans la même journée, ServiceNow a été nommé Google Cloud Partner of the Year 2026 sur quatre catégories : Global Business Applications, Agentic AI Innovation, Financial Services & Insurance, et Workspace Platform. Les deux entreprises ont annoncé conjointement une suite de solutions conjointes incluant :
- 5G Autonomous Network Operations — détection et remédiation d'anomalies dans les réseaux telco
- Retail Operations — agents de gestion de la demande, du pricing et du stock
- IT Autonomous Ops — triage, diagnostic et remédiation d'incidents IT
Sous le capot, le cocktail est Gemini Enterprise + ServiceNow AI Platform + ServiceNow AI Control Tower + Workflow Data Fabric + BigQuery. Ce qui rend la chose intéressante, c'est que ServiceNow et Google Cloud ne revendent pas la même couche — chacun garde son périmètre, mais A2A fait le pont. C'est la démonstration que le protocole n'est pas une tribune marketing : c'est le contrat d'interface qui permet à deux fournisseurs concurrents sur le front-end d'accepter d'interopérer.
Le positionnement vs OpenAI et Anthropic
Google Cloud Next 2026 est la première grande keynote depuis la clôture du tour record de 122 milliards d'OpenAI à 852 milliards de valorisation et la publication de Claude Opus 4.7 à 87 % sur SWE-Bench. Le pari de Google est explicitement le contraire du leur.
| Axe | OpenAI / Anthropic | Google Cloud |
|---|---|---|
| Modèle | Un modèle frontier, fermé, vendu en API | Gemini + Claude + Llama + 200 autres |
| GTM | Self-serve + ChatGPT / Claude Enterprise | Intégrateurs + partenaires Fortune 500 |
| Protocole | MCP (Anthropic) — outils | A2A (Google) — agent-to-agent |
| Silicium | Cluster GPU Nvidia / Trainium | TPU 8 intégrée verticalement |
| Positionnement | Le cerveau | Le système nerveux central |
Dit autrement : OpenAI et Anthropic veulent être le cerveau unique sur lequel tout le monde branche ses apps. Google accepte plusieurs cerveaux, mais veut être le système nerveux qui les fait communiquer et leur fournit le substrat. C'est un pari plus proche de l'histoire du cloud qu'il ne l'est de celle des LLM.
Ce que ça signifie pour l'écosystème
Trois lectures stratégiques s'imposent à la sortie du keynote.
A2A vient de gagner. L'interopérabilité agentique n'est plus un débat. 150 organisations en production, ServiceNow / Salesforce / Atlassian / SAP en natif, tous les grands frameworks côté open source — le protocole a franchi le seuil où ne pas le supporter devient un désavantage compétitif. Les startups agents qui sortent maintenant sans plan A2A vont se faire downgrader dans les RFP enterprise avant même la démo.
Les prix de l'inference agentique vont encore baisser. TPU 8i + une part importante de la charge qui reste dans le tenant Google au lieu de sortir vers des APIs externes = le coût unitaire du token agentique s'écroule. Pour les plateformes qui vendent de la consommation agent (Factory, Cursor, Emergent), c'est à la fois une pression marge et une chance de scaler sans s'effondrer.
Le principe Idlen touche la question centrale. Un agent qui tourne pendant trente secondes sur une tâche bien prompted, c'est du modèle idle institutionnalisé — du compute payé qui ne capitalise pas. A2A + shared context + runtime engines convertissent cette capacité idle en effet composé : chaque agent d'une chaîne enrichit le contexte des suivants. Pour les développeurs qui construisent sur le SDK @idlen/chat-sdk ou qui monétisent leurs apps d'IA, cette direction confirme la thèse : les agents qui vivent dans votre environnement assez longtemps pour y devenir bons gagnent — et ils gagnent en collaborant.
En résumé :
- Google Cloud Next 2026 s'est ouvert à Las Vegas le 22 avril 2026 sur un keynote de Sundar Pichai et Thomas Kurian.
- Vertex AI est rebrandé en Gemini Enterprise Agent Platform — plateforme unifiée pour développer, déployer, gouverner et optimiser les agents.
- Le protocole A2A est en production chez 150 organisations, avec un support natif dans ServiceNow, Salesforce, Atlassian, SAP, LangGraph, CrewAI, LlamaIndex, Semantic Kernel et AutoGen.
- La TPU 8 série arrive avec une variante 8t (training) et 8i (inference agentique).
- Fonds de 750 M$ destiné à former les 120 000 partenaires de l'écosystème Google Cloud.
- ServiceNow nommé Partner of the Year 2026 sur quatre catégories, avec une suite d'agents 5G, retail et IT ops co-développés.
- Project Mariner, MCP managé et Workspace Studio complètent le full-stack.
Le keynote d'ouverture de Google Cloud Next 2026 n'aura pas produit de modèle plus intelligent que ceux d'OpenAI ou d'Anthropic. Ce n'est pas le pari. Le pari est que, quand des dizaines de milliers d'entreprises passeront en production au cours des dix-huit prochains mois, elles choisiront le fournisseur qui leur donne le silicium, la plateforme, le protocole d'interopérabilité et le réseau d'intégrateurs pour faire atterrir tout ça au même endroit. Google a déposé les quatre pièces sur la même table. Il ne reste qu'à voir combien d'entreprises vont s'asseoir.
Sources :
- Introducing Gemini Enterprise Agent Platform — Google Cloud Blog
- Google Cloud Next 2026: News and updates — Google Blog
- Google Cloud Commits $750 Million to Accelerate Partners' Agentic AI Development
- Agent2Agent protocol (A2A) is getting an upgrade — Google Cloud Blog
- ServiceNow and Google Cloud Unite AI Agents for Autonomous Enterprise Operations
- Google Cloud Next 2026: the full-stack bet against OpenAI and Anthropic — TNW


