IA7 min de lecturePar Paul Lefizelier

OpenAI relance son Agents SDK — sandbox natif, harness Codex-like et manifest pour agents longs

Le 15 avril 2026, OpenAI publie la nouvelle génération de son Agents SDK : exécution sandbox intégrée, outils filesystem inspirés de Codex, snapshotting/rehydratation, et support natif Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop et Vercel. Python d'abord, TypeScript à suivre.

OpenAI relance son Agents SDK — sandbox natif, harness Codex-like et manifest pour agents longs

Le 15 avril 2026, OpenAI publie la nouvelle génération de son Agents SDK. Le changement est structurel : la boîte renonce au SDK "orchestrateur pur" pour livrer un environnement d'exécution complet — sandbox, système de fichiers, harness modèle-natif, abstraction Manifest pour décrire le workspace. Sept fournisseurs d'infrastructure sont supportés nativement dès le jour 1 : Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop, Vercel. Pour la première fois, un dev peut prendre un agent OpenAI, le brancher sur son propre compte E2B ou Vercel, et le voir tourner dans un conteneur isolé sans écrire un seul YAML.


Ce qui change par rapport à la v1

L'Agents SDK v1, sorti fin 2024, était un orchestrateur de tool calls. Vous écriviez les outils, vous écriviez le sandbox, vous écriviez le stockage d'état — le SDK ne faisait qu'appeler le modèle et router les réponses. En pratique, la plupart des équipes réécrivaient les 80% du code qui aurait dû être partagé.

La v2 absorbe ces 80%. Les primitives intégrées — tool use via MCP, progressive disclosure via skills, custom instructions via AGENTS.md, exécution shell, édition de fichiers avec apply_patch — sont désormais natives. Le SDK devient ce que Codex était en interne chez OpenAI : une stack complète pour faire tourner un agent de code sur du vrai code.

CapacitéAgents SDK v1Agents SDK v2
Sandbox exécutionExterneNatif (7 providers)
Filesystem toolsÀ implémenterapply_patch, shell, skills
État / checkpointsSérialisation manuelleSnapshot + rehydrate auto
Config workspaceYAML customManifest abstraction
Custom instructionsPrompt systemAGENTS.md natif
Support langagesPython, TSPython (TS à suivre)

Le deuxième point — les outils filesystem — est celui qui change le plus pour les développeurs. apply_patch est l'outil qu'Anthropic a popularisé avec Claude Code 2 : au lieu de demander au modèle d'écrire un fichier entier, on lui demande de produire un diff minimal, qu'on applique avec un parser robuste. Moins de tokens, moins de régressions, des édits atomiques. OpenAI adopte la même primitive — un signal que l'industrie converge sur les mêmes patterns.

Sandbox natif : 7 providers supportés

C'est la nouveauté la plus concrète. Lancer un agent autonome qui lit et écrit du code, c'est un problème de sécurité avant d'être un problème de modèle. Jusqu'ici, chaque équipe devait choisir son runtime (E2B pour la légèreté, Modal pour la puissance GPU, Daytona pour l'intégration IDE) et écrire son intégration.

Le SDK v2 livre 7 intégrations officielles :

  • E2B et Modal pour le compute à la demande
  • Blaxel et Runloop pour les agents long-running
  • Daytona pour les environnements dev-like
  • Vercel et Cloudflare pour le serverless côté edge

Vous basculez d'un provider à l'autre en changeant une config. Le Manifest décrit l'image Docker, les variables d'environnement, les tools exposés — tout ce qui était autrefois 200 lignes de glue code.

Pour les startups de vibe coding, c'est un soulagement. Construire un Cursor-like ou un Replit-like nécessitait de bâtir un sandbox maison. Désormais, on peut se concentrer sur l'UX et laisser le SDK gérer l'exécution.

Snapshotting : l'agent reprend là où il s'est arrêté

La fonctionnalité la plus sous-estimée du release : snapshot + rehydrate. Le SDK capture l'état du conteneur — filesystem, variables d'environnement, historique de tool calls — et peut le restaurer dans un conteneur neuf.

Conséquences pratiques.

Agents longs sans timeouts. Un refactoring cross-repo qui dure 4 heures ne meurt plus si le runtime expire à 2 heures. Le SDK snapshot, relance un conteneur, continue.

Debugging. Vous pouvez rejouer l'état exact à l'étape 37 d'un run de 50 étapes pour comprendre où l'agent s'est planté. Git log, mais pour les agents.

Parallélisation. Partir d'un même snapshot pour explorer plusieurs solutions en parallèle, puis choisir la meilleure. C'est le pattern qu'Emergent Wingman utilise pour ses agents autonomes en Inde.

Manifest : AGENTS.md et progressive disclosure

Deux conventions sortent de Codex pour entrer dans le SDK standard.

AGENTS.md — Un fichier markdown à la racine du repo qui décrit les conventions, les commandes de test, les zones à éviter, les instructions custom. C'est le pendant CLAUDE.md d'Anthropic, mais avec une spec ouverte poussée par OpenAI, Sourcegraph et JetBrains. L'agent lit ce fichier au démarrage et ajuste son comportement.

Skills — Des modules de prompt compressés chargés à la demande. Au lieu d'injecter 40KB de contexte à chaque appel, le SDK ne charge qu'un index, et le modèle demande les skills pertinentes via un tool call. Même logique que la "progressive disclosure" d'Anthropic Claude Code mais formalisée dans l'API OpenAI.

Ces deux primitives signalent une standardisation. D'ici fin 2026, AGENTS.md et skills seront probablement aussi universels que package.json ou tsconfig.json.

Ce que ça change pour la concurrence

Anthropic. Claude Code 2 avait pris une avance matérielle sur les agents de code. La v2 de l'Agents SDK comble le gap côté infra. La question devient : quel modèle est meilleur sous le capot ? Avec Opus 4.7 à 87,6% SWE-bench et GPT-5.4 à 52%, la réponse reste Anthropic — mais OpenAI reprend le contrôle sur l'expérience développeur.

Cursor, Lovable, Replit, Windsurf. Ces plateformes ont construit leur propre harness. Le SDK v2 pourrait les pousser à adopter le standard OpenAI pour les tâches longues, ou au contraire à doubler sur leurs IDE propriétaires pour se différencier. Cursor à 9,2 milliards a les moyens de maintenir son propre stack ; les plus petits vont migrer.

Vercel, Cloudflare, E2B. Être dans les 7 providers de lancement, c'est la meilleure distribution possible. E2B et Modal étaient déjà standard dans l'écosystème IA, mais Blaxel, Runloop et Daytona récupèrent une exposition énorme. Attendez-vous à des levées accélérées sur ces 3 acteurs dans les 60 prochains jours.

Microsoft / GitHub. Copilot intègre déjà le SDK OpenAI en coulisses. La v2 permet à GitHub Copilot Workspace de proposer des agents qui tournent dans le cloud GitHub (Codespaces) avec snapshot — l'équivalent d'un "undo cross-session".

Les limites

Python only au lancement. Le harness et le sandbox ne sont pas encore en TypeScript. Pour un écosystème agentique où TypeScript domine (Next.js, Vercel AI SDK, les apps IDE en Electron), c'est un handicap de quelques mois. OpenAI promet le support TS "prochainement" sans date.

Verrouillage modèle. Le SDK v2 est optimisé pour GPT-5.4 et au-delà. Faire tourner un agent avec Claude ou Gemini reste possible mais perd le bénéfice du harness model-native. C'est le pari classique : meilleure intégration en échange d'un lock-in.

Coûts. Les agents longs avec snapshotting multiplient les tokens consommés. Un run de 4 heures avec 50 checkpoints peut coûter 30-50x un simple call. OpenAI ne propose pas (encore) de pricing différencié pour le mode agent.


En résumé :

  • Agents SDK v2 publié le 15 avril 2026 : sandbox natif, filesystem tools, harness model-native
  • 7 providers supportés dès le lancement : Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop, Vercel
  • apply_patch, shell, skills, AGENTS.md deviennent primitives natives du SDK
  • Snapshot + rehydrate : les agents reprennent après expiration ou crash du conteneur
  • Manifest : une abstraction unique pour décrire l'agent, son image, ses tools, son sandbox
  • Python d'abord, support TypeScript à suivre
  • Comble le gap infrastructure avec Anthropic Claude Code, mais ne compense pas le retard GPT-5.4 vs Opus 4.7 sur SWE-bench

Le SDK v2 est la réponse d'OpenAI à une vérité inconfortable : l'agent de code est devenu l'application par excellence des LLM, et OpenAI perdait la guerre face à Anthropic côté expérience développeur. La boîte reprend la main non pas en sortant un meilleur modèle — ça, c'est pour Spud / GPT-6 — mais en livrant une stack agentique complète, clé en main, qui rend la construction d'un "Cursor-like" possible en quelques centaines de lignes. C'est le playbook Android : si tu ne peux pas gagner sur la qualité du produit fini, commoditise la plateforme en dessous. Le résultat, dans 12 mois, sera un écosystème d'agents de code où chacun aura son Cursor — et où le seul qui gagne vraiment, c'est celui qui fournit le SDK.

Sources : OpenAI — The next evolution of the Agents SDK, TechCrunch — OpenAI updates its Agents SDK, Help Net Security — OpenAI updates Agents SDK, adds sandbox, Dataconomy — OpenAI Updates Agents SDK With Sandboxed Execution Tools.

#openai #agents-sdk #sandbox #codex #vibe-coding #coding-agent #developer-tools #mcp