Figma ouvre son canvas aux agents IA : Claude Code, Codex et Cursor peuvent maintenant designer à votre place — en respectant votre design system
Figma lance en open beta un MCP server qui permet aux agents IA de créer et éditer des assets directement sur le canvas, en utilisant vos composants et variables existants.

Jusqu'à hier, les agents IA voyaient vos designs Figma. Ils pouvaient les lire, les analyser, les décrire. Mais pas les toucher. Depuis le 23 mars 2026, c'est terminé. Via un MCP server mis à jour et un système de "Skills", Claude Code, Codex et Cursor écrivent directement dans votre canvas — en utilisant vos composants, vos variables et votre auto-layout. C'est la fin du design IA générique : chaque output respecte votre design system, votre charte et votre logique de composants.
Le problème du design IA générique — enfin résolu
Tout designer a vécu le même scénario. Demander à un agent IA de générer une maquette. Recevoir un résultat propre, mais qui ne ressemble à rien de sa marque. Pas les bonnes couleurs. Pas les bons composants. Pas la bonne grille.
Figma l'a formulé clairement : "To date, AI agents haven't had this context, which is why so many designs created by AI often feel unfamiliar and generic."
Le problème n'était pas l'IA. C'était l'accès. Aucun agent n'avait connaissance de votre design system — vos tokens de design (les valeurs réutilisables : couleurs, typographies, espacements), vos composants, vos variables, vos conventions. L'IA dessinait depuis zéro à chaque fois.
Ce n'est plus le cas. Comme annoncé par Figma le 23 mars 2026, le MCP server (Model Context Protocol — le protocole standard qui permet aux agents IA de se connecter à des outils externes) donne désormais un accès complet en écriture au canvas.
use_figma : comment ça marche techniquement
Trois briques techniques composent la mise à jour.
use_figma est l'outil MCP principal. Il permet aux agents de créer et d'éditer de vrais assets Figma — en utilisant les composants et variables déjà définis dans votre bibliothèque. La métaphore : c'est comme donner à Claude Code un accès direct à votre bibliothèque de composants. Il ne dessine plus depuis zéro. Il assemble vos pièces existantes comme un designer senior.
generate_figma_design traduit du HTML/CSS d'une application existante en layers Figma éditables. Concrètement : vous pointez l'agent vers votre app en production, et il reverse-engineer l'interface en composants Figma modifiables. Le pont entre code et design fonctionne dans les deux sens.
Les Skills sont la troisième brique — et la plus innovante. On y revient en détail ci-dessous.
Neuf clients MCP sont compatibles dès aujourd'hui : Augment, Claude Code, Codex, Copilot CLI, Copilot in VS Code, Cursor, Factory, Firebender et Warp. L'écosystème est large dès le lancement.
Les Skills : vos conventions deviennent des règles que l'agent suit
C'est la feature la plus stratégique de l'annonce. Les Skills sont des fichiers Markdown — du texte en langage naturel — qui encodent les conventions de votre équipe. N'importe qui peut les écrire. Pas besoin de coder.
Un Skill définit des étapes, des séquences et des conventions à respecter. L'agent le lit avant chaque action et s'y conforme. C'est l'équivalent d'un brief de direction artistique, mais exécutable par une machine.
Le mécanisme de self-healing (auto-correction) est particulièrement puissant : après chaque action, l'agent prend un screenshot du résultat, le compare au résultat attendu et itère automatiquement si quelque chose ne correspond pas. Pas d'intervention humaine nécessaire.
Cinq Skills communautaires sont déjà disponibles :
| Skill | Créateur | Ce que ça fait |
|---|---|---|
/figma-generate-library | Figma | Crée des composants depuis un codebase existant |
/apply-design-system | Chris Goebel (Edenspiekermann) | Connecte des designs existants au design system |
/create-voice | Ian Guisard (Uber) | Génère des specs accessibilité screen reader |
/sync-figma-token | Firebender | Synchronise les tokens entre code et Figma |
/multi-agent | Augment Code | Lance des workflows parallèles multi-agents |
Yuhki Yamashita, CPO Figma, résume : "Starting today, agents can write directly to the Figma canvas. Teams can now use Claude Code, Codex, and other agents to create and edit real Figma assets with full awareness of your existing design systems."
OpenAI Codex + Anthropic Claude dans le même article — le double endorsement
C'est rare : les deux plus grands labs IA valident publiquement la même feature Figma le même jour.
Ed Bayes, Design Lead chez OpenAI Codex, déclare : "Teams at OpenAI use Figma to iterate, refine, and make decisions about how a product comes together. Now, Codex can find and use all the important design context in Figma."
Cat Wu, Head of Product chez Claude Code (Anthropic), ajoute : "Skills teach Claude Code how to work directly in the design canvas, so you can build in a way that stays true to your team's intent and judgment."
Le signal est clair. Figma ne prend pas parti entre les modèles. Il devient l'infrastructure standard du design IA — agnostique. OpenAI, Anthropic, Cursor : tout le monde passe par le même MCP server. Matt Colyer, Product Lead chez Figma, confirme que les équipes internes l'utilisent déjà depuis deux semaines.
La sécurité suit : l'accès est contrôlé via autorisation OAuth utilisateur. Aucun agent n'accède à vos fichiers sans permission explicite. Côté pricing, la beta est gratuite. L'API sera payante à l'usage ensuite.
Figma vs Google Stitch vs Lovable — la semaine où le design est devenu agentique
| Outil | Accès design system | Agents compatibles | MCP | Open source |
|---|---|---|---|---|
| Figma MCP | Natif | 9 clients | Oui | Skills |
| Google Stitch | Non | Gemini uniquement | Non | Non |
| Lovable | Import Figma | GPT-4o | Non | Non |
| Adobe Firefly | Partiel | Adobe uniquement | Non | Non |
| v0 (Vercel) | Import Figma | Claude | Non | Non |
Cette annonce ne tombe pas du ciel. Elle s'inscrit dans une séquence de 72 heures qui redéfinit le design.
Lundi, Lovable annonce rechercher des acquisitions — la consolidation du vibe coding commence. Mardi matin, Cursor admet que Composer 2 repose sur Kimi, un modèle chinois — la stack dev IA en crise de confiance. Mardi soir, Figma ouvre son canvas aux agents.
L'ironie est savoureuse. Google Stitch voulait contourner Figma en générant des UI depuis du texte via Gemini — sans design system existant. Figma répond en intégrant tous les agents directement. Plutôt que de concurrencer l'IA, Figma devient la couche d'infrastructure que chaque agent utilise.
En résumé :
- Figma lance le 23 mars 2026 une open beta permettant aux agents IA d'écrire directement sur le canvas — Claude Code, Codex, Cursor, Copilot, Augment, Warp sont compatibles.
- L'outil
use_figmapermet de créer et éditer de vrais assets Figma en utilisant les composants, variables et auto-layout existants. - Les Skills (fichiers Markdown) encodent les conventions de l'équipe et guident l'agent avec un self-healing loop automatique.
- OpenAI (Ed Bayes) et Anthropic (Cat Wu) ont tous deux validé publiquement la feature dès le premier jour.
- Gratuit pendant la beta — sera une API payante à l'usage. Le guide officiel MCP server Figma est disponible dès maintenant.
Le canvas Figma était la ressource idle la plus frustrante pour les agents IA. Ils pouvaient lire, analyser, décrire. Mais pas toucher. Depuis hier, ils ont les mains. En 72 heures, Lovable a annoncé des acquisitions, Cursor a admis s'appuyer sur un modèle chinois, et Figma a ouvert son canvas aux agents. Le design n'est plus une discipline humaine — c'est un workflow agentique. La question n'est plus "est-ce que l'IA peut designer ?" — c'est "pourquoi vous en avez encore besoin pour le faire."


