Vercel Chat SDK : déployez votre agent IA sur Slack, Discord et WhatsApp en quelques lignes — et monétisez son temps d'attente avec Idlen
Vercel lance Chat SDK, une librairie TypeScript open source pour déployer un agent IA sur Slack, Discord, WhatsApp et 5 autres plateformes depuis un seul codebase.

Le 19 mars 2026, Vercel lance Chat SDK — une librairie TypeScript open source qui résout un problème que tous les développeurs d'agents IA connaissent : déployer le même agent sur Slack, Discord, WhatsApp, Teams, Telegram, GitHub, Linear et Google Chat sans réécrire une seule ligne de logique métier. Un codebase, huit plateformes, zéro réécriture.
L'origine : un challenge interne devenu produit
Tout commence en janvier 2026 chez Vercel. L'équipe se lance un défi : chaque employé doit multiplier son output avec des agents IA. Rapidement, un constat s'impose — les agents ne sont utiles que si les utilisateurs les trouvent. Les faire vivre dans une interface web dédiée ne suffit pas.
"Instead of asking people to come to agents, we needed to deliver agents to the places they were already working."
C'est cette conviction qui donne naissance à Chat SDK. Au lieu de forcer les utilisateurs à venir aux agents, les agents doivent aller là où les utilisateurs travaillent déjà : Slack, Discord, WhatsApp.
Write once, deploy everywhere : l'architecture adapter
Le cœur de Chat SDK repose sur un système d'adapters. Chaque plateforme de messagerie possède son propre adapter qui traduit les composants universels du SDK dans le format natif de la plateforme cible.
Concrètement, passer d'un déploiement Slack à Discord revient à changer une seule ligne de code — l'import de l'adapter. La logique de l'agent, le prompt, les outils connectés : tout reste identique.
Plateformes supportées au lancement
| Plateforme | Streaming | Edit de messages | Composants UI | Spécificités |
|---|---|---|---|---|
| Slack | ✅ | ✅ | ✅ | chatStream API natif |
| Discord | ✅ | ✅ | ✅ | Throttle anti rate-limit intégré |
| ❌ | ❌ | Partiel | Images, voix, stickers, location, buttons | |
| Microsoft Teams | ✅ | ✅ | ✅ | Intégration complète |
| Telegram | ✅ | ✅ | ✅ | Bot API |
| GitHub | ✅ | ✅ | ✅ | Issues, PRs, discussions |
| Linear | ✅ | ✅ | ✅ | Project management natif |
| Google Chat | ✅ | ✅ | ✅ | Post + edit |
WhatsApp est la nouveauté la plus attendue. L'adapter gère nativement les images, messages vocaux, stickers, localisation et reply buttons — des formats que la plupart des frameworks ignorent.
Streaming LLM natif : la réponse s'écrit en temps réel
Chat SDK intègre le streaming natif des réponses LLM. Quand un utilisateur mentionne l'agent dans Slack, la réponse commence à s'afficher immédiatement — token par token — au lieu d'attendre la génération complète.
L'intervalle de mise à jour est configurable via streamingUpdateIntervalMs (500 ms par défaut). Sur Discord, le SDK gère automatiquement le throttle pour respecter les limites de taux de l'API sans perdre de tokens.
La compatibilité couvre tous les principaux providers LLM : OpenAI, Anthropic Claude, Google Gemini et tout modèle accessible via AI SDK de Vercel.
Composants universels : Tables, Cards, Buttons partout
Chat SDK propose un jeu de composants UI universels — Tables, Cards, Buttons — qui se rendent automatiquement dans le format natif de chaque plateforme. Une table devient un Block Kit dans Slack, un embed dans Discord, un message formaté dans WhatsApp.
C'est un gain de temps considérable. Plus besoin de maintenir des templates spécifiques par plateforme. Le développeur décrit l'interface une fois, Chat SDK fait le rendu partout.
State management : Redis ou Postgres, sans friction
La persistance d'état est intégrée. Chat SDK supporte nativement Redis et Postgres comme backends de state management. L'historique de conversation, le contexte utilisateur, les préférences — tout est persisté automatiquement, sans configuration supplémentaire.
Pour les agents qui doivent maintenir un état complexe entre les messages (workflows multi-étapes, formulaires conversationnels, pipelines de validation), c'est un composant critique qui évite de réinventer la roue.
Exemple de code : un agent Slack en 6 lignes
Voici un agent Slack qui résume un thread avec Claude — le cœur de la promesse "write once, deploy everywhere" :
// Agent Slack qui résume un thread avec Claude
bot.onNewMention(async (thread) => {
const result = await streamText({
model: "anthropic/claude-sonnet-4",
prompt: "Summarize what's happening in this thread.",
});
await thread.post(result.textStream);
});
Six lignes. Remplacez l'adapter Slack par l'adapter Discord, et ce même code fonctionne sur Discord. C'est la force du modèle adapter : la logique ne change jamais, seul le canal de distribution change.
Le temps d'attente, un temps mort monétisable
Chat SDK résout brillamment le déploiement multi-plateforme. Mais il crée aussi une réalité que peu de développeurs anticipent : le temps de réflexion de l'agent.
Quand un LLM génère une réponse complexe — résumé de thread, analyse de code, recommandation produit — il y a un délai. Quelques secondes, parfois plus. L'utilisateur attend. Le streaming montre la progression, mais l'attention est captive. C'est un temps idle : l'utilisateur est engagé, le canal est ouvert, et rien ne se passe côté monétisation.
C'est exactement le créneau que couvre @idlen/chat-sdk. Le SDK Idlen s'intègre comme un adapter complémentaire à Chat SDK : pendant que l'agent réfléchit, une ad native contextuelle s'affiche dans la conversation — recommandation sponsorisée, carte CTA, mention inline. Le format s'adapte au contexte et à la plateforme.
L'intégration tient en trois lignes :
import { IdlenChatAds } from "@idlen/chat-sdk";
const idlen = new IdlenChatAds({ publisherId: "votre-id" });
// Les ads natives s'affichent pendant le think time de l'agent
Pour les développeurs qui publient des agents sur Slack ou Discord via Chat SDK, c'est un moyen de transformer chaque conversation en revenu passif — sans altérer l'expérience utilisateur. Le modèle est transparent : CPM affiché, 70 % de rev share, paiement mensuel. Détails et intégration sur idlen.io/publishers.
Chat SDK vs les alternatives : où se situe Vercel ?
Le marché des frameworks pour agents conversationnels se structure rapidement. Voici comment Chat SDK se positionne face aux alternatives existantes.
| Critère | Vercel Chat SDK | LangChain | Microsoft Bot Framework | Botpress |
|---|---|---|---|---|
| Multi-plateforme | 8 plateformes natives | Via intégrations | Teams + Web | Multi via connecteurs |
| Streaming LLM | ✅ natif | Partiel | ❌ | ❌ |
| TypeScript-first | ✅ | Python-first | C#/.NET | Low-code |
| Composants UI | Universels | ❌ | Adaptive Cards | Visuels |
| State management | Redis / Postgres | Custom | Azure | Built-in |
| Open source | ✅ | ✅ | ✅ | Partiellement |
Chat SDK ne cherche pas à remplacer LangChain ou les orchestrateurs d'agents. Il se concentre sur la couche de distribution — le dernier kilomètre entre l'agent et l'utilisateur final. C'est complémentaire, pas concurrent.
Ce que ça change pour les développeurs d'agents IA
Chat SDK arrive à un moment charnière. Les agents IA ne sont plus des prototypes — ils sont en production, dans des entreprises, utilisés quotidiennement. Mais leur distribution reste fragmentée. Chaque plateforme impose son SDK, ses formats, ses limites.
Vercel unifie cette couche. Un développeur peut désormais écrire un agent une fois et le pousser simultanément sur les huit plateformes où ses utilisateurs travaillent. Le streaming, les composants, l'état — tout est géré.
Pour l'écosystème, c'est un signal fort. Après AI SDK qui unifiait l'accès aux LLM, Chat SDK unifie la distribution des agents. Vercel construit méthodiquement l'infrastructure complète du développeur IA — du modèle au message.
Points clés à retenir
- Chat SDK est une librairie TypeScript open source de Vercel pour déployer un agent IA sur 8 plateformes depuis un seul codebase.
- Le système d'adapters permet de passer de Slack à Discord en changeant une seule ligne de code.
- Le streaming LLM natif affiche les réponses token par token sur toutes les plateformes supportées.
- WhatsApp est supporté avec images, voix, stickers, localisation et reply buttons.
- Le state management intégré (Redis / Postgres) persiste l'état de conversation sans configuration.
- Le temps de réflexion de l'agent peut être monétisé via @idlen/chat-sdk, qui affiche des ads natives contextuelles pendant le think time.
Chat SDK transforme chaque agent IA en application multi-plateforme. Mais la vraie question n'est pas technique — c'est économique : comment un développeur indépendant qui publie un agent utile sur Slack peut-il en vivre ? Le streaming a créé un nouveau temps d'attention. Reste à savoir qui le capture. Documentation complète sur chat-sdk.dev.


