IA6 min de lecturePar Paul Lefizelier

GPT-6 sort demain ? 14 avril, 2 millions de tokens, +40%, multimodal natif — tout ce qu'on sait à J-1

GPT-6 (Spud) attendu le 14 avril 2026. Context window 2M tokens, +40% vs GPT-5.4, multimodal natif unifié. Polymarket 78%. Tout ce qu'on sait à la veille du lancement.

GPT-6 sort demain ? 14 avril, 2 millions de tokens, +40%, multimodal natif — tout ce qu'on sait à J-1

Le pre-training (entraînement initial) de Spud s'est terminé le 24 mars. Le cycle post-training minimum d'OpenAI — safety evaluation, red-teaming (tests de sécurité), RLHF (ajustement par retour humain) — dure au moins 3 semaines. 24 mars + 3 semaines = 14 avril 2026. C'est demain.

Sam Altman a confirmé "mid to late April" dans un mémo interne. Greg Brockman a lâché "not an incremental improvement" début avril. Polymarket donne 78% de probabilité avant le 30 avril. Voici tout ce qu'on sait à la veille de la sortie la plus attendue de 2026.

Le calcul qu'OpenAI n'a pas fait publiquement mais que tout le monde a fait

Partons des faits. Sam Altman et The Information ont confirmé la fin du pre-training de Spud le 24 mars 2026. Ce qui suit est mécanique.

Le cycle post-training d'OpenAI se décompose en trois phases. La safety evaluation (évaluation de sécurité interne) prend 1 à 2 semaines. Le red-teaming externe — des experts indépendants qui testent les limites du modèle — ajoute 1 à 2 semaines. Le fine-tuning RLHF final en prend encore 1 à 2. Minimum total : 3 semaines.

24 mars + 3 semaines = 14 avril. Ce n'est pas de la spéculation. C'est de l'ingénierie de calendrier.

SourceSignalDate estimée
Calendrier calculéPre-training 24 mars + 3 semaines14 avril
Sam Altman"mid to late April", "faster than expected"Avril 2026
Greg Brockman"not incremental", "two years", "big model feel"Début avril
CometAPIDate "directement le 14 avril"6 avril
Polymarket78% avant le 30 avrilEn cours
Manifold Markets82% avant le 15 maiEn cours

Six signaux indépendants convergent vers la même fenêtre. CometAPI cite directement le 14 avril dans son analyse complète. Altman a ajouté publiquement : "Things are moving faster than any of us expected." Et confirmé une sortie "before Memorial Day" (jour férié américain fin mai). Quand les marchés de prédiction, les déclarations publiques et le calendrier d'ingénierie pointent au même endroit, ce n'est plus de la spéculation.

2 millions de tokens : ce que ça change vraiment

GPT-5.4 offre un context window (fenêtre de contexte) de 128 000 tokens — environ 100 000 mots. GPT-6 passe à 2 millions de tokens. Soit environ 1,5 million de mots. C'est un facteur 15.

Concrètement :

  • Un développeur peut ingérer une codebase entière en un seul prompt. Pas fichier par fichier — tout le projet d'un coup.
  • Un avocat peut analyser un dossier complet de 5 000 pages sans découpage. Le modèle voit tout le contexte simultanément.
  • Un chercheur peut traiter 50 articles scientifiques dans une seule conversation.

Le recall accuracy (capacité à retrouver une information précise dans le contexte) passe à 98%+. GPT-5.4 perdait en précision au-delà de 80 000 tokens — le fameux problème du "lost in the middle". GPT-6 se souvient de tout. Pas juste du début et de la fin. Tout.

SpecGPT-5.4 ProGPT-6 (attendu)Delta
Context window128K tokens2M tokens+1 465%
Recall accuracy~85%98%++13 pts
Performance codingBaseline+40%Majeur
MultimodalPipeline séparéNatif unifiéRupture
Vidéo nativePremière fois

Multimodal natif : la fin des pipelines

Jusqu'ici, les modèles OpenAI traitaient le texte, l'image, l'audio et la vidéo dans des modules séparés. GPT-4o avait fait un pas vers l'unification. GPT-6 va plus loin : un seul modèle traite tout nativement.

Pas de pipeline. Pas de conversion intermédiaire. Le texte, l'image, l'audio et la vidéo sont compris dans la même architecture. C'est la différence entre lire un article, puis regarder une photo, puis écouter un podcast — et regarder un documentaire où tout est intégré.

La vidéo native est une première pour OpenAI en flagship model (modèle phare). Après l'arrêt de Sora, le traitement vidéo revient par la bonne porte : intégré au modèle de raisonnement lui-même. Pas un outil séparé. Une capacité fondamentale.

"Not incremental" : les deux mots les plus importants de l'industrie IA en avril 2026

Revenons sur la citation de Greg Brockman.

"Two years of research." Deux ans depuis GPT-4 (mars 2023). Pas depuis GPT-4.5 (février 2026). Brockman parle d'un cycle complet — le genre qui produit un saut générationnel.

"Big model feel." Un saut qualitatif perceptible par l'utilisateur. Pas une amélioration mesurable uniquement sur des benchmarks.

"Not an incremental improvement." La négation est explicite. GPT-4.5, sorti en février 2026, était l'amélioration incrémentale — et le marché l'avait jugé décevant. Brockman dit que Spud sera l'opposé.

La logique de naming suit. Si Spud n'est "pas incrémental", ce n'est pas un GPT-5.5. C'est un GPT-6. Le nom commercial est confirmé par plusieurs sources concordantes. À 730 milliards de dollars de valorisation — SoftBank ayant emprunté 40 milliards pour y participer — un GPT-5.5 serait une catastrophe de perception. GPT-6 est la seule réponse crédible.

Le paysage concurrentiel ne pardonne pas non plus. Gemini 2.5 Pro domine LMArena depuis mi-mars. Claude Mythos d'Anthropic arrive autour du 6 mai. Gemma 4 31B atteint 89% sur AIME en open-source. GPT-6 doit tous les battre.

Ce qu'on ne sait toujours pas — et c'est important

Soyons honnêtes sur les zones d'ombre.

Prix. GPT-6 sera-t-il plus cher que GPT-5.4 ? Très probable. Un compute supérieur implique un pricing supérieur. Si le saut est trop brutal, les développeurs resteront sur GPT-5.4 pour le volume.

API day-one. Disponible dès le premier jour ou en différé ? OpenAI a souvent lancé les modèles dans ChatGPT avant l'API — ce serait une erreur stratégique avec GPT-6. L'écosystème dev attend l'API, pas le chatbot.

Latence. Aussi rapide que GPT-4o pour les usages quotidiens ? Peu probable. GPT-6 cible le raisonnement frontier (de pointe). Il faudra probablement un modèle plus léger pour le volume.

ChatGPT free. Accès GPT-6 en gratuit ou réservé aux abonnés Pro ? L'historique suggère un accès limité pour le tier gratuit.

Disponibilité géographique. Mondial dès J1 ou déploiement progressif ? Rien de confirmé.

On saura dans moins de 24 heures.


En résumé :

  • GPT-6 (nom de code Spud) attendu le 14 avril 2026 — pre-training terminé le 24 mars + cycle post-training minimum 3 semaines = fenêtre Polymarket 78% avant le 30 avril
  • Specs qui circulent : +40% vs GPT-5.4, context window 2 millions de tokens, recall 98%+, multimodal natif unifié (texte + image + audio + vidéo dans un seul modèle)
  • Greg Brockman : "not an incremental improvement", "two years of research", "big model feel" — signal naming GPT-6, pas GPT-5.5
  • Enjeu commercial : OpenAI valorisée 730 milliards $ — GPT-5.5 serait une catastrophe de perception, GPT-6 est la seule réponse crédible face à Gemini 2.5 Pro et Claude Mythos
  • Questions ouvertes : prix, latence, accès API day-one, disponibilité ChatGPT free vs Pro, géographies J1

GPT-4 est sorti en mars 2023. Depuis : GPT-4o, GPT-4.5, o1, o3, GPT-5.4 — des améliorations réelles, mais dans le même cycle. Greg Brockman dit que Spud est différent. "Two years of research." Si c'est vrai, demain n'est pas juste la sortie d'un nouveau modèle. C'est la fermeture d'un cycle et l'ouverture d'un autre. On saura dans moins de 24 heures.

#openai #gpt6 #spud #sam-altman #greg-brockman #multimodal #context-window #polymarket #flagship-model #sortie-imminente