Bientôt disponible : Cours à la demande, à votre propre rythme. En savoir plus !

OpenAI dévoile GPT-5.2, taillé pour les agents longue durée

Mis à jour sur December 13, 2025 4 MINUTES LIRE

Poste de travail de développeur à Paris avec laptop affichant un schéma d’agent IA et du code générique, illustrant OpenAI GPT-5.2 et les workflows longue durée.

Le 11 décembre 2025, OpenAI a annoncé GPT-5.2, une série de modèles conçue pour le travail professionnel et les projets IA multi-étapes. La gamme comprend GPT-5.2 Instant, GPT-5.2 Thinking et GPT-5.2 Pro, disponibles dans ChatGPT et via l’API. OpenAI met en avant des gains sur les livrables (tableurs, présentations), le code, l’usage d’outils et la compréhension de contextes longs. Pour les équipes et les apprenants, l’enjeu est de terminer des tâches complètes avec moins d’itérations.

What happened

OpenAI a publié “Introducing GPT-5.2” le 11 décembre 2025. L’entreprise positionne GPT-5.2 comme sa série la plus capable pour le travail de connaissance et les agents “longue durée”, capables de planifier, d’utiliser des outils et de produire des livrables structurés.

Dans ChatGPT, OpenAI indique lancer le déploiement de GPT-5.2 à partir du 11 décembre 2025, en commençant par les offres payantes (Plus, Pro, Go, Business et Enterprise), puis en élargissant progressivement. GPT-5.1 reste proposé pendant trois mois via des modèles “legacy” dans ChatGPT, avant le retrait de l’interface.

Pour l’API, OpenAI annonce les identifiants à utiliser: gpt-5.2 (Thinking), gpt-5.2-chat-latest (Instant) et gpt-5.2-pro (Pro, via Responses API). Un niveau d’effort de raisonnement “xhigh” est ajouté pour GPT-5.2 Thinking et Pro.

Microsoft a confirmé l’arrivée de GPT-5.2 dans Microsoft 365 Copilot et Copilot Studio le 11 décembre 2025, ce qui facilite l’adoption dans des environnements déjà standardisés en entreprise.

Why it matters

Un agent utile ne répond pas seulement à une question: il doit maintenir la cohérence, respecter des contraintes de format et boucler un travail de bout en bout. Plus l’horizon de la tâche s’allonge (analyse d’un dossier, écriture de code puis revue, production d’un tableur, puis d’une présentation), plus le risque d’oublis et d’incohérences augmente.

OpenAI insiste sur deux bénéfices attendus. D’abord, des sorties plus exploitables pour les artefacts de travail, en particulier tableurs et slides. Ensuite, une baisse d’erreurs sur des requêtes ChatGPT dé-identifiées, même si OpenAI rappelle que le modèle reste imparfait et que les usages critiques exigent une vérification.

Pour les apprenants, c’est l’opportunité de travailler comme en équipe: demander une structure, générer un premier jet, itérer avec des tests et aboutir à un livrable. Pour les équipes produit, GPT-5.2 renforce les patterns “agentiques” (outils, fichiers, étapes), à condition de conserver des garde-fous et un contrôle humain aux points sensibles.

Key numbers

Productivité déclarée: un utilisateur moyen de ChatGPT Enterprise dit gagner 40 à 60 minutes par jour; des utilisateurs intensifs évoquent plus de 10 heures par semaine.

GDPval (victoires ou égalités): 70,9 % pour GPT-5.2 Thinking sur des tâches couvrant 44 métiers.

Estimation GDPval: outputs produits à plus de 11 fois la vitesse et à moins de 1 % du coût d’experts, selon OpenAI (avec supervision humaine).

Tableurs “junior investment banking” (internes) : 59,1 % (GPT-5.1 Thinking) à 68,4 % (GPT-5.2 Thinking), soit +9,3 points.

SWE-Bench Pro (public): 55,6 % pour GPT-5.2 Thinking; SWE-bench Verified: 80,0 %.

Prix API (par million de tokens): gpt-5.2 et gpt-5.2-chat-latest à 1,75 USD en entrée, 0,175 USD en entrée cache, 14 USD en sortie; gpt-5.2-pro à 21 USD en entrée et 168 USD en sortie (avec 90 % de remise annoncée sur les entrées mises en cache).

Context

GPT-5.2 s’inscrit dans une segmentation par compromis. Instant vise la rapidité, Thinking cible les tâches complexes, et Pro est présenté comme l’option qualité quand la latence compte moins. Le centre d’aide d’OpenAI décrit aussi GPT-5.2 Auto dans ChatGPT: un mode qui bascule automatiquement entre Instant et Thinking selon la complexité de la demande.

Cette approche colle à la réalité des équipes. Beaucoup d’applications routent déjà les requêtes: modèle rapide pour les brouillons, modèle plus coûteux pour les étapes finales (revue, consolidation, décisions). Dans ce cadre, l’amélioration la plus utile est souvent la diminution des retours en arrière, plus que quelques points de benchmark.

What’s next

Commencez par une qualification simple. Testez GPT-5.2 sur vos cas critiques (patchs, extraction structurée, synthèse de docs) et mesurez aussi le temps de correction et le nombre d’itérations. C’est souvent la métrique la plus révélatrice.

Ensuite, appliquez un routage explicite et exploitez le cache quand vos contextes se répètent. Si vous utilisez gpt-5.2-pro, réservez “xhigh” aux étapes où la qualité est prioritaire, plutôt que de l’activer partout.

Enfin, instrumentez vos agents. Journalisez les appels d’outils, imposez des validations de format, fixez des limites et gardez une relecture humaine pour les livrables externes. OpenAI indique aussi prévoir une variante GPT-5.2 optimisée pour Codex dans les semaines suivant le 11 décembre 2025, à surveiller si votre priorité est l’agentic coding.

How to go deeper

Approfondir l’évaluation et la mise en production IA avec le Bootcamp Data Science et IA

Consolider l’intégration API et la qualité logicielle avec le Bootcamp de développement web.

Structurer des contrôles, logs et audits avec le Bootcamp de cybersécurité.

Questions fréquentes

Services carrière

Un accompagnement carrière personnalisé pour percer dans la tech : conseils sur le CV, simulations d’entretien et insights sectoriels pour valoriser vos nouvelles compétences.