GPT-5 n'est pas juste un GPT-4 en plus gros
GPT-5 arrive avec une surface de prompt fondamentalement différente de ses prédécesseurs. Le plus grand changement est son contrôleur de raisonnement intégré — le modèle décide désormais lui-même si une question mérite un raisonnement étape par étape soigné ou une réponse directe, et il ajuste son budget de calcul en conséquence. Beaucoup des astuces de prompting qui ont défini l'ère GPT-4 sont aujourd'hui soit redondantes, soit franchement contre-productives.
Ce guide est le manuel pratique que notre équipe a construit pour GPT-5 sur les quatre premiers mois de 2026. Nous nous concentrons sur ce qui a changé, ce qui est resté identique, et les schémas spécifiques qui extraient systématiquement le plus de valeur du nouveau modèle. Si vous traitez GPT-5 comme un GPT-4 légèrement plus malin, vous laissez probablement 20 à 30 % de sa capacité sur la table.
Arrêtez de déclencher manuellement le chain-of-thought
« Réfléchissons étape par étape » a été la phrase de prompt engineering la plus influente de l'ère GPT-3.5 et GPT-4. Sur GPT-5, elle a, franchement, pris sa retraite. Le modèle dispose de son propre routeur de raisonnement qui détecte quand un problème bénéficie d'une délibération étendue, et forcer le chain-of-thought quand le routeur ne l'a pas choisi ajoute de la latence et du coût sans augmenter la précision.
Ce qui aide vraiment sur GPT-5, c'est de signaler la difficulté du problème pour que le routeur décide bien. Des phrases comme « ceci est un problème de raisonnement non trivial » ou « attention, il y a un piège subtil » orientent réellement le modèle vers un raisonnement plus profond, plus fiablement que « réfléchissons étape par étape » ne l'a jamais fait. Le modèle mental : vous n'invoquez plus manuellement le raisonnement, vous donnez à GPT-5 l'information dont il a besoin pour l'invoquer lui-même.
Si vous devez vraiment forcer un raisonnement étendu indépendamment de l'évaluation du modèle — par exemple dans des harnais d'évaluation ou des benchmarks — utilisez le paramètre reasoning effort dans l'API plutôt que des instructions au niveau du prompt. C'est à la fois plus fiable et plus efficace.
Utilisez la hiérarchie d'instructions
GPT-5 implémente une hiérarchie d'instructions stricte : les messages système l'emportent sur les messages développeur, qui l'emportent sur les messages utilisateur, qui l'emportent sur les sorties d'outils. C'est appliqué au niveau du modèle, pas seulement par convention. Une fois que vous l'avez compris, vous pouvez réduire drastiquement le risque de prompt injection et produire un comportement plus cohérent en production.
Mettez les règles non négociables dans le message système. Les choses comme le format de sortie, les politiques de refus, les contraintes de persona et les règles de sécurité ont leur place là. Le message utilisateur peut surcharger les préférences de style et de ton, mais ne peut pas surcharger le message système — et GPT-5 respecte cet ordre très strictement. Nous avons déplacé des couches entières de protection contre l'injection vers des messages système bien structurés et observé une baisse visible des échecs de type jailbreak.
Une implication subtile : ne mettez pas les données d'entrée de l'utilisateur dans le message système, même si elles sont statiques. Du contenu non fiable, même s'il ne change jamais, doit toujours rester sous la ligne de confiance. Sinon, un attaquant qui trouve un moyen d'influencer ce contenu « statique » (un fournisseur qui change une description, une édition CMS) gagne une autorité de niveau système.
GPT-5 préfère que vous soyez bref
De manière contre-intuitive, GPT-5 répond mieux à des prompts concis qu'à des prompts élaborés. Nous avons testé 50 prompts de production à trois longueurs — laconique, moyen, verbeux — et les versions laconiques l'ont emporté dans 31 confrontations sur 50. Le modèle est suffisamment bon pour combler les vides ; ajouter du contexte introduit souvent des conflits qu'il doit ensuite résoudre.
Le schéma qui marche : une description de tâche en 2-3 phrases, les données d'entrée, et une spécification claire du format de sortie. Tout ce qui dépasse doit justifier sa présence. Les exemples gagnent leur place. Les contraintes gagnent leur place. Les formules décoratives — « s'il te plaît », « gentiment », « j'apprécierais vraiment » — non, et elles poussent souvent le modèle vers des réponses excessivement polies et embarrassées.
Spécifiez le format de sortie en dernier
L'une des améliorations les plus fiables que vous puissiez apporter à un prompt GPT-5 est de déplacer la spécification du format de sortie tout à la fin. Le modèle accorde un poids disproportionné à la dernière instruction qu'il voit, surtout pour générer une sortie structurée. Un prompt qui commence par « Renvoie un JSON avec ces champs... » puis décrit la tâche est nettement moins fiable que le même prompt avec la spec JSON déplacée en bas.
Pour les sorties structurées, nous utilisons désormais par défaut le response_format d'OpenAI avec un schéma JSON plutôt que de décrire le schéma en prose. Le chemin de décodage contraint est sensiblement plus fiable que les spécifications en prose, même quand la prose est précise. Réservez les schémas en prose aux cas où vous ne pouvez pas utiliser la fonctionnalité d'API — par exemple en travaillant via ChatGPT ou un wrapper qui n'expose pas le paramètre.
Quand utiliser des exemples sur GPT-5
GPT-5 a besoin de moins d'exemples que GPT-4. Pour la plupart des tâches, le zero-shot suffit désormais et un seul exemple s'occupe du reste. Deux cas bénéficient encore réellement du few-shot :
Format idiosyncrasique. Si votre format de sortie n'est pas standard (un CSV custom, un style markdown spécifique, un template hérité), les exemples verrouillent le modèle. Un seul exemple suffit en général. Trois, c'est trop.
Voix et ton. Si vous voulez une voix d'écriture spécifique — la voix d'une marque, le style d'un auteur particulier, un registre métier — les exemples battent la description. « Écris dans la voix de X » n'est pas fiable. Montrer deux paragraphes dans cette voix et demander à GPT-5 de continuer dans le même style fonctionne quasi à tous les coups.
En dehors de ces deux cas, les exemples sont surtout du bruit. Ils consomment du contexte, induisent parfois le modèle à copier des traits de surface plutôt qu'à apprendre la tâche sous-jacente, et améliorent rarement la qualité sur le cœur de l'aptitude que GPT-5 possède déjà.
Le comportement par défaut des outils a changé
Le comportement de GPT-5 vis-à-vis des outils est nettement plus proactif que celui de GPT-4. Par défaut, il appelle les outils dès qu'il a un doute, parfois plus que nécessaire. Si vous remarquez un nombre d'appels d'outils étonnamment élevé par rapport à GPT-4, ce n'est pas un bug. C'est le nouveau comportement par défaut.
Vous pouvez le moduler avec des consignes explicites. « N'appelle l'outil de recherche que si tu ne peux pas répondre depuis tes propres connaissances » réduit les appels inutiles. « Appelle toujours l'outil de vérification avant d'énoncer un fait sur le compte du client » augmente les appels au bon endroit. Le modèle est très réactif à ces directives — bien plus que GPT-4.
Pour les agents qui bouclent, GPT-5 montre aussi un comportement d'arrêt différent. Il a tendance à se déclarer terminé plus tôt que GPT-4, parfois prématurément. Un simple « avant d'annoncer que tu as terminé, liste les étapes complétées et vérifie chacune par rapport à la tâche initiale » inséré en fin de prompt système règle la plupart des arrêts prématurés.
Utilisez le contenu de raisonnement intelligemment
Quand le contenu de raisonnement est exposé dans l'API, vous pouvez faire des choses intéressantes — réinjecter des parties du raisonnement dans un second prompt, le résumer pour un log de debug, extraire des décisions intermédiaires. Mais n'incluez jamais le contenu de raisonnement dans une réponse normale en production. La trace de raisonnement n'est pas optimisée pour des lecteurs humains, et la montrer directement aux utilisateurs sape la sortie soignée que GPT-5 cherche à produire.
Pour l'audit et l'observabilité, stockez le contenu de raisonnement à côté de la réponse dans vos logs. Pour des pipelines multi-étapes où vous voulez un signal plus fort sur l'état intermédiaire du modèle, demandez au modèle d'émettre un « journal de décision » structuré dans la réponse visible — séparé de la trace de raisonnement, écrit dans un format que vous contrôlez.
Entrées vision et audio
La gestion multimodale de GPT-5 est nettement meilleure que celle de GPT-4, mais les règles de prompt pour les images et l'audio restent sous-estimées. Pour les images : placez l'image en premier, puis la question textuelle. L'inverse — texte d'abord, image à la fin — produit une OCR et une reconnaissance de détails sensiblement moins bonnes. Pour l'audio : soyez explicite sur ce que vous voulez : transcription, résumé, ou analyse. Le modèle part par défaut sur un résumé, ce qui est rarement ce que vous attendez d'un upload audio.
Pour les documents au contenu mixte (PDF avec graphiques, slides avec diagrammes), décrivez ce que vous voulez analyser avant l'upload : « Je vais joindre un rapport de 10 pages. Extrais le tableau financier de la page 4 et le paragraphe méthodologie de la page 7. » Énoncer la cible avant l'entrée permet au modèle d'allouer son attention efficacement.
Construire des suites d'évaluation pour GPT-5
Parce que le comportement de GPT-5 dépend tellement de son routeur de raisonnement interne, le prompt engineering ressemble désormais davantage à de l'evaluation engineering. La manière la plus rapide d'améliorer vos prompts est de maintenir un petit jeu d'évaluation fixe — 20 à 50 exemples couvrant votre distribution réelle — et de faire passer chaque changement de prompt à travers ce jeu. Nous avons cessé de faire confiance à notre intuition pour juger qu'un prompt est « meilleur » sans chiffres.
L'éval n'a pas besoin d'être sophistiquée. Des étiquettes pass/fail, quelques notes selon une grille, occasionnellement une réponse de référence — ça suffit. C'est la discipline de la mesure qui compte. Les équipes qui ont adopté ça en 2026 livrent des changements de prompt avec confiance ; les autres sont encore en train de débattre pour savoir si le nouveau prompt est vraiment une amélioration.
Un modèle mental pour GPT-5
Le modèle mental le plus court pour le prompting GPT-5 est : écrivez à un junior réfléchi qui a accès à un consultant senior à la demande. Dites-lui clairement ce que vous voulez et à quoi ressemble une bonne sortie. Faites-lui confiance pour appeler à l'aide (son routeur de raisonnement) quand une tâche est difficile. Ne micromanagez pas son processus de pensée. Ne soyez pas précieux sur la politesse. Donnez des exemples uniquement quand le format est inhabituel ou que la voix compte.
La majeure partie du playbook de l'ère GPT-4 fonctionne encore sur GPT-5 — il cesse simplement d'être l'action à plus fort levier. Les nouveaux mouvements à plus fort levier sont : des messages système plus propres, la brièveté, les specs de format à la fin du prompt, et une petite suite d'évaluation que vous faites tourner réellement. Adoptez ces quatre habitudes et vos sorties GPT-5 dépasseront celles de collègues encore en train de peaufiner leurs phrases de chain-of-thought.
Envie d'un prompt GPT-5 structuré sans tout écrire à la main ?
Notre Générateur de Prompts IA gratuit transforme une idée brute en prompt prêt pour GPT-5, qui respecte la hiérarchie d'instructions et suit les bonnes pratiques 2026.
Générer un prompt GPT-5 maintenant