Qu'est-ce que le Prompt Engineering ? Une introduction par les premiers principes

Réponse rapide

Le Prompt Engineering est la discipline d'ingénierie systématique consistant à concevoir et optimiser les entrées (prompts) pour guider les modèles d'IA générative vers des sorties précises, fiables et prêtes pour la production en influençant leurs distributions de probabilité de tokens sous-jacentes.

  • Maîtrisez les 6 techniques fondamentales : Zero-shot, Few-shot, Chaîne de pensée (CoT), Rôle & persona, Format de sortie et Chaînage de prompts.
  • Une mise en œuvre réussie exige un état d'esprit scientifique : passer des « suppositions anecdotiques » à la mesure itérative et aux tests.
  • En 2026, le domaine évolue vers l'Ingénierie du contexte — essentielle pour les agents stateful LangGraph et les exemples multi-agents CrewAI complexes où la gestion de l'état est clé.
Ask AI

Vous demandez à un modèle de langage de résumer un contrat. La sortie est trois paragraphes — verbeux, prudents, sans les clauses essentielles. Vous réessayez avec d'autres mots. Mieux, mais toujours pas ce qu'il vous fallait. Au cinquième essai, quelque chose fonctionne. Cet écart — entre « poser une question à une IA » et « obtenir de manière fiable la sortie dont vous avez besoin » — c'est là que vit le prompt engineering.

Cette première leçon définit la discipline depuis ses fondations : ce qu'est réellement un prompt au niveau du modèle, ce que signifie l'« ingénierie » d'un prompt, et où en est le domaine à l'aube de 2026. Ignorez cette leçon, et chaque technique que vous apprendrez par la suite semblera une astuce plutôt qu'un principe.


1. Qu'est-ce qu'un prompt, vraiment ?

Un prompt est toute entrée présentée à un modèle d'IA générative pour en obtenir une sortie. Dans les modèles textuels, cette entrée est une séquence de tokensUnités de base de texte traitées par l'IA, souvent des fragments de mots. — des unités sub-lexicales que le modèle a appris à associer à des représentations internes. Le rôle du modèle est de prédire la continuation la plus probable de cette séquence, en s'appuyant sur tout ce qu'il a appris lors de l'entraînement.

C'est la chose la plus importante à comprendre : un modèle de langageIA entraînée sur de vastes données pour prédire et générer du texte. n'est pas un moteur de recherche, une base de données, ni un système de raisonnement au sens humain. Il est, dans son essence, une distribution de probabilités conditionnelle. À partir des tokensUnités de base de texte traitées par l'IA, souvent des fragments de mots. que vous fournissez, il estime la probabilité de chaque token suivant possible, échantillonne dans cette distribution selon un paramètre de température, et répète jusqu'à atteindre une condition d'arrêt.

Le modèle fondamental

P(sortie | prompt) — le modèle assigne une probabilité à chaque continuation possible de votre entrée. Le prompt engineering est la discipline qui consiste à façonner cette distribution de sorte que la région de plus haute probabilité coïncide avec la sortie que vous souhaitez réellement obtenir.

Schulhoff et al. (2024) définissent un prompt comme « toute entrée d'un modèle d'IA générative » et établissent qu'il se compose de cinq éléments possibles : une directive, un ou plusieurs exemples, des indicateurs de sortie, des informations contextuelles, et un rôle ou persona.#ArXiv Leur étude — la revue systématique la plus complète jamais publiée sur les techniques de prompting, couvrant 1 565 articles et répertoriant 58 techniques distinctes de prompting pour LLMModèle de Langage Étendu. IA avancée entraînée sur des jeux de données massifs. — fournit la taxonomie la plus rigoureuse disponible.

Le prompt engineeringDiscipline de conception et de raffinement des entrées pour obtenir des résultats fiables. est alors le processus itératif de conception, d'affinage et d'évaluation de prompts afin de produire de manière constante des sorties atteignant un niveau de qualité défini. Le terme « ingénierie » est délibéré : il implique mesure, itération et application de méthodes raisonnées — pas de tâtonnements ni de formulations heureuses.


2. Pourquoi le prompt engineering est important

L'argument pratique est simple. Le même modèle — mêmes poids, même API — peut produire des sorties allant de l'inutile à l'extraordinaire, selon la façon dont il est sollicité. Brown et al. (2020), en présentant GPT-3 et le concept d'apprentissage en contexte, ont montré que le cadrage d'une entrée a un impact sur les performances aussi important que l'échelle du modèle, sur un large éventail de tâches.#OpenAI Ce résultat a été reproduit et étendu dans des centaines d'études ultérieures.

L'argument économique est tout aussi clair. L'affinage d'un modèle de pointe — ajuster ses poids sur des données spécifiques à une tâche — est coûteux, lent, et peut provoquer un « oubli catastrophique » — une perte de performance sur les tâches générales —, en particulier avec un affinage complet sur de petits jeux de données. Le prompt engineering permet d'obtenir des gains comparables sur la plupart des tâches en quelques heures, et non en semaines, à un coût marginal quasi nul par itération. La documentation d'Anthropic note que de nombreuses équipes se tournent vers l'affinage avant d'avoir pleinement exploré ce que le prompt engineering peut accomplir — une erreur de séquençage qui coûte à la fois du temps et de l'argent.#Anthropic

Dès 2025, le prompt engineering est également devenu une discipline d'ingénierie en production. Les fonctionnalités IA en temps réel, les agents orientés client, les pipelines de classification automatisés — tous dépendent de prompts qui se comportent de manière prévisible sur une distribution d'entrées, et pas seulement sur un exemple soigneusement sélectionné. Le prompt engineering a fait son entrée dans le marché de l'emploi grand public, avec des postes dédiés apparaissant sur toutes les grandes plateformes de recrutement.


3. L'anatomie d'un prompt

La plupart des prompts sous-performants ne sont pas incorrects — ils sont incomplets. Comprendre les composants d'un prompt bien formé permet de voir immédiatement ce qui manque. Il existe six composants ; tous ne sont pas requis dans chaque prompt, mais chacun remplit une fonction distincte.

Directive
L'instruction principale — ce que vous voulez que le modèle fasse. ex. « Résume le contrat suivant en trois points. »
Rôle / Persona
L'identité du modèle pour cette tâche. ex. « Tu es un avocat spécialisé en contrats SaaS pour des clients enterprise. »
Contexte
Les informations de fond que le modèle n'a pas issues de l'entraînement. ex. le texte du contrat, le secteur du client, la juridiction applicable.
Exemples
Une ou plusieurs démonstrations de la correspondance entrée → sortie souhaitée. ex. un contrat type → un résumé en points correspondant.
Contraintes
Limites de portée, exclusions et seuils de qualité. ex. « Concentre-toi uniquement sur les clauses de paiement et de résiliation. Ne résume pas les dispositions générales. »
Format de sortie
La structure exacte et le type de la réponse attendue. ex. « Renvoie un objet JSON avec les clés : summary (string), risk_flags (tableau de strings), max_length (150 mots). »

Schulhoff et al. définissent cinq composants fondamentaux ; les Contraintes sont ajoutées ici comme sixième élément, reflétant des exigences de niveau production qui ne sont pas toujours couvertes par les taxonomies académiques.

Pour une tâche simple et ponctuelle, Directive + Contexte peuvent suffire. Pour un pipeline en production où la sortie est analysée par un autre système, les six composants sont généralement nécessaires. Le mode d'échec le plus fréquent dans les prompts de production est l'omission du format de sortie — ce qui laisse le modèle choisir une structure, qu'il changera à chaque exécution.

Règle pratique

Un prompt est complet lorsqu'un collègue attentif — ne voyant que le prompt et ignorant le cas d'usage visé — peut prédire à la fois ce que vous voulez et à quoi ressemble un résultat « satisfaisant ». S'il ne peut pas le faire, il manque quelque chose.


4. Les six techniques fondamentales

Schulhoff et al. (2024) ont répertorié 58 techniques de prompting distinctes dans la littérature.#ArXiv Six d'entre elles couvrent la majorité des cas d'usage en production et constituent la fondation sur laquelle toutes les autres s'appuient. Apprenez celles-ci en premier ; traitez tout le reste comme une extension.

Prompting zero-shot

La forme la plus simple : une directive et un contexte, sans exemples. Le modèle doit s'appuyer entièrement sur les schémas issus de ses données d'entraînement pour interpréter la tâche et y répondre.

Prompt zero-shot exemple
Classify the sentiment of the following customer review
    as Positive, Neutral, or Negative. Reply with only the label.

    Review: "The delivery was three days late and the packaging
    was damaged, but the product itself works exactly as described."

Fonctionne de manière fiable lorsque la tâche est bien définie, que l'espace de sortie est petit et sans ambiguïté, et que le modèle a vu des tâches similaires lors de l'entraînement.

Prompting few-shot

Brown et al. (2020) ont introduit l'apprentissage few-shot comme mécanisme principal de l'adaptation en contexte : en incluant des exemples de démonstration dans le prompt, le modèle apprend le schéma sans mettre à jour ses poids.#OpenAI Deux à cinq exemples bien choisis comblent généralement 60 à 80 % de l'écart entre un prompt zero-shot et un modèle affiné.

Prompt few-shot — avec 2 exemples de calibration exemple
Classify the sentiment of customer reviews.
    Return only: Positive / Neutral / Negative.

    Review: "Arrived two days early and exactly as pictured."
    Label: Positive

    Review: "Works fine, nothing special to report."
    Label: Neutral

    Review: "The delivery was three days late and the packaging
    was damaged, but the product itself works exactly as described."
    Label:

La qualité des exemples importe plus que leur quantité. Chaque exemple doit représenter la frontière de décision qui vous préoccupe — les cas que le modèle trouvera les plus difficiles en production.

Prompting par chaîne de pensée

Wei et al. (2022) ont démontré que le fait d'inciter les modèles à produire des étapes de raisonnement intermédiaires avant une réponse finale améliore les performances de 40 à 70 % sur les benchmarks de raisonnement.#DeepMind Chaque étape agit comme une vérification de cohérence interne au cours de la génération.

Instruction par chaîne de pensée exemple
Before classifying this review, reason through the following:

    1. What is the reviewer's primary complaint, if any?
    2. What is the reviewer's primary praise, if any?
    3. Which carries more weight given the reviewer's overall tone?

    Then output your final classification: Positive / Neutral / Negative.

    Review: "The delivery was three days late and the packaging
    was damaged, but the product itself works exactly as described."

Prompting par rôle et persona

L'attribution d'un rôle déplace la distribution a priori du modèle en activant le vocabulaire, le style épistémique et les critères de décision associés à ce domaine. Anthropic recommande la spécification de rôle comme technique principale dans la couche du system prompt.#Anthropic

Exemple de rôle bien spécifié
— Well-specified (activates domain knowledge)
    You are a senior contracts lawyer at a London-based firm,
    specialising in SaaS licensing agreements for enterprise clients.
    You review contracts through three lenses: liability exposure,
    IP ownership, and auto-renewal risk.

Spécification du format de sortie

La spécification du format est ce qui rend les prompts composables. Une spécification de format explicite doit définir : le conteneur externe (JSON, Markdown), les noms de champs et les contraintes de type.

Spécification de format JSON recommandé
Return a JSON object with exactly these fields:

      "summary":    string — 2-sentence overview
      "risk_flags": array of strings — specific concerns
      "auto_renew": boolean — true if auto-renewal
      "expires":    string — ISO 8601 format, or null

Chaînage de prompts

Les tâches complexes dépassent ce qu'un seul prompt peut accomplir de manière fiable. Le chaînage de prompts décompose la tâche en étapes séquentielles, où la sortie de chaque étape devient l'entrée de la suivante.

Chaîne d'analyse de contrat en trois étapes exemple
— Step 1: Extract
    Extract all clauses related to payment, termination,
    and auto-renewal. Return as JSON array.

    — Step 2: Analyse (feeds on Step 1 output)
    Given these clauses, identify the top 3 risks.

Le chaînage est également la fondation des architectures d'agents modernes. Ce que LangChainFramework populaire pour construire des applications alimentées par des LLM., CrewAIFramework pour orchestrer des agents IA autonomes jouant des rôles. et des frameworks similaires mettent en œuvre à grande échelle, c'est du chaînage de prompts avec accès à des outils et branchement conditionnel. Comprendre le chaînage comme patron de conception — avant de recourir à un framework — est essentiel pour construire des agents dont on peut déboguer les défaillances.


5. L'évolution de 2025 : l'ingénierie du contexte

En septembre 2025, Anthropic a publié un article technique arguant que le domaine entrait dans une nouvelle phase : l'ingénierie du contexteDiscipline d'orchestration de la mémoire et de l'état d'un LLM pour des workflows complexes.En savoir plus →.#Anthropic La distinction est importante et mérite d'être comprise avec précision.

Dimension Prompt engineering Ingénierie du contexte
Focus Rédiger des instructions efficaces Sélectionner tout ce qui entre dans la fenêtre de contexte
Portée Le texte du prompt System prompt + outils + mémoire + données récupérées + historique des messages
Cas d'usage Tâches mono-tour, classification, génération Agents multi-tours, tâches longue durée
Défi Quoi dire et comment le dire Quelles informations entrent dans la fenêtre, quand et en quelle quantité
Risque clé Ambiguïté, contraintes manquantes Context rot — dégradation des performances avec les contextes longs

Anthropic définit l'ingénierie du contexte comme « l'ensemble des stratégies permettant de sélectionner et de maintenir l'ensemble optimal de tokens (informations) lors de l'inférence d'un LLM, y compris toutes les autres informations susceptibles d'y figurer en dehors des prompts. » Des études utilisant le benchmarking needle-in-a-haystack révèlent que les performances du modèle se dégradent à mesure que la longueur du contexte augmente — un phénomène qu'ils nomment context rot.#Anthropic

La conclusion pratique pour un praticien en 2026 : le prompt engineering est la fondation. L'ingénierie du contexte est la couche suivante, pertinente lorsque vous construisez des agents ou des systèmes multi-tours. On ne peut pas pratiquer l'ingénierie du contexte sans d'abord maîtriser le prompt engineering. Cette série couvre les deux — le prompt engineering d'abord, l'ingénierie du contexte dans une leçon ultérieure.

CIO Magazine, oct. 2025

« Les prompts définissent l'intention ; le contexte fournit la conscience situationnelle. Dans les applications enterprise réelles, le retour sur investissement vient de l'ingénierie des informations, de la mémoire et des outils qui entrent dans le budget d'attention réduit du modèle — à chaque étape. » — Adnan Masood, Chief AI Architect, UST.#CIO


6. Le bon état d'esprit

L'erreur la plus courante en prompt engineering est de le traiter comme un exercice créatif — chercher la formulation parfaite par intuition et talent. Les praticiens qui produisent des prompts constamment fiables le traitent comme un processus scientifique : hypothèse, mesure, itération.

Trois habitudes distinguent les praticiens systématiques de ceux qui s'en remettent à la chance :

  • Rédigez un jeu de tests avant d'écrire le prompt. Définissez 8 à 15 entrées représentatives avec leurs sorties attendues. Sans vérité terrain, chaque itération est évaluée sur un échantillon d'un — ce n'est pas de l'évaluation, c'est une anecdote.
  • Modifiez une variable à la fois. Si vous changez le rôle et le format dans la même itération et que les performances s'améliorent, vous n'avez rien appris sur la raison. Traitez chaque composant du prompt comme une variable indépendante.
  • Mesurez sur l'intégralité du jeu de tests. Un changement qui améliore trois cas mais en fait régresser quatre n'est pas une amélioration. Évaluez de manière globale. Les prompts de production échouent à la queue de la distribution, pas en son centre.

Cette approche peut être partiellement automatisée. Zhou et al. (2022) ont démontré qu'un modèle de langage peut être utilisé pour générer et évaluer des prompts candidats, en sélectionnant ceux qui maximisent les performances sur un ensemble de validation — leur système Automatic Prompt Engineer (APE) a surpassé les prompts rédigés par des humains sur plusieurs benchmarks.#APE L'approche automatisée confirme le même principe : l'évaluation sur un ensemble, et non sur un seul exemple, est le seul signal qui compte.

« Considérez Claude comme un stagiaire à son premier jour de travail : fournissez des instructions claires et explicites avec tous les détails nécessaires. Gardez à l'esprit que le prompt engineering est une science, et abordez-le comme un scientifique : testez vos prompts et itérez souvent. »#Anthropic

Une dernière observation : le paysage du prompting évolue à chaque génération de modèles. Une technique qui améliore considérablement les sorties d'un modèle peut être redondante ou contre-productive sur le suivant. Les modèles de raisonnement gèrent la logique étape par étape en interne ; les fenêtres de contexte plus longues déplacent le goulot d'étranglement de la compression vers la gestion de l'attention ; les API d'utilisation d'outils changent la façon dont les spécifications de format se traduisent en sorties structurées. Ce qui reste stable, c'est le modèle mental — comprendre que vous façonnez une distribution de probabilités, et non que vous émettez des commandes vers une base de données.

La prochaine leçon de cette série applique les six techniques à la tâche où le prompt engineering est le plus déterminant en 2026 : construire le system prompt d'un agent en production.

Questions fréquemment posées

Quelle est la différence entre le Prompt Engineering et une simple discussion avec une IA ?

Le Prompt Engineering est une discipline d'ingénierie systématique axée sur l'optimisation, la fiabilité et la précision. Il utilise des techniques comme la Chaîne de Pensée et le few-shot prompting pour guider les distributions de probabilité de tokens, contrairement à une discussion informelle.

Le Prompt Engineering va-t-il devenir obsolète avec l'intelligence croissante des modèles ?

Non. Il évolue vers l'« Ingénierie du Contexte ». Plus les modèles deviennent capables, plus la gestion de fenêtres de contexte massives et l'orchestration multi-agents exigent une conception spécialisée.

Qu'est-ce que la technique de la « Chaîne de Pensée » (Chain-of-Thought) ?

Chaîne de penséeTechnique forçant l'IA à "penser à voix haute" étape par étape pour une meilleure logique. (CoT) est une technique de prompting qui incite le modèle à générer des étapes de raisonnement intermédiaires avant de donner une réponse finale. Cela améliore considérablement les performances sur les tâches logiques et mathématiques complexes.

Le Prompt Engineering est-il pertinent pour tous les LLM ?

Oui, bien que la syntaxe spécifique puisse varier. Les principes fondamentaux d'influence — clarté, contexte et contraintes — s'appliquent à tous les modèles basés sur les transformers, de GPT-4 à Claude et Llama 3.

Comment mesurer l'efficacité de mes prompts ?

La mesure exige de passer des tests anecdotiques à une évaluation systématique. Utilisez un "Golden Dataset" (un ensemble d'entrées représentatives avec des sorties attendues connues) et évaluez les performances via des métriques comme la précision, la pertinence et la cohérence du format sur plusieurs itérations.


Références

  1. #ArXiv Schulhoff, S., et al. (2024). The Prompt Report: A Systematic Survey of Prompting Techniques. Co-rédigé avec OpenAI, Stanford, Microsoft, Princeton, Google et 26 autres institutions. Dernière mise à jour : fév. 2025. arXiv:2406.06608
  2. #OpenAI Brown, T., et al. (2020). Language Models are Few-Shot Learners. Présentation de GPT-3 et de l'apprentissage en contexte. NeurIPS 2020. arXiv:2005.14165
  3. #Anthropic Anthropic. (2025). Prompting Best Practices — Claude API Documentation. Couvre Claude Opus 4.6, Sonnet 4.6 et Haiku 4.5. docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/claude-4-best-practices
  4. #CIO Sayer, P. (2025, 31 oct.). Context engineering: Improving AI by moving beyond the prompt. CIO Magazine. cio.com/article/4080592
  5. #DeepMind Wei, J., et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. NeurIPS 2022. arXiv:2201.11903
  6. #Anthropic Anthropic Engineering. (2025, 29 sep.). Effective Context Engineering for AI Agents. Présente l'ingénierie du contexte comme l'évolution du prompt engineering ; définit le context rot. anthropic.com/engineering/effective-context-engineering-for-ai-agents
  7. #APE Zhou, Y., et al. (2022). Large Language Models Are Human-Level Prompt Engineers (APE). ICLR 2023. arXiv:2211.01910
  8. #OpenAI OpenAI. (2024). Prompt Engineering Guide. Meilleures pratiques officielles pour les modèles GPT et les modèles de raisonnement. platform.openai.com/docs/guides/prompt-engineering
  9. #Elastic Elastic Search Labs. (2026, 20 jan.). Context Engineering vs. Prompt Engineering. Comparaison détaillée avec des considérations de production. elastic.co/search-labs/blog/context-engineering-vs-prompt-engineering