top of page

Le Prompting 

Utiliser correctement un grand modèle de langage (LLM) ne consiste pas simplement à lui poser une question, mais à dialoguer avec lui de manière structurée, claire et méthodique. Comme tout outil puissant, son efficacité dépend autant de sa conception que de la manière dont on s’en sert. Le cœur de cette utilisation repose sur ce qu’on appelle le prompting, c’est-à-dire l’art de formuler la consigne qui oriente la réponse du modèle.

Un bon prompt peut significativement réduire le taux d'hallucinations, mais il doit d’abord être concret et contextualisé. Plus la consigne est précise, plus la réponse sera pertinente.

 

Dire « explique-moi l’intelligence artificielle » donne une réponse générale, tandis que « explique-moi l’intelligence artificielle en 200 mots, pour un public de lycéens, en insistant sur les aspects éthiques » produit une sortie bien plus ciblée.

 

Il faut dire au modèle ce qu’il doit faire, pour qui, et comment, comme on le ferait avec un collègue humain. Les formulations vagues ou ambigües laissent le modèle extrapoler, et donc risquent de générer des erreurs ou des approximations.

Autre principe fondamental: le rôle et le format. Les modèles répondent mieux lorsqu’on leur attribue un rôle explicite (ex. : tu es chercheur en intelligence artificielle, tu es médecin du travail, tu es juriste spécialisé en droit du numérique). Cela permet au modèle de cadrer sa tonalité, son vocabulaire et la structure de sa réponse.

 

Il est tout aussi important de préciser la forme attendue: une synthèse, une liste, un texte argumenté, ou encore une réponse au format Vancouver. Ce cadrage renforce la cohérence et limite les dérives.

Ensuite vient la progressivité. Plutôt que de tout demander d’un bloc, il est souvent plus efficace de travailler par étapes: poser une première question générale, puis affiner. Cela aide le modèle à mieux raisonner et réduit le risque d’hallucination. Dans les tâches complexes (analyse juridique, synthèse scientifique, diagnostic organisationnel...), il est pertinent de demander au modèle de montrer son raisonnement étape par étape, ce qui permet de vérifier la logique du cheminement avant la conclusion.

Les bonnes pratiques incluent aussi la validation humaine et la vérification croisée. Un LLM ne garantit pas la vérité ; il offre une hypothèse statistiquement plausible. Il faut donc systématiquement relire, corriger, et confronter les réponses à des sources fiables. Lorsqu’on manipule des données sensibles, il est impératif de ne jamais inclure d’informations confidentielles dans le prompt, surtout sur des interfaces en ligne, car les échanges peuvent être temporairement enregistrés sur des serveurs externes. Pour les contextes professionnels ou réglementés, l’usage d’un LLM hébergé localement ou sur un cloud souverain est préférable.

Enfin, pour un usage durable, il est utile d’adopter une hygiène du prompting:


– documenter les prompts efficaces dans un répertoire partagé ;
– tester régulièrement les performances sur des cas récurrents ;
– mesurer les écarts entre les réponses du modèle et les standards humains ;
– ajuster les formulations au fil du temps.

Bien utilisé, un LLM devient un véritable partenaire. Il permet de gagner du temps, de stimuler la créativité et d’améliorer la qualité des productions, à condition d’en comprendre les limites et de garder l’humain au centre du processus. L’enjeu n’est pas seulement de “parler à la machine”, mais de penser avec elle, sans se laisser penser par elle.

Références

  1. Reynolds L, McDonell K. Prompt Programming for Large Language Models: Beyond the Few Shot Paradigm: https://arxiv.org/abs/2102.07350

  2. Anthropic. Claude Prompting Guide. Anthropic; 2025 . Available from: https://docs.anthropic.com/claude/docs/prompt-engineering

  3. Wei J, Wang X, Schuurmans D, Bosma M, Ichter B, Xia F, et al. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv; 2023. Disponible sur: http://arxiv.org/abs/2201.11903 

  4. Xu N, Ma X. DecoPrompt : Decoding Prompts Reduces Hallucinations when Large Language Models Meet False Premises . arXiv; 2025. Disponible sur: http://arxiv.org/abs/2411.07457

  5. Chen B, Zhang Z, Langrené N, Zhu S. Unleashing the potential of prompt engineering for large language models. Patterns. Mai 2025;6(6):101260.

  6. White J, Fu Q, Hays S, Sandborn M, Olea C, Gilbert H, et al. A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT. arXiv; 2023. Disponible sur: http://arxiv.org/abs/2302.11382

bottom of page