Les LLM sont relativement récents, le premier modèle largement adopté, GPT-3, ayant été mis à la disposition du public via ChatGPT le 30 novembre 2022. Il compte désormais plus de 100 millions d’utilisateurs actifs par mois. Malgré leur accessibilité, beaucoup de gens ne les comprennent pas, et encore moins savent les utiliser efficacement.
Ce que vous entrez a un effet significatif sur ce que vous obtenez
Les LLM sont des outils puissants composés de vastes réseaux neuronaux et de modèles basés sur des probabilités. Bien qu’ils puissent sembler magiques, ils prédisent en réalité le mot le plus probable à partir de modèles basés sur des données. Il s’agit d’un concept très important, fondamental pour explorer ce que l’on appelle aujourd’hui le « prompt engineering ».
Sommaire
Consultez Nos Experts au 09 53 32 33 33
ou par Mail>>
Pourquoi le prompt engineering ?
Les grands modèles linguistiques (LLM) actuels peuvent accomplir des tâches miraculeuses avec une grande précision. Ils peuvent résumer des textes, écrire du code, générer des images, et les plus récents et les plus performants peuvent même se connecter à des outils externes tels que Google Drive et Notion.
Le problème est que les LLM se perdent parfois, ou plutôt qu’ils ne savent pas comment accomplir une tâche :
- Peut-être n’avez-vous pas été assez précis
- ou n’avez-vous pas donné d’instructions logiques.
- Il est même possible que vous n’ayez pas fourni d’instructions au LLM.
Les LLM peuvent toujours vous donner des résultats corrects sans instructions détaillées, mais si vous voulez une excellente réponse, un peu d’effort en amont fait toute la différence.
Rédiger de bons prompts
Commençons par les éléments de base d’une conversation entre vous et un modèle tel que ChatGPT ou Google Gemini. Ces modèles disposent des éléments suivants pour fonctionner lorsque vous envoyez un message :
- L’historique des conversations précédentes
- La plupart des modèles actuels utilisent l’historique de vos conversations précédentes, certains utilisant même tout votre historique.
- Les informations que vous fournissez
- Celles-ci peuvent prendre différentes formes, selon ce que votre modèle prend en charge. Texte, images, fichiers, etc.
- La tâche que vous confiez au modèle
- C’est ce que vous voulez que le modèle fasse
Contexte
Avant tout, le plus important est de fournir à votre LLM un contenu pertinent sur lequel travailler. Si vous essayez de créer un excellent marketing de marque, par exemple, donnez-lui une description de votre client idéal, les prix de vos produits, les couleurs de votre marque et la mission de votre entreprise.
Consultez Nos Experts au 09 53 32 33 33
ou par Mail>>
Si vous essayez de créer un excellent marketing de marque, par exemple, donnez-lui une description de votre client idéal, les prix de vos produits, les couleurs de votre marque et la mission de votre entreprise.
De même, si vous êtes un développeur qui essaie de déboguer un morceau de code défectueux, donnez au modèle non seulement la fonction sur laquelle vous travaillez, mais aussi toutes les fonctions qui sont appelées à partir de cet extrait de code. Indiquez au modèle les bibliothèques que vous utilisez et leur version.
Plus votre modèle dispose d’informations, meilleurs seront les résultats.
Questions
Le deuxième élément le plus important pour obtenir d’excellents résultats n’est pas les questions que vous posez, mais plutôt la manière dont vous les posez. Pour démontrer l’impact de la formulation sur la qualité du modèle, voici quelques comparaisons directes entre des prompts mal structurés et des prompts bien structurés :
Mauvaise question : Trouve-moi les actions les plus performantes et effectue une analyse.
Consultez Nos Experts au 09 53 32 33 33
ou par Mail>>
Bonne question : Je veux que tu joues le rôle d’un analyste financier. Rends-toi sur Yahoo Finance et trouve les 10 actions les plus performantes en termes de capitalisation boursière. Une fois que tu as établi une liste, je veux que tu te rendes sur marketwatch.com et que tu trouves des informations pertinentes sur chacune d’entre elles. Fournis-moi une liste, classée par capitalisation boursière, avec le nom de l’action, son cours et le sentiment général du marché.
Mauvaise question : Comment cuisiner du poulet ?
Bonne question : Je prépare le dîner et j’aimerais cuisiner du poulet. Je prévois de le faire griller au barbecue avec des légumes. Le poulet est mariné et prêt à cuire, quelles étapes dois-je suivre pour le cuisiner ?
Mauvaise question : Rédigez-moi un article de blog sur le prompt engineering.
Bonne question : Je rédige un blog sur l’utilisation efficace des LLM avec le prompt engineering. Je souhaite que cet article soit accessible aux débutants, rédigé dans un style conversationnel et qu’il inclue des exemples concrets. Commencez par une brève introduction, puis expliquez ce que sont les LLMs et pourquoi les prompts sont importants.
Consultez Nos Experts au 09 53 32 33 33
ou par Mail>>
Comme vous pouvez le constater, les bonnes questions sont beaucoup plus descriptives, fournissent plus de contexte et aident globalement le LLM à comprendre pleinement ce que vous essayez d’accomplir. Je vous encourage à examiner la différence par vous-même en collant ces exemples dans un LLM de votre choix.
Stratégies pour obtenir des résultats exceptionnels
Passons en revue quelques stratégies bien connues pour obtenir des résultats efficaces. Celles-ci sont en constante évolution, mais si vous comprenez les bases et pourquoi elles fonctionnent, vous serez beaucoup plus à même d’utiliser les LLM que la plupart des autres personnes.
Attribution des rôles
L’attribution des rôles est illustrée dans l’un de nos bons exemples de questions ci-dessus :
Je veux que vous jouiez le rôle d'un analyste financier.
Dans ce cas, nous demandons au LLM de se comporter comme un analyste financier. Cela permet au LLM de mieux comprendre le contexte dans lequel vous souhaitez que la tâche soit effectuée. Lorsqu’il détermine quelles informations il doit utiliser à partir de sa formation, il effectue sa recherche en gardant à l’esprit les mots « analyste financier ».
L’attribution de rôles vous permet d’exploiter la capacité du LLM à agir en tant que spécialiste, en fournissant des réponses ciblées et de niveau expert qui contribuent à réduire les réponses décousues et génériques.
Consultez Nos Experts au 09 53 32 33 33
ou par Mail>>
One-Shot and Multi-Shot Prompting
Les modèles, comme les personnes, fonctionnent mieux lorsqu’on leur donne un exemple. Dans ce cas, nous donnons au modèle un exemple de ce que nous voulons :
Q : Résumez ce qui suit : Steven Paul Jobs (24 février 1955 - 5 octobre 2011) était un homme d'affaires, inventeur et investisseur américain, surtout connu pour avoir cofondé la société technologique Apple Inc. Jobs était également le fondateur de NeXT et président et actionnaire majoritaire de Pixar. Il a été un pionnier de la révolution de l'ordinateur personnel dans les années 1970 et 1980, avec son premier partenaire commercial et cofondateur d'Apple, Steve Wozniak.
A : Steven Jobs était un homme d'affaires américain connu pour avoir cofondé Apple avec Steve Wozniak. Il a également fondé NeXT et a été président de Pixar.
Q : Résumez ce qui suit : Elon Reeve Musk (/ˈiːlɒn/ EE-lon ; né le 28 juin 1971) est un homme d'affaires. Il est connu pour diriger Tesla, SpaceX, X (anciennement Twitter) et le Department of Government Efficiency (DOGE). Musk est considéré comme l'homme le plus riche du monde depuis 2021 ; en mai 2025, Forbes estime sa fortune à 424,7 milliards de dollars américains.
A :
En conséquence, nous pouvons constater que le modèle est non seulement plus performant que les instructions vagues, mais qu’il offre également une certaine rigidité dans ses réponses, qui ressemblent à celles que nous avons fournies dans notre premier exemple.
Cela fonctionne grâce au fonctionnement des transformateurs génératifs pré-entraînés (GPT). En termes simples, les GPT sont un modèle de prédiction du prochain mot ou ensemble de caractères susceptible d’apparaître dans une chaîne. Il est important de comprendre qu’en fournissant un exemple, le modèle est mieux à même de prédire le mot suivant grâce au contexte qu’il a reçu.
Si nous donnons plusieurs exemples, on parle alors de « multi-shot prompting ». Le multi-shot prompting est particulièrement utile dans les scénarios où il y a des classifications et où vous souhaitez donner un exemple pour chaque type :
Q : Chien
A : Animal
Q : Rose
A : Plante
Q : Diamant
A : Minéral
Q : Aigle
A : Animal
Q : Chêne
A : Plante
Q : Quartz
R : Minéral
Q : Saumon
R ?
En utilisant cette technique, vous pouvez apprendre au modèle à associer chacun de ces mots à leur classification dans un langage concis et naturel. Comme les mots « chien », « aigle » et « saumon » sont plus proches les uns des autres que « diamant » et « chêne », le modèle peut déduire que le saumon est un animal et non un minéral ou une plante.
Chaîne de pensée – CoT Chain of Thought
Plus la tâche est lourde en termes de calcul, plus les modèles sont confus. C’est pourquoi nous devons lutter contre les hallucinations et les fausses prédictions. Nous avons découvert une façon d’y parvenir grâce à la chaîne de pensée (CoT).
La chaîne de pensée est exactement ce que son nom indique. Il s’agit d’un processus étape par étape que nous utilisons pour expliquer à un LLM comment faire les choses. La clé de la CoT réside dans le fait que nous verbalisons essentiellement la petite voix de la raison qui résonne dans notre tête et que nous utilisons généralement pour justifier nos calculs mathématiques :
Q : Sally a 10 pommes et en donne la moitié à John. John donne ensuite 3 pommes à Bob, puis Bob demande 2 pommes supplémentaires à Sally. Combien en a chacun d'entre eux ?
R :
1. Nous savons que Sally a 10 pommes.
2. Sally donne la moitié de ses pommes à John. 10/2 = 5. Sally a 5 pommes. 0 + 5 = . John a 5 pommes.
3. John donne 3 pommes à Bob. 5-3=2. John a 2 pommes. 0+3=3. Bob a 3 pommes. 5+0=5. Sally a 5 pommes.
4. Bob demande 2 pommes supplémentaires à Sally. 5-2=3. Sally a 3 pommes. 3+2=5. Bob a 5 pommes. 2+0=2. John a 2 pommes.
Q : Robert vend des poissons rouges dans son magasin. Il a 20 poissons rouges à vendre. Timmy entre dans le magasin pour acheter un quart du stock, puis Billy achète un tiers du stock restant. Emma entre à son tour pour acheter deux poissons rouges. À la fin de la journée, Timmy se rend compte qu'il en a acheté deux de trop et les rend à Robert. Combien de poissons rouges chaque personne a-t-elle ?
R ?
Lorsque vous exécutez ce prompt, vous pouvez voir que le LLM suit une série d’étapes et garde une trace des calculs mathématiques derrière chaque transfert de poissons rouges. En gardant une trace des calculs et en mappant nos phrases à des problèmes mathématiques, nous aidons le LLM à comprendre comment il peut suivre des problèmes complexes exprimés par des mots.
Que se passe-t-il lorsque nous ne rédigeons pas de bonnes questions ?
Que se passe-t-il lorsque nous ne rédigeons pas de bonnes questions ? Vous obtiendrez généralement des résultats moyens, mais il y a aussi de fortes chances d’obtenir des résultats trompeurs ou complètement inutiles.
Lorsque vous laissez des lacunes dans votre contexte, par exemple en ne fournissant pas d’étapes ou même d’exemples, le LLM doit se débrouiller seul, en s’appuyant sur les données précédemment apprises. Bien que les LLM soient entraînés sur une multitude de données, il y a de fortes chances que les données qu’ils trouvent et décident d’utiliser ne soient pas celles que vous souhaitez que le modèle utilise.
Avec les conjectures supplémentaires liées au remplissage du contexte, cela conduit souvent les LLM à « halluciner » et à partir dans leur propre tangente d’exemples et d’instructions inventés. Les techniques ci-dessus permettent d’atténuer ce phénomène.
Outre ces hallucinations possibles, les réponses ne sont tout simplement pas adaptées si vous oubliez de fournir un contexte. Les modèles ne savent pas comment vous souhaitez qu’ils formulent une réponse sans leur donner un rôle ou une série d’exemples.
En fournissant un contenu pertinent au modèle, vous pouvez obtenir des résultats qui correspondent mieux à la réponse attendue, ce qui réduit le nombre d’itérations et permet même d’aligner le modèle sur la personnalité ou le ton souhaité.
Conseils personnels
Maintenant que nous avons couvert les bases, voici mes tactiques personnelles préférées pour affiner les résultats des LLM.
Utilisez le bon modèle
Parmi tous les conseils que je peux donner, le plus important est d’utiliser le bon modèle. Qu’est-ce que cela signifie ? Eh bien, chaque LLM est entraîné sur un ensemble de données spécifique. Bien qu’il existe un large chevauchement entre les données d’entraînement des différents modèles, elles ne sont pas identiques. GPT-4, Gemini et LLaMa 3 ont tous des ensembles d’entraînement légèrement différents avec des algorithmes de prédiction légèrement différents. Cela signifie que là où certains modèles ont des lacunes, d’autres peuvent exceller.
Certains modèles, tels que Claude d’Anthropic, sont même entraînés pour être spécifiquement plus performants dans des tâches telles que la programmation.
Lorsque vous choisissez un modèle, trouvez-en un qui excelle dans la catégorie spécifique dont vous avez besoin. Le GPT-4o d’OpenAI est un excellent couteau suisse, mais si vous voulez obtenir des résultats optimaux, il est indispensable de sélectionner le modèle le mieux adapté à la tâche à accomplir.
Demandez plusieurs versions
Demander à votre modèle de vous fournir plusieurs versions est un moyen infaillible d’obtenir de meilleurs résultats. Je procède généralement ainsi pour réfléchir à des titres de présentation, des articles de blog ou tout autre sujet pour lequel je pense qu’il existe plusieurs façons de mener à bien la tâche et que je ne sais pas laquelle choisir. Demandez à votre LLM de vous donner 10 exemples.
J'essaie de créer un projet qui permet aux utilisateurs de connaître leur position actuelle, de se connecter à leurs options de transport local et de planifier un itinéraire optimal pour se rendre au travail. Je cherche un nom élégant et accrocheur pour cette application. Idéalement, comme elle sera utilisée sur des appareils mobiles, le nom devrait pouvoir être représenté par un logo.
À partir de là, vous pouvez continuer à discuter et à poser des questions pour affiner votre recherche jusqu’à obtenir une réponse optimale. Des commentaires tels que « J’aime beaucoup les 1 et 3, pouvons-nous aller dans cette direction ? » ou « Donnez-moi des options plus ludiques » peuvent vous aider à trouver des idées qui vous plaisent.
Boucles de clarification
J’utilise fréquemment une technique que j’appelle « boucles de clarification », qui consiste à demander au LLM de clarifier les détails dont il a besoin. Bien que cela semble évident, cette stratégie est très peu utilisée.
Elle est particulièrement utile pour développer des idées complexes, telles que l’architecture d’un code ou des plans marketing. Prenons l’exemple d’un message concernant le texte d’une page d’accueil :
J'aime beaucoup, mais cela pourrait être amélioré. N'hésitez pas à poser des questions pour m'aider à rédiger le texte de cette page d'accueil. N'oubliez pas que nous voulons faire appel à la créativité et à l'autonomie des développeurs.
Ici, nous voyons que l’utilisateur demande au modèle de poser des questions. Ce dernier répondra alors par une série de questions pertinentes auxquelles vous devrez répondre, afin de lui fournir plus de contexte. Ainsi, au tour suivant, il pourra générer une réponse complète.
Contexte auto-induit
Parfois, nous voulons rédiger d’excellentes réponses, mais nous ne disposons pas de toutes les informations nécessaires pour alimenter le modèle, ou nous n’avons tout simplement pas envie de les taper. Avec le « contexte auto-induit », nous utilisons le modèle pour générer son propre contexte spécifique.
Comme les modèles ont une mémoire de l’historique des conversations, nous pouvons intelligemment configurer une série de questions qui nous aideront à obtenir une meilleure réponse.
Imaginons que nous voulons élaborer un plan marketing exceptionnel pour le prochain trimestre. Nous pouvons poser les questions suivantes, une par une, au LLM :
Comment les organisations et les entreprises élaborent-elles leurs plans marketing ?
Quels sont les aspects clés des plans marketing qui distinguent les meilleurs des autres ?
Quels sont les indicateurs généralement utilisés dans les plans marketing pour suivre les performances ?
Quels sont les objectifs réalisables en un trimestre ?
Élaborez-moi un plan marketing pour <insérez ici le nom de l'entreprise>. Nous <proposition de valeur>. Nos clients sont généralement <profil des clients>. Nous voulons les séduire en jouant sur <émotions>.
En procédant ainsi, votre modèle va régurgiter une série d’informations qu’il comprend et connaît sur le marketing, faisant progressivement émerger une multitude d’informations en rapport avec le contexte de votre conversation. À mesure que ce contexte se construit, le modèle devient capable de mieux prédire le mot suivant, ce qui permet d’obtenir des réponses pertinentes et de grande qualité.
Vous venez donc de fournir au modèle une multitude de contexte pour qu’il soit plus performant.
Ajouter une touche humaine à l’écriture
ChatGPT a une façon particulière d’écrire… généralement avec beaucoup d’émojis. En réalité, même aujourd’hui, de nombreuses personnes sont capables de reconnaître le langage généré par l’IA dans les articles, les blogs et les applications de messagerie. Si vous souhaitez aider ChatGPT à paraître plus humain, et plus précisément à vous ressembler davantage, cette astuce est faite pour vous.
Alimentez-le avec vos anciens écrits. Prenez un ancien essai en anglais, des conversations que vous avez envoyées à des amis ou tout autre texte substantiel et fournissez-le au modèle. Cela fonctionne avec n’importe quel type d’écriture.
Conseils d’auto-apprentissage
L’une des capacités les plus puissantes des LLM aujourd’hui est leur capacité à résumer, expliquer et développer une multitude de sujets. Nous pouvons utiliser cette capacité pour nous former à de nombreux sujets différents, il suffit de savoir comment extraire les informations. Utiliser des éléments tels que le contexte auto-induit aide beaucoup, mais vous pouvez également demander aux modèles d’expliquer les choses en termes simples, comme le principe de Pareto, et bien plus encore.
Lire et rechercher des informations, c’est très bien, mais les véritables capacités d’apprentissage résident dans la capacité à s’auto-évaluer et à participer à un rappel actif. En demandant aux modèles de vous interroger sur un sujet ou sur des fichiers tels que vos notes de cours, il devient incroyablement facile de commencer à étudier et d’améliorer votre capacité à comprendre la matière. Je vous recommande d’essayer toutes les stratégies que nous avons abordées afin d’y parvenir.