Le prompt engineering, clé de l’IA générative en entreprise

Fini de jouer ! Pour utiliser l’IA générative dans un contexte professionnel, l’acquisition d’une nouvelle compétence s’impose : l’ingénierie de la commande textuelle de ChatGPT et consorts, le « prompt ». Si le langage est humain, il faut tout de même savoir parler aux machines pour les exploiter.

Réservé aux abonnés
Lighton intro
La start-up française LightOn a lancé en mars 2023 Paradigm, une plateforme d’IA générative destinée aux entreprises. Elle leur promet un contrôle total de leurs données.

Cest l’« emploi d’avenir », selon le Forum économique mondial, qui, en mai, l’a mis en tête des métiers du futur : « prompt engineer ». Pour d’autres, il faut plutôt parler d’une compétence que chaque métier est voué à intégrer : le « prompt engineering ». Son but ? Tirer le meilleur des grands modèles de langage (LLM), tel celui au cœur de ChatGPT, via la maîtrise des commandes textuelles – les fameux « prompts » – qui leur sont fournies en entrée. Cela suppose tout d’abord d’éviter le pire, tant les LLM, aussi impressionnants soient-ils, sont par construction susceptibles de faire des confusions, de radoter ou d’halluciner.

« En entreprise, on ne veut pas que le LLM aille dans tous les sens et crache des données non pertinentes au cas d’usage, voire de fausses informations ou des données sensibles ou confidentielles », résume Jean-Charles Vasnier, le responsable de l’offre de solutions de Nvidia. « L’ambiguïté est le pire ennemi du prompt engineer », souligne Cameron R. Wolfe, directeur de l’IA à Rebuy Engine, dans sa newsletter Deep (Learning) Focus. Un prompt grammaticalement correct et le plus simple possible dans sa formulation – on préférera par exemple la forme positive à la forme négative – s’impose donc.

Ce principe essentiel en tête, le prompt engineer en herbe peut commencer à s’essayer aux techniques de prompt engineering, qui permettent d’optimiser les réponses. Elles se multiplient et commencent – empiriquement – à faire leurs preuves.

Le « few-shot prompting » est l’une des techniques de base. Il s’agit, au lieu de simplement poser une question au modèle (le « zero-shot prompting »), d’accompagner cette question d’exemples, où la réponse est fournie par l’humain :

Image d'illustration de l'article
Prompt 1 Prompt 1

D’après une étude d’OpenAI de 2020, les LLM obtiennent un score 20 % meilleur au benchmark SuperGlue avec le few-shot prompting par rapport au zero-shot prompting. Si une grande variété d’exemples améliore les performances, il n’est pas possible de les multiplier à l’envi car les LLM ne prennent en compte qu’une quantité limitée de texte (leur fenêtre de contexte est limitée à quelques milliers de mots en général) parmi l’ensemble formé par la réponse, le prompt et l’historique de conversation.

Une autre technique simple mais efficace est le « role prompting ». Elle consiste à placer le LLM dans un rôle avant de lui poser une question ou de lui demander quelque chose. La littérature scientifique a montré qu’elle permettait d’améliorer les réponses du modèle, notamment dans des domaines techniques tels que l’arithmétique.

Image d'illustration de l'article
Prompt 2 Prompt 2

Comme pour le few-shot prompting, cela s’explique par le fait qu’assigner un rôle « offre au modèle davantage de contexte, ce qui lui permet de mieux comprendre la question », explique le site LearnPrompting.org.

Utiliser le chain-of-thought prompting pour affiner les résultats

Ces deux techniques se révèlent efficaces pour des cas simples. Mais dès qu’il s’agit de requêtes plus complexes, le role prompting montre ses limites et le few-shot prompting demanderait trop de texte pour améliorer suffisamment les résultats. L’exemple ci-dessous montre ainsi une réponse erronée :

Image d'illustration de l'article
Prompt 3 Prompt 3

C’est le moment de s’essayer à une approche appelée « l’instruction prompting », consistant à décomposer un problème complexe en sous-problèmes plus simples. Le « chain-of-thought (CoT) prompting », très étudié actuellement, relève de cette approche en faisant procéder le LLM par étapes. Ce qui peut être obtenu en détaillant le raisonnement amenant à une réponse fournie en exemple :

Image d'illustration de l'article
Prompt 4 Prompt 4

Les principaux types de CoT prompting

  • Le « zero-shot CoT » Il s’agit simplement de demander au modèle de « penser étape par étape ».
  • Le « self-consistency prompting » Il consiste à demander au modèle de générer plusieurs types de raisonnements et de déduire la réponse la plus souvent donnée.
  • Le « least-to-most prompting » Il s’agit de demander au modèle de ne résoudre qu’un sous-problème dans le premier prompt, puis d’utiliser le résultat pour demander de résoudre un deuxième problème dans un deuxième prompt, et ainsi de suite.
  • Le « skeleton-of-thought (SoT) prompting » Il s’agit de demander au modèle de résoudre un problème, mais aussi de donner la structure du raisonnement, pour ensuite lui demander d’élaborer sur chaque point.

De nombreuses autres techniques de prompting avancées existent (« knowledge generation prompting », « retrieval augmented generation », « directional stimulus prompting »…), ainsi que des approches combinant plusieurs techniques. Le prompt engineering est un domaine de compétence foncièrement empirique qui évolue très rapidement avec la multitude de personnes qui travaillent dessus. Et qui partagent leurs expériences : rendez-vous en ligne pour suivre l’exploration du langage des machines.

Comment se mettre au prompt engineering en trois étapes 

1. Se former

Les sites de formation au prompt engineering poussent comme des champignons. L’un des plus cités est le site LearnPrompting.org, une plateforme gratuite créée en 2022 par Sander Schulhoff, lorsqu’il était en quatrième année d’informatique à l’université du Maryland. « J’ai développé ce projet dans le cadre d’un cours d’anglais, dans lequel nous devions écrire un guide sur un domaine d’intérêt », glisse-t-il. Rapidement, le site est devenu une référence pour ceux qui veulent expérimenter les LLM. La plateforme offre un large panel d’explications et d’exemples sur le prompt engineering, les usages que l’on peut en faire et les limites et les risques à utiliser des modèles de langages – le tout, soutenu par les plus grands noms de l’IA générative, comme OpenAI. Mention spéciale au code couleur indiquant le niveau de difficulté de chaque entrée. Le certificat est encore dans les cartons. Du côté des formations en français, l’offre est maigre. La plateforme Udemy en propose une de 4 h 30, certes basique, mais de qualité, pour un peu moins de 20 euros.

Pour aller plus loin :

  • LearnPrompt.org
  • Prompt Engineering Guide
  • Prompt Engineering Institute
  • PromptStacks

2. Se procurer des prompts

Connaître quelques approches pour améliorer ses prompts, c’est bien. Mais quand on part de zéro, c’est encore mieux de pouvoir se faire la main sur des prompts prêts à l’emploi. Ces prompts sur étagère, on les trouve sur des places de marché de prompts. Celles-ci proposent des bibliothèques de prompts parfois gratuits, souvent payants, et permettent de soumettre, ou vendre, ses propres prompts. AIRPM a particulièrement attiré notre attention, car cet outil s’accompagne d’une extension gratuite pour le navigateur Google Chrome. Attention, néanmoins : il se concentre uniquement sur ChatGPT. D’autres affichent des offres multiplateformes. Aujourd’hui, l’immense majorité de ces sites est en anglais. Le seul site offrant une interface en français à l’heure d’écrire ces lignes semble être celui de la start-up allemande TextCortex, qui intègre une place de marché de prompts, entre autres solutions.

Pour aller plus loin :

  • PromptBase
  • Prompti.ai
  • FlowGPT
  • PromptHub

3. Se faire accompagner

Et si vous faisiez appel à une entreprise pour vous aider à maîtriser le prompt engineering pour vos cas d’usages de l’IA générative ? C’est l’une des propositions de Vellum. Cette start-up new-yorkaise, incubée au sein du prestigieux Y Combinator, vient de lever 5 millions de dollars pour développer son offre d’accompagnement au développement d’applications d’IA générative en entreprise. « Une fois que l’entreprise a identifié un ou plusieurs cas d’usages qu’elle veut expérimenter, nous lui offrons un accès à notre bibliothèque de prompts, un accompagnement au prompt engineering et des moyens de mesurer l’efficacité de différents modèles de langage, entre autres services », explique Akash Sharma, cofondateur et PDG. Le français LightOn offre des services relativement similaires (et bien plus) avec sa plateforme Paradigm. Par ailleurs, il dispose d’une expérience dans le fine-tuning de modèles de langage et a contribué à développer certains des plus puissants LLM open source.

Pour aller plus loin :

  • Keytalk AI
  • Adept AI
  • Arize AI
  • GradientJ
Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
Trouvez des produits et des fournisseurs