P

Active Prompting : Définition et Exemples

Méthode qui sélectionne dynamiquement les exemples les plus informatifs à inclure dans un prompt, en identifiant les cas où le modèle est le plus incertain pour améliorer ses performances de raisonnement.

Définition complète

L'Active Prompting est une technique avancée de prompt engineering inspirée de l'apprentissage actif (active learning) en machine learning. Son principe fondamental consiste à ne pas choisir arbitrairement les exemples de few-shot inclus dans un prompt, mais à sélectionner stratégiquement ceux qui apporteront le plus grand bénéfice au modèle de langage.

Le processus se déroule en plusieurs étapes. D'abord, le modèle génère plusieurs réponses pour un ensemble de questions candidates. Ensuite, on mesure le degré d'incertitude du modèle sur chaque question (par exemple en observant la variance entre les différentes réponses). Les questions où le modèle montre le plus d'hésitation sont alors annotées par un humain avec un raisonnement détaillé (chain-of-thought), puis utilisées comme exemples dans le prompt final.

Cette approche résout un problème majeur du few-shot prompting classique : le choix des exemples est souvent fait au hasard ou selon l'intuition, ce qui peut donner des résultats sous-optimaux. L'Active Prompting rationalise ce choix en ciblant précisément les zones de faiblesse du modèle.

Introduite par Diao et al. en 2023, cette méthode a démontré des améliorations significatives sur des tâches de raisonnement arithmétique, logique et de bon sens, surpassant les approches de Chain-of-Thought prompting à exemples fixes.

Étymologie

Le terme combine « Active », emprunté à l'active learning (apprentissage actif) où l'algorithme choisit activement les données dont il a le plus besoin pour apprendre, et « Prompting », la pratique de formuler des instructions pour un modèle de langage. Le nom reflète l'idée que la construction du prompt n'est plus passive (exemples choisis arbitrairement) mais active (exemples sélectionnés selon l'incertitude du modèle).

Exemples concrets

Raisonnement mathématique — On identifie que le modèle hésite sur les problèmes impliquant des pourcentages successifs, puis on inclut un exemple annoté de ce type dans le prompt.

Voici un exemple de résolution étape par étape :
Q : Un article coûte 200€. Il est soldé à -30%, puis une remise supplémentaire de -10% est appliquée. Quel est le prix final ?
R : Étape 1 : 200 × 0.70 = 140€ après la première remise. Étape 2 : 140 × 0.90 = 126€ après la seconde remise. Le prix final est 126€.

Maintenant résous : Un investissement de 1000€ gagne 15% la première année puis perd 10% la deuxième. Quelle est la valeur finale ?

Classification de textes — Après avoir détecté que le modèle confond souvent le sarcasme et la critique sincère, on ajoute des exemples annotés ciblant cette ambiguïté.

Classe le sentiment de chaque phrase. Voici des cas particulièrement nuancés :
- "Bravo, encore un retard de livraison, quelle efficacité !" → Négatif (sarcasme)
- "Le service était correct mais sans plus" → Neutre (critique mesurée)

Maintenant classe : "Ah oui, 3 semaines pour une réponse, c'est du grand art."

Raisonnement logique — Le modèle montre de l'incertitude sur les syllogismes avec des négations multiples, on intègre donc un exemple guidé sur ce type de problème.

Usage pratique

Pour appliquer l'Active Prompting, commencez par faire générer plusieurs réponses au modèle sur vos questions types, puis identifiez celles où les réponses varient le plus. Rédigez ensuite des raisonnements détaillés étape par étape pour ces cas difficiles et incluez-les comme exemples dans votre prompt. Cette approche est particulièrement rentable quand vous disposez d'un budget limité d'exemples et souhaitez maximiser leur impact.

Concepts liés

Chain-of-Thought PromptingFew-Shot PromptingSelf-ConsistencyActive Learning

FAQ

Quelle est la différence entre l'Active Prompting et le Few-Shot Prompting classique ?
Le Few-Shot Prompting classique utilise des exemples choisis manuellement ou aléatoirement, sans méthode particulière de sélection. L'Active Prompting ajoute une étape d'analyse de l'incertitude du modèle pour sélectionner les exemples les plus utiles — ceux où le modèle a le plus besoin de guidance. Le résultat est un prompt plus efficace avec le même nombre d'exemples.
Faut-il des compétences techniques avancées pour utiliser l'Active Prompting ?
La version complète de la méthode (mesure d'incertitude via échantillonnage multiple) nécessite un accès API et quelques compétences en programmation. Cependant, le principe peut être appliqué de manière simplifiée : testez votre prompt sur plusieurs cas, repérez ceux où le modèle se trompe ou hésite, puis ajoutez des exemples corrigés pour ces cas précis. Cette approche itérative capture l'essentiel de la méthode.
L'Active Prompting fonctionne-t-il avec tous les modèles de langage ?
Oui, le principe s'applique à tout modèle capable de few-shot learning (GPT-4, Claude, Gemini, Llama, etc.). Les gains varient selon le modèle et la tâche, mais l'idée de cibler les exemples sur les points faibles du modèle reste universellement pertinente. Les bénéfices sont généralement plus marqués sur les tâches de raisonnement complexe.

Voir aussi

Recevez de nouveaux prompts chaque semaine

Rejoignez notre newsletter.