P

Prompt Tuning : Définition et Exemples

Technique d'optimisation des modèles de langage qui consiste à entraîner un petit ensemble de paramètres ajoutables (soft prompts) en amont de l'entrée, sans modifier les poids du modèle lui-même.

Définition complète

Le prompt tuning est une méthode d'adaptation des grands modèles de langage (LLM) qui se distingue du fine-tuning classique par son efficacité et sa légèreté. Au lieu de modifier l'ensemble des milliards de paramètres d'un modèle, on entraîne uniquement un petit vecteur de tokens virtuels — appelés "soft prompts" — qui sont concaténés à l'entrée du modèle. Ces tokens ne correspondent pas à des mots réels du vocabulaire, mais sont des représentations numériques optimisées par rétropropagation pour une tâche spécifique.

Cette approche a été popularisée par l'article de recherche de Google "The Power of Scale for Parameter-Efficient Prompt Tuning" (Lester et al., 2021), qui a démontré que sur des modèles suffisamment grands, le prompt tuning atteint des performances comparables au fine-tuning complet tout en ne modifiant qu'une fraction infime des paramètres (souvent moins de 0,1 %). Cela rend la technique particulièrement intéressante pour les déploiements en production où un même modèle de base doit servir plusieurs tâches différentes.

Concrètement, le prompt tuning fonctionne en trois étapes : on initialise un ensemble de vecteurs d'embedding (les soft prompts), on les place en préfixe de chaque exemple d'entraînement, puis on optimise uniquement ces vecteurs via la descente de gradient tandis que le modèle reste gelé. Le résultat est un fichier de quelques kilo-octets qui encode la "consigne" apprise pour la tâche visée.

Il est important de ne pas confondre le prompt tuning avec le prompt engineering. Le prompt engineering consiste à rédiger manuellement des instructions en langage naturel, tandis que le prompt tuning utilise l'apprentissage automatique pour découvrir des représentations optimales qui ne sont pas interprétables par un humain. Les deux approches sont complémentaires : le prompt engineering est accessible à tous, le prompt tuning nécessite un pipeline d'entraînement mais offre des gains de performance mesurables sur des tâches répétitives.

Étymologie

Le terme combine "prompt" (instruction donnée à un modèle de langage) et "tuning" (ajustement, réglage fin), par analogie avec le "fine-tuning" classique. L'idée est qu'on ajuste le prompt lui-même plutôt que le modèle, d'où l'expression "prompt tuning" introduite par les chercheurs de Google Brain en 2021.

Exemples concrets

Classification de tickets de support client : un soft prompt est entraîné pour catégoriser automatiquement les demandes (technique, facturation, réclamation) sans modifier le modèle de base.

Analyse de sentiment sur des avis produits dans un domaine spécialisé (ex. cosmétique), où le vocabulaire métier nécessite une adaptation que le prompt engineering seul ne capture pas efficacement.

Déploiement multi-tâches : une entreprise utilise un seul modèle de base avec plusieurs soft prompts distincts — un pour la traduction, un pour le résumé, un pour l'extraction d'entités — chacun ne pesant que quelques kilo-octets.

Usage pratique

En tant que praticien du prompt engineering, le prompt tuning vous concerne si vous travaillez sur des tâches répétitives à grande échelle où les performances du prompt engineering classique plafonnent. Pour l'utiliser, vous aurez besoin d'un jeu de données d'entraînement étiqueté et d'un framework comme PEFT de Hugging Face. C'est particulièrement pertinent quand vous devez servir plusieurs tâches avec un même modèle en production, car chaque soft prompt ajoute un coût de stockage et d'inférence négligeable.

Concepts liés

Fine-TuningPrefix TuningLoRA (Low-Rank Adaptation)Few-Shot LearningPrompt EngineeringParameter-Efficient Fine-Tuning (PEFT)

FAQ

Quelle est la différence entre prompt tuning et prompt engineering ?
Le prompt engineering consiste à rédiger manuellement des instructions en langage naturel pour guider un modèle. Le prompt tuning, en revanche, utilise l'apprentissage automatique pour optimiser des vecteurs numériques (soft prompts) qui ne sont pas lisibles par un humain. Le premier est accessible sans compétences techniques, le second nécessite un pipeline d'entraînement mais offre généralement de meilleures performances sur des tâches spécifiques.
Le prompt tuning est-il aussi performant que le fine-tuning classique ?
Sur des modèles de grande taille (à partir de plusieurs milliards de paramètres), les recherches montrent que le prompt tuning atteint des performances très proches du fine-tuning complet, tout en ne modifiant qu'une fraction infime des paramètres. Sur des modèles plus petits, l'écart de performance peut être plus significatif, et le fine-tuning complet ou des méthodes comme LoRA peuvent être préférables.
Peut-on utiliser le prompt tuning avec des API comme Claude ou GPT ?
Non, le prompt tuning nécessite un accès aux couches internes du modèle pour injecter les soft prompts et effectuer la rétropropagation. Les API commerciales comme Claude ou GPT ne donnent pas cet accès. Pour ces services, vous pouvez utiliser le prompt engineering classique ou, quand c'est proposé, le fine-tuning via l'API du fournisseur. Le prompt tuning est principalement utilisé avec des modèles open source (LLaMA, Mistral, etc.).

Voir aussi

Recevez de nouveaux prompts chaque semaine

Rejoignez notre newsletter.