Prompt Tuning : Définition et Exemples
Technique d'optimisation des modèles de langage qui consiste à entraîner un petit ensemble de paramètres ajoutables (soft prompts) en amont de l'entrée, sans modifier les poids du modèle lui-même.
Définition complète
Le prompt tuning est une méthode d'adaptation des grands modèles de langage (LLM) qui se distingue du fine-tuning classique par son efficacité et sa légèreté. Au lieu de modifier l'ensemble des milliards de paramètres d'un modèle, on entraîne uniquement un petit vecteur de tokens virtuels — appelés "soft prompts" — qui sont concaténés à l'entrée du modèle. Ces tokens ne correspondent pas à des mots réels du vocabulaire, mais sont des représentations numériques optimisées par rétropropagation pour une tâche spécifique.
Cette approche a été popularisée par l'article de recherche de Google "The Power of Scale for Parameter-Efficient Prompt Tuning" (Lester et al., 2021), qui a démontré que sur des modèles suffisamment grands, le prompt tuning atteint des performances comparables au fine-tuning complet tout en ne modifiant qu'une fraction infime des paramètres (souvent moins de 0,1 %). Cela rend la technique particulièrement intéressante pour les déploiements en production où un même modèle de base doit servir plusieurs tâches différentes.
Concrètement, le prompt tuning fonctionne en trois étapes : on initialise un ensemble de vecteurs d'embedding (les soft prompts), on les place en préfixe de chaque exemple d'entraînement, puis on optimise uniquement ces vecteurs via la descente de gradient tandis que le modèle reste gelé. Le résultat est un fichier de quelques kilo-octets qui encode la "consigne" apprise pour la tâche visée.
Il est important de ne pas confondre le prompt tuning avec le prompt engineering. Le prompt engineering consiste à rédiger manuellement des instructions en langage naturel, tandis que le prompt tuning utilise l'apprentissage automatique pour découvrir des représentations optimales qui ne sont pas interprétables par un humain. Les deux approches sont complémentaires : le prompt engineering est accessible à tous, le prompt tuning nécessite un pipeline d'entraînement mais offre des gains de performance mesurables sur des tâches répétitives.
Étymologie
Le terme combine "prompt" (instruction donnée à un modèle de langage) et "tuning" (ajustement, réglage fin), par analogie avec le "fine-tuning" classique. L'idée est qu'on ajuste le prompt lui-même plutôt que le modèle, d'où l'expression "prompt tuning" introduite par les chercheurs de Google Brain en 2021.
Exemples concrets
Classification de tickets de support client : un soft prompt est entraîné pour catégoriser automatiquement les demandes (technique, facturation, réclamation) sans modifier le modèle de base.
Analyse de sentiment sur des avis produits dans un domaine spécialisé (ex. cosmétique), où le vocabulaire métier nécessite une adaptation que le prompt engineering seul ne capture pas efficacement.
Déploiement multi-tâches : une entreprise utilise un seul modèle de base avec plusieurs soft prompts distincts — un pour la traduction, un pour le résumé, un pour l'extraction d'entités — chacun ne pesant que quelques kilo-octets.
Usage pratique
En tant que praticien du prompt engineering, le prompt tuning vous concerne si vous travaillez sur des tâches répétitives à grande échelle où les performances du prompt engineering classique plafonnent. Pour l'utiliser, vous aurez besoin d'un jeu de données d'entraînement étiqueté et d'un framework comme PEFT de Hugging Face. C'est particulièrement pertinent quand vous devez servir plusieurs tâches avec un même modèle en production, car chaque soft prompt ajoute un coût de stockage et d'inférence négligeable.
Concepts liés
FAQ
Quelle est la différence entre prompt tuning et prompt engineering ?
Le prompt tuning est-il aussi performant que le fine-tuning classique ?
Peut-on utiliser le prompt tuning avec des API comme Claude ou GPT ?
Voir aussi
Recevez de nouveaux prompts chaque semaine
Rejoignez notre newsletter.