Top P : Définition et Exemples
Le Top P, aussi appelé nucleus sampling, est un paramètre de génération qui contrôle la diversité des réponses d'une IA en limitant la sélection des tokens aux plus probables dont la somme des probabilités atteint un seuil P.
Définition complète
Le Top P (ou nucleus sampling) est une méthode d'échantillonnage utilisée lors de la génération de texte par les modèles de langage. Plutôt que de considérer l'ensemble du vocabulaire à chaque étape de génération, le modèle ne retient que les tokens les plus probables dont les probabilités cumulées atteignent le seuil P défini. Par exemple, avec un Top P de 0.9, le modèle sélectionne les tokens les plus probables jusqu'à ce que leur somme de probabilités atteigne 90 %, puis choisit aléatoirement parmi ce sous-ensemble.
Ce mécanisme offre un avantage majeur par rapport au Top K : il s'adapte dynamiquement au contexte. Si le modèle est très confiant sur le prochain mot (par exemple après "la Tour"), le noyau sera petit et ne contiendra que quelques candidats comme "Eiffel" ou "de". En revanche, dans un contexte plus ouvert (par exemple le début d'une histoire), le noyau s'élargit naturellement pour inclure davantage de possibilités créatives.
Le Top P se règle entre 0 et 1. Une valeur proche de 0 rend le modèle quasi déterministe en ne gardant que le ou les tokens les plus probables. Une valeur de 1 désactive le filtrage et considère l'ensemble du vocabulaire. Les valeurs courantes se situent entre 0.7 et 0.95 selon l'usage : plus basses pour des tâches factuelles, plus élevées pour des tâches créatives.
Il est important de noter que le Top P interagit avec la température. La température modifie la distribution des probabilités avant le filtrage Top P. En pratique, il est recommandé d'ajuster l'un ou l'autre plutôt que les deux simultanément, afin de garder un contrôle prévisible sur le comportement du modèle.
Étymologie
Le terme "Top P" vient de l'anglais, où P représente la probabilité cumulative seuil. La méthode a été formalisée sous le nom de "nucleus sampling" dans l'article de recherche "The Curious Case of Neural Text Degeneration" par Holtzman et al. en 2019. Le mot "nucleus" (noyau) fait référence au sous-ensemble de tokens sélectionnés, considéré comme le noyau de la distribution de probabilités.
Exemples concrets
Rédaction créative avec une grande diversité
Écris une histoire originale sur un robot qui découvre les émotions. [Top P = 0.95, Température = 0.8]
Réponse factuelle nécessitant de la précision
Explique le fonctionnement de la photosynthèse en termes simples. [Top P = 0.4, Température = 0.3]
Génération de code avec un équilibre entre créativité et fiabilité
Écris une fonction Python qui trie une liste de dictionnaires par clé. [Top P = 0.7, Température = 0.5]
Usage pratique
En prompt engineering, le Top P se règle généralement via les paramètres de l'API du modèle. Pour des tâches nécessitant précision et cohérence (résumés, extraction de données, code), privilégiez un Top P entre 0.3 et 0.6. Pour des tâches créatives (brainstorming, écriture, génération d'idées), montez entre 0.8 et 0.95 pour obtenir des réponses plus variées et surprenantes.
Concepts liés
FAQ
Quelle est la différence entre Top P et température ?
Quelle est la différence entre Top P et Top K ?
Quelle valeur de Top P utiliser par défaut ?
Voir aussi
Recevez de nouveaux prompts chaque semaine
Rejoignez notre newsletter.