P

Top P : Définition et Exemples

Le Top P, aussi appelé nucleus sampling, est un paramètre de génération qui contrôle la diversité des réponses d'une IA en limitant la sélection des tokens aux plus probables dont la somme des probabilités atteint un seuil P.

Définition complète

Le Top P (ou nucleus sampling) est une méthode d'échantillonnage utilisée lors de la génération de texte par les modèles de langage. Plutôt que de considérer l'ensemble du vocabulaire à chaque étape de génération, le modèle ne retient que les tokens les plus probables dont les probabilités cumulées atteignent le seuil P défini. Par exemple, avec un Top P de 0.9, le modèle sélectionne les tokens les plus probables jusqu'à ce que leur somme de probabilités atteigne 90 %, puis choisit aléatoirement parmi ce sous-ensemble.

Ce mécanisme offre un avantage majeur par rapport au Top K : il s'adapte dynamiquement au contexte. Si le modèle est très confiant sur le prochain mot (par exemple après "la Tour"), le noyau sera petit et ne contiendra que quelques candidats comme "Eiffel" ou "de". En revanche, dans un contexte plus ouvert (par exemple le début d'une histoire), le noyau s'élargit naturellement pour inclure davantage de possibilités créatives.

Le Top P se règle entre 0 et 1. Une valeur proche de 0 rend le modèle quasi déterministe en ne gardant que le ou les tokens les plus probables. Une valeur de 1 désactive le filtrage et considère l'ensemble du vocabulaire. Les valeurs courantes se situent entre 0.7 et 0.95 selon l'usage : plus basses pour des tâches factuelles, plus élevées pour des tâches créatives.

Il est important de noter que le Top P interagit avec la température. La température modifie la distribution des probabilités avant le filtrage Top P. En pratique, il est recommandé d'ajuster l'un ou l'autre plutôt que les deux simultanément, afin de garder un contrôle prévisible sur le comportement du modèle.

Étymologie

Le terme "Top P" vient de l'anglais, où P représente la probabilité cumulative seuil. La méthode a été formalisée sous le nom de "nucleus sampling" dans l'article de recherche "The Curious Case of Neural Text Degeneration" par Holtzman et al. en 2019. Le mot "nucleus" (noyau) fait référence au sous-ensemble de tokens sélectionnés, considéré comme le noyau de la distribution de probabilités.

Exemples concrets

Rédaction créative avec une grande diversité

Écris une histoire originale sur un robot qui découvre les émotions. [Top P = 0.95, Température = 0.8]

Réponse factuelle nécessitant de la précision

Explique le fonctionnement de la photosynthèse en termes simples. [Top P = 0.4, Température = 0.3]

Génération de code avec un équilibre entre créativité et fiabilité

Écris une fonction Python qui trie une liste de dictionnaires par clé. [Top P = 0.7, Température = 0.5]

Usage pratique

En prompt engineering, le Top P se règle généralement via les paramètres de l'API du modèle. Pour des tâches nécessitant précision et cohérence (résumés, extraction de données, code), privilégiez un Top P entre 0.3 et 0.6. Pour des tâches créatives (brainstorming, écriture, génération d'idées), montez entre 0.8 et 0.95 pour obtenir des réponses plus variées et surprenantes.

Concepts liés

TempératureTop KNucleus SamplingÉchantillonnage stochastique

FAQ

Quelle est la différence entre Top P et température ?
La température modifie la forme de la distribution de probabilités (elle "aplatit" ou "accentue" les écarts entre tokens), tandis que le Top P coupe la distribution en ne gardant qu'un sous-ensemble de tokens. La température agit avant le filtrage, le Top P agit après. En pratique, il est conseillé d'ajuster un seul des deux paramètres à la fois pour un contrôle plus prévisible.
Quelle est la différence entre Top P et Top K ?
Le Top K sélectionne un nombre fixe de tokens candidats (par exemple les 50 plus probables), quel que soit le contexte. Le Top P, lui, adapte dynamiquement ce nombre en fonction de la confiance du modèle. Si le modèle est sûr de lui, le noyau sera petit ; s'il hésite, le noyau sera large. Le Top P est généralement considéré comme plus performant car il s'ajuste au contexte.
Quelle valeur de Top P utiliser par défaut ?
Une valeur de 0.9 constitue un bon point de départ pour la plupart des usages. Elle offre un équilibre entre diversité et cohérence. Descendez vers 0.3-0.5 pour des tâches exigeant une grande précision (traduction, extraction de données), et montez vers 0.95-1.0 pour des tâches très créatives où vous recherchez de l'originalité.

Voir aussi

Recevez de nouveaux prompts chaque semaine

Rejoignez notre newsletter.