P

Temperature (IA) : Définition et Exemples

La température est un paramètre des modèles d'IA qui contrôle le degré d'aléatoire dans les réponses générées. Une valeur basse (0-0.3) produit des réponses prévisibles, une valeur haute (0.7-1.0) favorise la créativité.

Définition complète

La température est l'un des paramètres les plus importants à maîtriser en prompt engineering. Ce réglage influence directement la distribution de probabilité lors de la sélection du prochain token généré.

Concrètement, quand vous réglez la température à 0, le modèle choisit systématiquement le token le plus probable, donnant des réponses déterministes. À l'inverse, une température de 1.0 permet d'explorer des options moins probables.

En pratique, la température idéale dépend du cas d'usage. Pour de la rédaction factuelle ou du code, préférez 0-0.3. Pour du brainstorming ou de la création, montez à 0.7-1.0.

Attention : une température trop élevée (>1.0) peut provoquer des réponses incohérentes voire des hallucinations.

Étymologie

Le terme vient de la physique statistique. En physique, la température détermine l'agitation des particules. L'analogie a été reprise en apprentissage automatique.

Exemples concrets

Rédaction d'un email professionnel — température basse

Tu es un assistant professionnel. Rédige un email de relance pour un client.

[temperature = 0.2]

Brainstorming créatif — température haute

Génère 20 noms de marque originaux pour une startup de livraison de repas sains.

[temperature = 0.9]

Génération de code — température très basse

Écris une fonction Python qui trie une liste par date décroissante.

[temperature = 0.1]

Usage pratique

Commencez avec une température de 0.3 et ajustez. Pour les tâches créatives, montez progressivement. Pour le code, restez en dessous de 0.2.

Concepts liés

Top-p (nucleus sampling)Top-kFrequency penaltyPresence penalty

FAQ

Quelle est la meilleure température pour ChatGPT ?
Il n'y a pas de valeur universelle. Texte factuel/code : 0-0.3. Créatif : 0.7-0.9. Usage général : 0.4-0.6.
Quelle différence entre temperature et top-p ?
La température modifie la distribution entière des probabilités, top-p coupe les options les moins probables. Ajustez l'un et laissez l'autre par défaut.
Temperature 0 donne-t-elle toujours la même réponse ?
Presque. Le modèle est quasi-déterministe, mais de légères variations peuvent apparaître. Combinez temperature=0 avec un seed fixe pour une reproductibilité totale.

Voir aussi

Recevez de nouveaux prompts chaque semaine

Rejoignez notre newsletter.