P

Completion : Définition et Exemples

Réponse générée par un modèle de langage (LLM) à partir d'un prompt donné. La completion est le texte produit par l'IA pour compléter, répondre ou prolonger l'entrée fournie par l'utilisateur.

Définition complète

En intelligence artificielle, une completion désigne le texte généré par un modèle de langage en réponse à une entrée (prompt). Le terme vient du fonctionnement fondamental des LLM : ils sont entraînés à prédire le token suivant dans une séquence, « complétant » ainsi le texte qui leur est soumis. Chaque mot ou fragment produit découle d'une estimation probabiliste de ce qui devrait logiquement suivre.

Historiquement, les premiers modèles comme GPT-2 et GPT-3 fonctionnaient exclusivement en mode completion : on leur fournissait un début de texte et ils le prolongeaient. L'API d'OpenAI proposait d'ailleurs un endpoint dédié appelé « Completions ». Avec l'arrivée des modèles conversationnels (ChatGPT, Claude), le paradigme a évolué vers le mode chat, où les échanges sont structurés en messages (système, utilisateur, assistant), mais le mécanisme sous-jacent reste une forme de completion.

La qualité d'une completion dépend directement de la qualité du prompt. Un prompt vague produira une completion générique, tandis qu'un prompt précis, structuré et contextualisé générera une réponse pertinente et ciblée. C'est cette relation directe qui fonde toute la discipline du prompt engineering.

Plusieurs paramètres influencent la completion : la température contrôle le caractère aléatoire ou déterministe de la réponse, le max_tokens limite sa longueur, et les pénalités de fréquence ou de présence modulent la diversité du vocabulaire utilisé. Comprendre ces leviers permet d'obtenir des completions adaptées à chaque cas d'usage, qu'il s'agisse de rédaction créative, d'analyse de données ou de génération de code.

Étymologie

Le terme « completion » vient de l'anglais to complete (compléter). Il reflète le mécanisme fondamental des modèles de langage, qui « complètent » une séquence de texte en prédisant les tokens suivants. Le terme s'est imposé dans le vocabulaire de l'IA avec l'API GPT-3 d'OpenAI, qui nommait explicitement son endpoint principal « Completions ».

Exemples concrets

Génération de texte simple

Les trois avantages principaux du télétravail sont :

Utilisation via API avec paramètres de completion

Appel API avec temperature=0.2 et max_tokens=500 pour obtenir une réponse factuelle et concise à une question technique

Completion en mode chat vs mode texte

En mode chat, chaque message de l'assistant est une completion conditionnée par l'historique de la conversation et le message système

Usage pratique

Pour obtenir de meilleures completions, structurez vos prompts avec un contexte clair, des instructions explicites et le format de sortie attendu. Ajustez la température selon votre besoin : basse (0-0.3) pour des réponses factuelles et reproductibles, haute (0.7-1) pour la créativité. Utilisez le paramètre max_tokens pour contrôler la longueur de la réponse et éviter les completions tronquées.

Concepts liés

PromptTokenTempératureInférence

FAQ

Quelle est la différence entre completion et chat completion ?
La completion classique prend un texte brut en entrée et le prolonge. La chat completion fonctionne avec des messages structurés (rôles système, utilisateur, assistant) et est optimisée pour le dialogue. Les modèles récents comme Claude et GPT-4 utilisent le mode chat, mais le principe sous-jacent reste la prédiction du texte suivant.
Pourquoi ma completion est-elle parfois tronquée ?
Une completion est tronquée lorsqu'elle atteint la limite de tokens définie par le paramètre max_tokens ou la fenêtre de contexte du modèle. Pour éviter cela, augmentez la valeur de max_tokens ou demandez explicitement une réponse concise dans votre prompt.
Comment rendre une completion plus déterministe ?
Réglez la température à 0 pour obtenir des réponses quasi identiques à chaque appel. Vous pouvez aussi utiliser un seed (quand l'API le supporte) pour garantir la reproductibilité. Un prompt très spécifique et structuré réduit également la variabilité des completions.

Voir aussi

Recevez de nouveaux prompts chaque semaine

Rejoignez notre newsletter.