Embedding : Définition et Exemples
Un embedding est une représentation numérique d'un texte, d'une image ou d'un autre type de donnée sous forme de vecteur de nombres, permettant aux modèles d'IA de mesurer la similarité sémantique entre différents éléments.
Définition complète
Un embedding (ou plongement vectoriel) est une technique fondamentale en intelligence artificielle qui consiste à transformer des données complexes — comme des mots, des phrases, des images ou des documents — en vecteurs numériques de dimension fixe. Ces vecteurs capturent le sens et les relations sémantiques entre les éléments : deux textes proches en signification auront des vecteurs proches dans l'espace vectoriel.
Concrètement, un modèle d'embedding analyse un texte et produit une liste de nombres (par exemple 1536 dimensions pour text-embedding-ada-002 d'OpenAI). Ces nombres ne sont pas interprétables individuellement par un humain, mais leur agencement encode le sens du texte. On peut ensuite calculer la distance ou la similarité cosinus entre deux vecteurs pour déterminer à quel point deux textes sont sémantiquement proches.
Les embeddings sont au cœur de nombreuses applications modernes : la recherche sémantique (trouver des documents pertinents même sans correspondance exacte de mots-clés), les systèmes de recommandation, la classification de textes, et surtout le RAG (Retrieval-Augmented Generation) qui permet d'enrichir les réponses d'un LLM avec des connaissances externes.
En prompt engineering, comprendre les embeddings est essentiel pour concevoir des systèmes qui exploitent efficacement de grandes bases de connaissances. Plutôt que d'envoyer tout le contexte dans un prompt, on utilise les embeddings pour identifier les passages les plus pertinents et ne fournir au modèle que l'information nécessaire.
Étymologie
Le terme "embedding" vient de l'anglais "to embed" (insérer, enchâsser). En mathématiques, un plongement (embedding) désigne une injection d'une structure dans une autre qui préserve certaines propriétés. En IA, le terme a été popularisé par les travaux sur Word2Vec (2013) de Tomas Mikolov chez Google, qui a démontré que les mots pouvaient être représentés dans un espace vectoriel continu où les relations sémantiques sont préservées.
Exemples concrets
Recherche sémantique dans une base de connaissances
Tu es un assistant qui répond en se basant uniquement sur les documents suivants, récupérés par recherche sémantique via embeddings. Documents pertinents :
[{documents récupérés}]
Question de l'utilisateur : {question}
Réponds en citant tes sources.Classification automatique de tickets de support
Voici un ticket de support client. En utilisant la proximité sémantique avec nos catégories prédéfinies (dont les embeddings sont pré-calculés), ce ticket a été classé dans la catégorie '{catégorie}'. Rédige une réponse appropriée pour cette catégorie.Détection de doublons dans une FAQ
Voici une nouvelle question soumise par un utilisateur : '{question}'. Les questions existantes les plus proches selon la similarité cosinus de leurs embeddings sont : {liste}. Détermine si cette question est un doublon ou si elle mérite une nouvelle entrée.Usage pratique
En prompt engineering, les embeddings sont utilisés principalement pour alimenter des systèmes RAG : on vectorise sa base documentaire, puis à chaque requête utilisateur, on récupère les passages les plus pertinents pour les injecter dans le prompt. Cela permet de construire des assistants spécialisés capables de répondre sur des données privées ou récentes sans fine-tuning. Le choix du modèle d'embedding, la taille des chunks de texte et la stratégie de découpage influencent directement la qualité des réponses obtenues.
Concepts liés
FAQ
Quelle est la différence entre un embedding et un token ?
Faut-il un modèle d'embedding différent du LLM utilisé pour générer les réponses ?
Combien coûte l'utilisation des embeddings ?
Voir aussi
Recevez de nouveaux prompts chaque semaine
Rejoignez notre newsletter.