Underfitting : Définition et Exemples
L'underfitting se produit lorsqu'un modèle d'intelligence artificielle est trop simple pour capturer les patterns présents dans les données d'entraînement, ce qui entraîne des performances médiocres aussi bien sur les données d'entraînement que sur de nouvelles données.
Définition complète
L'underfitting est un problème fondamental en apprentissage automatique qui survient lorsqu'un modèle ne parvient pas à apprendre correctement les relations et les structures présentes dans les données d'entraînement. Contrairement à l'overfitting où le modèle mémorise les données, un modèle en underfitting n'a tout simplement pas la capacité ou les ressources nécessaires pour comprendre les patterns sous-jacents.
Ce phénomène peut avoir plusieurs causes : un modèle trop simple (par exemple, utiliser une régression linéaire pour des données non linéaires), un nombre insuffisant de paramètres, un entraînement trop court, ou une régularisation excessive qui contraint trop le modèle. Le résultat est un modèle qui produit des prédictions imprécises et génériques, incapable de distinguer les nuances dans les données.
En prompt engineering, la notion d'underfitting se transpose dans la façon dont on formule ses instructions. Un prompt trop vague ou trop générique peut être vu comme une forme d'underfitting : il ne fournit pas assez de contexte ou de contraintes pour que le modèle de langage produise une réponse précise et adaptée. Tout comme un modèle sous-entraîné, un prompt sous-spécifié génère des résultats superficiels qui ne correspondent pas aux attentes.
Pour détecter l'underfitting, on observe généralement une erreur élevée à la fois sur l'ensemble d'entraînement et sur l'ensemble de test. La solution consiste à augmenter la complexité du modèle, à enrichir les features, à prolonger l'entraînement ou à réduire la régularisation. En prompt engineering, cela revient à enrichir ses prompts avec des exemples, du contexte et des instructions plus détaillées.
Étymologie
Le terme "underfitting" vient de l'anglais, composé du préfixe "under-" (sous, insuffisant) et de "fitting" (ajustement). Littéralement, il signifie "sous-ajustement", c'est-à-dire que le modèle ne s'ajuste pas suffisamment aux données. Ce terme s'est imposé dans le vocabulaire du machine learning dès les années 1990, en opposition directe à "overfitting" (sur-ajustement).
Exemples concrets
Classification d'images avec un modèle trop simple
Imagine que tu utilises une simple régression logistique pour distinguer des chats et des chiens dans des photos. Explique pourquoi ce modèle risque de souffrir d'underfitting et quelles architectures seraient plus adaptées.
Prompt trop vague générant une réponse générique
Compare ces deux prompts : 1) 'Parle-moi du marketing' vs 2) 'Décris 3 stratégies de marketing digital pour une startup SaaS B2B en phase de lancement, avec budget limité à 5000€/mois'. Explique pourquoi le premier prompt est une forme d'underfitting.
Prévision de séries temporelles avec trop peu de variables
Un modèle de prévision des ventes utilise uniquement le jour de la semaine comme variable. Il obtient 45% de précision sur les données d'entraînement. Diagnostique le problème et propose des variables supplémentaires pour résoudre l'underfitting.
Usage pratique
En prompt engineering, éviter l'underfitting consiste à fournir suffisamment de contexte, d'exemples et de contraintes dans vos prompts pour obtenir des réponses précises. Si un modèle de langage vous donne des réponses trop génériques ou hors sujet, enrichissez votre prompt avec des détails spécifiques, un rôle défini et des critères de qualité explicites. Pensez à vos prompts comme à des modèles : plus ils sont adaptés à votre besoin, meilleurs seront les résultats.
Concepts liés
FAQ
Comment savoir si mon modèle souffre d'underfitting ?
Quelle est la différence entre underfitting et overfitting ?
Comment corriger l'underfitting dans mes prompts ?
Voir aussi
Recevez de nouveaux prompts chaque semaine
Rejoignez notre newsletter.