P

Underfitting : Définition et Exemples

L'underfitting se produit lorsqu'un modèle d'intelligence artificielle est trop simple pour capturer les patterns présents dans les données d'entraînement, ce qui entraîne des performances médiocres aussi bien sur les données d'entraînement que sur de nouvelles données.

Définition complète

L'underfitting est un problème fondamental en apprentissage automatique qui survient lorsqu'un modèle ne parvient pas à apprendre correctement les relations et les structures présentes dans les données d'entraînement. Contrairement à l'overfitting où le modèle mémorise les données, un modèle en underfitting n'a tout simplement pas la capacité ou les ressources nécessaires pour comprendre les patterns sous-jacents.

Ce phénomène peut avoir plusieurs causes : un modèle trop simple (par exemple, utiliser une régression linéaire pour des données non linéaires), un nombre insuffisant de paramètres, un entraînement trop court, ou une régularisation excessive qui contraint trop le modèle. Le résultat est un modèle qui produit des prédictions imprécises et génériques, incapable de distinguer les nuances dans les données.

En prompt engineering, la notion d'underfitting se transpose dans la façon dont on formule ses instructions. Un prompt trop vague ou trop générique peut être vu comme une forme d'underfitting : il ne fournit pas assez de contexte ou de contraintes pour que le modèle de langage produise une réponse précise et adaptée. Tout comme un modèle sous-entraîné, un prompt sous-spécifié génère des résultats superficiels qui ne correspondent pas aux attentes.

Pour détecter l'underfitting, on observe généralement une erreur élevée à la fois sur l'ensemble d'entraînement et sur l'ensemble de test. La solution consiste à augmenter la complexité du modèle, à enrichir les features, à prolonger l'entraînement ou à réduire la régularisation. En prompt engineering, cela revient à enrichir ses prompts avec des exemples, du contexte et des instructions plus détaillées.

Étymologie

Le terme "underfitting" vient de l'anglais, composé du préfixe "under-" (sous, insuffisant) et de "fitting" (ajustement). Littéralement, il signifie "sous-ajustement", c'est-à-dire que le modèle ne s'ajuste pas suffisamment aux données. Ce terme s'est imposé dans le vocabulaire du machine learning dès les années 1990, en opposition directe à "overfitting" (sur-ajustement).

Exemples concrets

Classification d'images avec un modèle trop simple

Imagine que tu utilises une simple régression logistique pour distinguer des chats et des chiens dans des photos. Explique pourquoi ce modèle risque de souffrir d'underfitting et quelles architectures seraient plus adaptées.

Prompt trop vague générant une réponse générique

Compare ces deux prompts : 1) 'Parle-moi du marketing' vs 2) 'Décris 3 stratégies de marketing digital pour une startup SaaS B2B en phase de lancement, avec budget limité à 5000€/mois'. Explique pourquoi le premier prompt est une forme d'underfitting.

Prévision de séries temporelles avec trop peu de variables

Un modèle de prévision des ventes utilise uniquement le jour de la semaine comme variable. Il obtient 45% de précision sur les données d'entraînement. Diagnostique le problème et propose des variables supplémentaires pour résoudre l'underfitting.

Usage pratique

En prompt engineering, éviter l'underfitting consiste à fournir suffisamment de contexte, d'exemples et de contraintes dans vos prompts pour obtenir des réponses précises. Si un modèle de langage vous donne des réponses trop génériques ou hors sujet, enrichissez votre prompt avec des détails spécifiques, un rôle défini et des critères de qualité explicites. Pensez à vos prompts comme à des modèles : plus ils sont adaptés à votre besoin, meilleurs seront les résultats.

Concepts liés

OverfittingBiais-Variance TradeoffRégularisationComplexité du modèle

FAQ

Comment savoir si mon modèle souffre d'underfitting ?
Le signe principal est une erreur élevée à la fois sur les données d'entraînement et sur les données de test. Si votre modèle performe mal même sur les données qu'il a déjà vues, il est probablement trop simple pour capturer les patterns. En prompt engineering, l'équivalent est une réponse systématiquement vague ou hors sujet, quel que soit le nombre de tentatives.
Quelle est la différence entre underfitting et overfitting ?
L'underfitting et l'overfitting sont deux extrêmes opposés. L'underfitting signifie que le modèle est trop simple et ne capture pas les patterns (mauvaises performances partout). L'overfitting signifie que le modèle est trop complexe et mémorise les données d'entraînement au lieu de généraliser (excellentes performances en entraînement, mauvaises sur de nouvelles données). L'objectif est de trouver le juste milieu entre les deux.
Comment corriger l'underfitting dans mes prompts ?
Ajoutez de la spécificité : précisez le rôle du modèle, le format de sortie attendu, le ton, le public cible et donnez des exemples concrets de ce que vous attendez (few-shot prompting). Décomposez les tâches complexes en étapes (chain-of-thought). Si la réponse reste trop générique, c'est souvent que votre prompt manque de contraintes ou de contexte suffisant pour guider le modèle.

Voir aussi

Recevez de nouveaux prompts chaque semaine

Rejoignez notre newsletter.