Underfitting

Wprowadzenie

Underfitting (niedopasowanie modelu) występuje, gdy model jest zbyt prosty, aby uchwycić rzeczywiste zależności w danych. Model nie radzi sobie dobrze ani na danych treningowych, ani na danych testowych – ma wysoki błąd bias.

Objawy Underfittingu

  • Wysoki błąd treningowy (train loss)
  • Wysoki błąd walidacyjny/testowy
  • Model nie jest w stanie dobrze aproksymować danych
  • Niska dokładność zarówno na zbiorze treningowym, jak i testowym

Przyczyny Underfittingu

  • Zbyt prosta architektura modelu (np. liniowa regresja na nieliniowych danych)
  • Zbyt mało cech (feature engineering)
  • Zbyt krótki trening modelu
  • Zbyt silna regularyzacja (np. duże L1/L2, duże dropout)
  • Za mała pojemność modelu (np. zbyt płytka sieć neuronowa)

Underfitting vs Overfitting

  • Underfitting – model zbyt prosty (wysoki bias, niska wariancja)
  • Overfitting – model zbyt skomplikowany (niski bias, wysoka wariancja)

Jak walczyć z Underfittingiem?

  • Zwiększenie złożoności modelu (więcej warstw, neuronów, drzew decyzyjnych)
  • Dodanie nowych, bardziej informacyjnych cech
  • Zmniejszenie siły regularyzacji
  • Trening przez dłuższą liczbę epok
  • Użycie bardziej zaawansowanych architektur (np. Transformer zamiast prostego MLP)
  • Lepsza inicjalizacja wag i funkcje aktywacji

Aktualny status (2026)

Underfitting jest szczególnie widoczny przy pracy z małymi modelami oraz w sytuacjach, gdy próbujemy stosować bardzo silną regularyzację lub zbyt proste architektury na skomplikowanych danych. W praktyce data scientistów celem jest znalezienie złotego środka między underfittingiem a overfittingiem – tzw. sweet spot modelu.