Wprowadzenie
Underfitting (niedopasowanie modelu) występuje, gdy model jest zbyt prosty, aby uchwycić rzeczywiste zależności w danych. Model nie radzi sobie dobrze ani na danych treningowych, ani na danych testowych – ma wysoki błąd bias.
Objawy Underfittingu
- Wysoki błąd treningowy (train loss)
- Wysoki błąd walidacyjny/testowy
- Model nie jest w stanie dobrze aproksymować danych
- Niska dokładność zarówno na zbiorze treningowym, jak i testowym
Przyczyny Underfittingu
- Zbyt prosta architektura modelu (np. liniowa regresja na nieliniowych danych)
- Zbyt mało cech (feature engineering)
- Zbyt krótki trening modelu
- Zbyt silna regularyzacja (np. duże L1/L2, duże dropout)
- Za mała pojemność modelu (np. zbyt płytka sieć neuronowa)
Underfitting vs Overfitting
- Underfitting – model zbyt prosty (wysoki bias, niska wariancja)
- Overfitting – model zbyt skomplikowany (niski bias, wysoka wariancja)
Jak walczyć z Underfittingiem?
- Zwiększenie złożoności modelu (więcej warstw, neuronów, drzew decyzyjnych)
- Dodanie nowych, bardziej informacyjnych cech
- Zmniejszenie siły regularyzacji
- Trening przez dłuższą liczbę epok
- Użycie bardziej zaawansowanych architektur (np. Transformer zamiast prostego MLP)
- Lepsza inicjalizacja wag i funkcje aktywacji
Aktualny status (2026)
Underfitting jest szczególnie widoczny przy pracy z małymi modelami oraz w sytuacjach, gdy próbujemy stosować bardzo silną regularyzację lub zbyt proste architektury na skomplikowanych danych. W praktyce data scientistów celem jest znalezienie złotego środka między underfittingiem a overfittingiem – tzw. sweet spot modelu.