Playground AI

Eksperymentuj z algorytmami AI bezpośrednio w przeglądarce.

Overfitting vs Underfitting

Overfitting (przeuczenie) to sytuacja, w której model zapamiętuje szum w danych treningowych zamiast uczyć się ogólnych wzorców. Underfitting (niedouczenie) to przeciwny problem — model jest zbyt prosty, by uchwycić rzeczywistą zależność. Kluczem do dobrego modelu jest znalezienie złotego środka, gdzie test loss jest najniższy.

Czego się nauczysz

  • Jak rozpoznać overfitting po rozbieżności train/test loss
  • Dlaczego wyższy stopień wielomianu nie zawsze oznacza lepszy model
  • Jak szum w danych wpływa na ryzyko przeuczenia
  • Jak znaleźć optymalną złożoność modelu

Jak korzystać z wizualizacji

Wizualizacja przeuczenia (overfitting) i niedouczenia (underfitting). Generuj zaszumione dane sinusoidalne, zmieniaj stopień wielomianu (1-15) i obserwuj jak krzywe train loss i test loss rozchodzą się. Czerwona strefa na wykresie strat sygnalizuje overfitting.

Ładowanie wizualizacji...

Poznaj teorię

Wizualizacja to świetny start, ale pełne zrozumienie wymaga teorii. Przeczytaj artykuł w bazie wiedzy, żeby dowiedzieć się jak to naprawdę działa pod maską.

Przeczytaj artykuł →