Playground AI
Eksperymentuj z algorytmami AI bezpośrednio w przeglądarce.
Overfitting vs Underfitting
Overfitting (przeuczenie) to sytuacja, w której model zapamiętuje szum w danych treningowych zamiast uczyć się ogólnych wzorców. Underfitting (niedouczenie) to przeciwny problem — model jest zbyt prosty, by uchwycić rzeczywistą zależność. Kluczem do dobrego modelu jest znalezienie złotego środka, gdzie test loss jest najniższy.
Czego się nauczysz
- Jak rozpoznać overfitting po rozbieżności train/test loss
- Dlaczego wyższy stopień wielomianu nie zawsze oznacza lepszy model
- Jak szum w danych wpływa na ryzyko przeuczenia
- Jak znaleźć optymalną złożoność modelu
Jak korzystać z wizualizacji
Wizualizacja przeuczenia (overfitting) i niedouczenia (underfitting). Generuj zaszumione dane sinusoidalne, zmieniaj stopień wielomianu (1-15) i obserwuj jak krzywe train loss i test loss rozchodzą się. Czerwona strefa na wykresie strat sygnalizuje overfitting.
Poznaj teorię
Wizualizacja to świetny start, ale pełne zrozumienie wymaga teorii. Przeczytaj artykuł w bazie wiedzy, żeby dowiedzieć się jak to naprawdę działa pod maską.
Przeczytaj artykuł →