Playground AI
Eksperymentuj z algorytmami AI bezpośrednio w przeglądarce.
Gradient descent
Gradient descent (spadek gradientowy) to podstawowy algorytm optymalizacji w uczeniu maszynowym. Działa jak schodzenie ze wzgórza w gęstej mgle — w każdym kroku sprawdza nachylenie terenu i porusza się w kierunku największego spadku. Parametry takie jak learning rate i momentum decydują o tym, czy algorytm dotrze do minimum globalnego, utknie w minimum lokalnym, czy całkowicie się rozstrzeli.
Czego się nauczysz
- Jak learning rate wpływa na zbieżność i stabilność
- Czym jest momentum i jak pomaga pokonywać minima lokalne
- Dlaczego punkt startowy ma znaczenie
- Jak rozpoznać punkt siodłowy i minimum lokalne
Jak korzystać z wizualizacji
Wizualizacja optymalizacji na powierzchni funkcji kosztu. Kliknij żeby ustawić punkt startowy, ustaw learning rate i momentum, i obserwuj jak punkt schodizi w kierunku minimum. Wybierz jedną z 3 funkcji (kwadratowa, Rosenbrock, punkt siodłowy).
Poznaj teorię
Wizualizacja to świetny start, ale pełne zrozumienie wymaga teorii. Przeczytaj artykuł w bazie wiedzy, żeby dowiedzieć się jak to naprawdę działa pod maską.
Przeczytaj artykuł →