Playground AI
Eksperymentuj z algorytmami AI bezpośrednio w przeglądarce.
Backpropagation
Backpropagation (propagacja wsteczna) to algorytm, który umożliwia sieciom neuronowym naukę. Oblicza on gradienty funkcji straty względem każdej wagi w sieci, propagując błąd od wyjścia z powrotem do wejścia. Bez tego algorytmu trening głębokich sieci byłby niemożliwy — to on zamienia abstrakcyjny błąd w konkretne instrukcje aktualizacji wag.
Czego się nauczysz
- Jak przebiega forward pass — od danych do predykcji
- Czym jest gradient i jak przepływa wstecz przez sieć
- Jak oblicza się błąd i aktualizuje wagi
- Dlaczego reguła łańcuchowa jest kluczowa dla backpropagation
Jak korzystać z wizualizacji
Animacja propagacji wstecznej krok po kroku na prostej sieci 2-2-1. Przejdź przez forward pass, obliczenie straty, backward pass (gradienty) i aktualizację wag. Na każdym kroku widzisz dokładne wartości liczbowe.
Poznaj teorię
Wizualizacja to świetny start, ale pełne zrozumienie wymaga teorii. Przeczytaj artykuł w bazie wiedzy, żeby dowiedzieć się jak to naprawdę działa pod maską.
Przeczytaj artykuł →