Playground AI

Eksperymentuj z algorytmami AI bezpośrednio w przeglądarce.

Backpropagation

Backpropagation (propagacja wsteczna) to algorytm, który umożliwia sieciom neuronowym naukę. Oblicza on gradienty funkcji straty względem każdej wagi w sieci, propagując błąd od wyjścia z powrotem do wejścia. Bez tego algorytmu trening głębokich sieci byłby niemożliwy — to on zamienia abstrakcyjny błąd w konkretne instrukcje aktualizacji wag.

Czego się nauczysz

  • Jak przebiega forward pass — od danych do predykcji
  • Czym jest gradient i jak przepływa wstecz przez sieć
  • Jak oblicza się błąd i aktualizuje wagi
  • Dlaczego reguła łańcuchowa jest kluczowa dla backpropagation

Jak korzystać z wizualizacji

Animacja propagacji wstecznej krok po kroku na prostej sieci 2-2-1. Przejdź przez forward pass, obliczenie straty, backward pass (gradienty) i aktualizację wag. Na każdym kroku widzisz dokładne wartości liczbowe.

Ładowanie wizualizacji...

Poznaj teorię

Wizualizacja to świetny start, ale pełne zrozumienie wymaga teorii. Przeczytaj artykuł w bazie wiedzy, żeby dowiedzieć się jak to naprawdę działa pod maską.

Przeczytaj artykuł →