Playground AI

Eksperymentuj z algorytmami AI bezpośrednio w przeglądarce.

KNN Classifier

K-Nearest Neighbors (KNN) to jeden z najprostszych algorytmów klasyfikacji — nowy punkt otrzymuje klasę najczęściej występującą wśród jego K najbliższych sąsiadów. Nie wymaga treningu — „uczy się" bezpośrednio z danych. Wartość K decyduje o gładkości granicy decyzyjnej: małe K daje złożoną granicę (ryzyko overfittingu), duże K — gładką (ryzyko underfittingu).

Czego się nauczysz

  • Jak wartość K wpływa na granicę decyzyjną
  • Czym różnią się metryki euklidesowa i Manhattan
  • Dlaczego KNN nie wymaga fazy treningu
  • Jak ocenić dokładność metodą leave-one-out

Jak korzystać z wizualizacji

Interaktywna klasyfikacja K najbliższych sąsiadów (KNN) na wykresie 2D. Dodawaj punkty 3 klas, zmieniaj K (1-15), wybierz metrykę odległości (euklidesowa, Manhattan) i obserwuj granicę decyzyjną. Żółte linie łączą punkt zapytania z K sąsiadami.

Ładowanie wizualizacji...

Poznaj teorię

Wizualizacja to świetny start, ale pełne zrozumienie wymaga teorii. Przeczytaj artykuł w bazie wiedzy, żeby dowiedzieć się jak to naprawdę działa pod maską.

Przeczytaj artykuł →