Sieci neuronowe

Sztuczne sieci neuronowe — od perceptronu po głębokie sieci, backpropagation i architektury.

Artykuły w tym temacie

Perceptron — jak działa najprostsza sieć neuronowa?

Perceptron to najprostsza sieć neuronowa — pojedynczy sztuczny neuron, który potrafi się uczyć. Poznaj jego budowę, algorytm uczenia i ograniczenia. Przetest...

10 min czytania

Funkcje aktywacji w sieciach neuronowych — ReLU, Sigmoid, Tanh

Funkcje aktywacji decydują o „pobudzeniu" neuronu i wprowadzają nieliniowość do sieci neuronowej. Porównanie ReLU, Sigmoid, Tanh, Leaky ReLU i GELU — kiedy u...

9 min czytania

Propagacja wsteczna (backpropagation) — jak sieć się uczy

Backpropagation to algorytm obliczający gradienty w sieci neuronowej, umożliwiający uczenie się z błędów. Krok po kroku wyjaśniamy propagację wsteczną — od i...

12 min czytania

Konwolucyjne sieci neuronowe (CNN) — rozpoznawanie obrazów

Konwolucyjne sieci neuronowe (CNN) to architektura AI stworzona do przetwarzania obrazów. Poznaj warstwy konwolucyjne, pooling, filtry i zastosowania CNN — o...

13 min czytania

Gradient descent — optymalizacja sieci neuronowych

Gradient descent (spadek gradientowy) to algorytm optymalizacji minimalizujący funkcję straty sieci neuronowej. Poznaj warianty SGD, mini-batch i Adam — z in...

10 min czytania

Rekurencyjne sieci neuronowe (RNN) i LSTM — przetwarzanie sekwencji

Rekurencyjne sieci neuronowe (RNN) przetwarzają dane sekwencyjne — tekst, mowę, szeregi czasowe. LSTM i GRU rozwiązują problem zanikającego gradientu. Poznaj...

10 min czytania

Sieci generatywne (GAN) — jak AI tworzy obrazy

Generative Adversarial Networks (GAN) to architektura dwóch rywalizujących sieci neuronowych — generatora i dyskryminatora. Poznaj zasadę działania, warianty...

10 min czytania

Autoencodery — kompresja i generowanie danych

Autoencoder to sieć neuronowa ucząca się kompresować dane do zwartej reprezentacji i odtwarzać je z niej. Poznaj warianty — VAE, denoising, sparse — oraz zas...

9 min czytania

Overfitting i underfitting — jak uniknąć przeuczenia sieci

Overfitting (przeuczenie) i underfitting (niedouczenie) to dwa kluczowe problemy w treningu sieci neuronowych i modelach ML. Poznaj przyczyny, metody detekcj...

9 min czytania

Transfer learning — jak wykorzystać wytrenowany model

Transfer learning to technika wykorzystania wiedzy z modelu wytrenowanego na dużym zbiorze danych do nowego zadania. Poznaj strategie fine-tuningu, feature e...

8 min czytania