Interactive Learning Tool

Pahami Neural Network Secara Visual

Bangun, visualisasikan, dan pelajari proses perhitungan neural network dan deep learning secara interaktif.

Bangun Neural Network

Tambah, hapus, dan ubah layer secara interaktif. Lihat visualisasi real-time.

Proses Perhitungan

Lihat detail setiap langkah forward propagation dengan perhitungan matematika.

Jalankan Forward Pass terlebih dahulu untuk melihat langkah-langkah perhitungan.
Jalankan Forward Pass terlebih dahulu.

🔄 Backpropagation

Backpropagation adalah algoritma untuk menghitung gradient (turunan) dari loss function terhadap setiap weight dan bias dalam network.


Langkah-langkah:

  1. Hitung Error Output: δ = (output - target) × f'(z)
  2. Propagasi Balik: Untuk setiap hidden layer, hitung δ berdasarkan δ layer berikutnya
  3. Hitung Gradient: ∂L/∂w = δ × input, ∂L/∂b = δ
  4. Update Weights: w = w - learning_rate × ∂L/∂w

Coba Training Playground untuk melihat backpropagation beraksi!

Fungsi Aktivasi

Bandingkan berbagai fungsi aktivasi yang digunakan dalam neural network.

Latih Network Anda

Pilih dataset, atur parameter, dan lihat bagaimana network belajar.

XOR
Circle
Spiral
0.3
Epoch
0
Loss
-
Accuracy
-
Loss History

Konsep Utama

Memahami konsep dasar neural network dan deep learning.

🧠

Neuron & Perceptron

Unit dasar neural network. Setiap neuron menerima input, mengalikan dengan weight, menambahkan bias, dan mengaplikasikan fungsi aktivasi: output = f(Σ(wi × xi) + b)

🔄

Forward Propagation

Proses menghitung output dari input melalui setiap layer. Data mengalir dari input layer → hidden layers → output layer secara berurutan.

📉

Loss Function

Mengukur seberapa jauh prediksi network dari target. MSE = ½Σ(target - output)². Tujuan training: meminimalkan loss.

⬅️

Backpropagation

Algoritma untuk menghitung gradient loss terhadap setiap parameter menggunakan chain rule. Gradient mengalir mundur dari output ke input.

📊

Gradient Descent

Algoritma optimasi yang mengupdate weight berdasarkan gradient: w_new = w_old - learning_rate × gradient. Learning rate mengontrol ukuran langkah update.

🏗️

Deep Learning

Neural network dengan banyak hidden layer. Semakin dalam network, semakin kompleks fitur yang dapat dipelajari — dari garis sederhana hingga pola abstrak.