Neural network từ con số 0
Bài đầu tiên của series Deep Learning. Chúng ta sẽ tự code một perceptron đơn giản bằng numpy thuần — không TensorFlow, không PyTorch.
Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework. Mục tiêu là hiểu cơ chế forward pass và backward pass mà không bị che khuất bởi framework.
Forward pass
Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation. Tín hiệu đi qua các layer, mỗi neuron tính tổ hợp tuyến tính rồi áp dụng activation.
Backward pass
Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss. Gradient descent cập nhật weight dựa vào đạo hàm của loss.