Những ghi chép này đi kèm với lớp Khoa học máy tính của ĐH Standford CS231n: Mạng neuron tích chập cho Nhận dạng trực quan.
Để đặt câu hỏi/đề cập/thông báo lỗi, liên hệ Justin Johnson liên quan trực tiếp tới công việc, hoặc liên hệ Andrej Karpathy liên quan tới các ghi chú của khóa học. Bạn cũng có thể tạo trực tiếp các pull request vào git repo của chúng tôi. (Lời người dịch: đối với những câu hỏi liên quan trực tiếp tới bản Tiếng Việt, bạn có thể issues hoặc tạo pull request ngay trên repo Tiếng Việt này)
Chúng tôi khuyến nghị sử dụng hypothes.is extension để viết bình luận.
Bài trình bày Mùa xuân 2018
Module 0: Chuẩn bị
Module 1: Mạng neuron
Phân loại tuyến tính: Máy vector hỗ trợ, Softmax
cách tiếp cận tham số, thủ thuật độ chệch, hàm mất mát hinge, hàm mất mát cross-entropy, cơ chế kiểm soát L2, web demo
Tối ưu hóa: Hạ dốc ngẫu nhiên
tối ưu hóa phong cảnh, tìm kiếm cục bộ, tỷ lệ học, phân tích/số hóa đường dốc
Lan truyền ngược, Trực giác
diễn giải quy tắc chuỗi, các chu trình giá trị thật, các mẫu trong luồng dốc
Các mạng neuron phần 1: Thiết lập kiến trúc
mô hình của neuron sinh học, các hàm kích hoạt, kiến trúc mạng neuron, sức mạnh đại diện
Các mạng neuron phần 2: Thiết lập dữ liệu và hàm mất mát
tiền xử lý, khởi tạo trọng số, chuẩn hóa batch, sự chính quy hóa (L2/dropout), các hàm mất mát
Các mạng neuron phần 3: Quá trình học và đánh giá
kiểm tra độ dốc, kiểm tra sự đúng đắn, giữ trẻ quá trình học, momentum (+nesterov), các phương pháp đặt hàng lần thứ hai, Adagrad/RMSprop, tối ưu hóa siêu tham số, tập hợp mô hinh
Đặt lại với nhau: Các bài học về mạng neuron tối thiểu
ví dụ với tập dữ liệu tối thiểu 2D
Module 2: Các mạng neuron tích chập
Các mạng neuron tích chập: Các kiến trúc, Tầng tích chập / Gộp
các tầng, sắp xếp không gian, các mẫu tầng, các mẫu kích thước tầng, các bài học về AlexNet/ZFNet/VGGNet, xem xét sự tính toán
Hiểu và trực quan hóa các mạng neuron
nhúng tSNE, deconvnets, độ dốc dữ liệu, qua mặt ConvNets, sự so sánh với con người