모두를 위한 딥러닝 강좌 시즌 1

1.ML lec(이론) 2 - 선형회귀의 Hypothesis와 cost

post-thumbnail

2.ML lec(이론) 3 - Linear Regression의 cost 최소화 알고리즘 원리

post-thumbnail

3.ML lec(이론) 4 - Multi-variable Linear Regression

post-thumbnail

4.ML lec(이론) 5-1 Logistic Classification 가설 함수

post-thumbnail

5.ML lec(이론) 5-2 Logistic Regression의 Cost Function & Gradient Descent

post-thumbnail

6.ML lec(이론) 6-1 - Softmax Regression 기본 개념

post-thumbnail

7.ML lec(이론) 6-2 - Softmax Classifier의 Cost Function

post-thumbnail

8.ML lec(이론) 7-1 - Learning Rate, Overfitting, 그리고 일반화(Regularization)

post-thumbnail

9.ML lec(이론) 7-2 - Training/Testing Datasets

post-thumbnail

10.ML lec(이론) 8-1 - 딥러닝의 기본 개념: 시작과 XOR 문제

post-thumbnail

11.ML lec(이론) 8-2 - Back Propagation과 2006/2007 '딥'의 출현

post-thumbnail

12.ML lec(이론) 9-1 - Neural Nets(NN) for XOR

post-thumbnail

13.ML lec(이론) 9-x - 10분 안에 미분 정리하기

post-thumbnail

14.ML lec(이론) 9-2 - 딥 네트워크 학습 시키기(back propagation)

post-thumbnail

15.ML lec(이론) 10-1 - Sigmoid 보다 ReLU 가 더 좋아

post-thumbnail

16.ML lec(이론) 10-2 - Weight 초기화 잘 해보자

post-thumbnail

17.ML lec(이론) 10-3 - NN dropout and model ensemble

post-thumbnail

18.ML lec(이론) 11-1 - CNN introduction

post-thumbnail

19.ML lec 11-2 - ConvNet Max pooling과 Full Network

post-thumbnail

20.ML lec(이론) 12 - NN의 꽃 RNN 이야기

post-thumbnail