Deep Learning[공부용]

1.Loss function, cost function 차이점

post-thumbnail

2.Gradient descent

post-thumbnail

3.다중 클래스 분류와 소프트맥스 함수

post-thumbnail

4.과적합 방지 기법(딥러닝)

post-thumbnail

5.손으로 공부하는 역전파(BackPropagation)

post-thumbnail

6.기울기 소실 문제(Problem Vanishing Gradient)

post-thumbnail

7.최적화 알고리즘 - SGD, Momentum, Nesterov momentum, Adagrad

post-thumbnail

8.최적화 알고리즘 - RMSProp,Adam

post-thumbnail

9.가중치 초기화(Weight initialization)

post-thumbnail

10.Batch Normalization(배치 정규화)

post-thumbnail