yewonkim
로그인
yewonkim
로그인
[TIL_200919] Optimization Algorithms - EWMA, Momemtum, RMS Prop, Adam
Yewon Kim
·
2020년 9월 20일
팔로우
0
TIL
0
TIL
목록 보기
91/115
오늘 배운 것
Improving Deep Neural Networks 2주 차
Optimization Algorithms
Mini-batch Gradient Descent
Batch Gradient Descent : mini-batch size=
m
m
m
Stochastic Gradient Descent : mini-batch size=1
EWMA: Exponentially Weighted Moving Average
Bias Correction
Gradient Descent with
Momemtum
RMSprop
: Root Mean Square propagation
Adam
Optimization Algorithm
내일 배울 것
Improving Deep Neural Networks 2주 차
Learning Rate Decay
Local Optima Problem
Yewon Kim
산업의 안팎에서 투자의 원칙을 배우고 싶은 학생입니다.
팔로우
이전 포스트
[TIL_200918] Optimization Problem - Gradient Checking
다음 포스트
[TIL_200920] Learning Rate Decay / Local Optima / Hyperparameter Tuning
0개의 댓글
댓글 작성