[TIL_200919] Optimization Algorithms - EWMA, Momemtum, RMS Prop, Adam

Yewon Kim·2020년 9월 20일
0

TIL

목록 보기
91/115

오늘 배운 것

Improving Deep Neural Networks 2주 차

Optimization Algorithms

  • Mini-batch Gradient Descent
    • Batch Gradient Descent : mini-batch size=mm
    • Stochastic Gradient Descent : mini-batch size=1
  • EWMA: Exponentially Weighted Moving Average
  • Bias Correction
  • Gradient Descent with Momemtum
  • RMSprop: Root Mean Square propagation
  • Adam Optimization Algorithm

내일 배울 것

Improving Deep Neural Networks 2주 차

  • Learning Rate Decay
  • Local Optima Problem
profile
산업의 안팎에서 투자의 원칙을 배우고 싶은 학생입니다.

0개의 댓글