FSA.log
로그인
FSA.log
로그인
Adam Optimizer
FSA
·
2024년 2월 8일
팔로우
0
0
딥러닝 기초
목록 보기
17/36
1. RMS Prop
기울기가 과하게 커지면, learning rate를 적응적으로 줄이는 방법
기울기가 과하게 커지면, 수렴을 못할 수 있음.
매개변수에 대해 개별적인 학습률을 적용
큰 그래디언트를 가진 매개변수의 학습률은 감소하고, 작은 그래디언트를 가진 매개변수의 학습률은 증가
1.1. 목적
더 빠르고 안정적인 수렴을 도모
비등방성(각 방향으로의 그래디언트 크기가 상이한 경우) 문제를 해결하는 데 유용
2. Momentum
이전 기울기들의 누적 평균을 현재 gradient descent에 반영하는 것.
2.1. 목적
학습 과정을 가속화하고, 불필요한 진동을 줄이며,
지역 최소값(local minima)에 빠지는 것을 방지하는 데 도움
3. Adam Optimizer
Adam optimizer는 모멘텀(momentum)과 RMSprop의 개념을 결합하여, 1차 모멘텀(평균)과 2차 모멘텀(비분산)의 추정치를 모두 사용합니다.
Adam optimizer의 업데이트 규칙은 다음과 같습니다:
3.1. 목적
위 2가지 기법의 목적을 합친 것
FSA
모든 의사 결정 과정을 지나칠 정도로 모두 기록하고, 나중에 스스로 피드백 하는 것
팔로우
이전 포스트
Sharpness-Aware Minimization(SAM) / Weight Decay /
다음 포스트
Mixup Data Augmentation
0개의 댓글
댓글 작성