[딥러닝] 옵티마이저

기린이·2022년 5월 27일
0

gradient descent를 진행할 때 어떻게 할지가 옵티마이저

모멘텀 : 현재까지 오던 관성

스텝사이즈 : learning rate

두개의 방향성으로 발전했으며,

가장 많이 쓰이는 아담은 모멘텀과 lr 둘다 조절한다.

profile
중요한 것은 속력이 아니라 방향성, 공부하며 메모를 남기는 공간입니다.

0개의 댓글