FSA.log
로그인
FSA.log
로그인
Sharpness-Aware Minimization(SAM) / Weight Decay /
FSA
·
2024년 1월 20일
팔로우
0
0
딥러닝 기초
목록 보기
16/36
1.
Sharpness-Aware Minimization (SAM):
SAM은 모델의 일반화 능력을 향상시키기 위한 최적화 기법
전통적인 훈련 방식은 데이터에 대한 모델의 예측 오차(손실)를 최소화하는 것에 중점을 둠
그러나 SAM은 손실 함수의 '날카로움'도 고려합니다.
손실 함수의 날카로운 최소값은 훈련 데이터에는 잘 맞지만 새로운 데이터에는 잘 작동하지 않을 수 있습니다.
SAM은 이러한 날카로운 최소값을 피하고, 더 평평한 최소값을 찾아 모델이 새로운 데이터에도 잘 작동하도록 돕습니다.
근방 최적화 단계
깊은 골짜기에서 최대한 빠르게 빠져나올 수 있는 방향으로 빠져나오는 단계
2.
가중치 감소 (Weight Decay):
학습 파라미터(weights)의 크기를 제한하여 과적합(overfitting)을 방지하는 방법
과적합은 모델이 훈련 데이터에는 매우 잘 맞지만 새로운 데이터에는 잘 작동하지 않는 상황을 의미합니다.
가중치 감소는 모델의 가중치가 너무 크게 변하지 않도록 제한하여, 모델이 훈련 데이터의 노이즈에 덜 민감하게 만듭니다.
FSA
모든 의사 결정 과정을 지나칠 정도로 모두 기록하고, 나중에 스스로 피드백 하는 것
팔로우
이전 포스트
MoCO: Momentum Contrast for Unsupervised Visual Representation Learning
다음 포스트
Adam Optimizer
0개의 댓글
댓글 작성