<SVM loss 구하는 공식>
SVM loss를 사용하여 Loss=0 인 Weight 값을 구했다면 과연 Loss=0일 때 Weight 값이 유일한 값일까?!
만약! Loss=0일 때 을 한다면 Loss 값은?!
즉, weight 를 제곱하여 구한 Loss의 값 또한 0으로 나오기 떄문에 해당 Weight의 값은 유일한 값이라고 할 수 없다!
<과대적합된 경우>
모델이 과적합되면 훈련 데이터에 대한 정확도는 높을지라도, 새로운 데이터. 즉, 검증 데이터나 테스트 데이터에 대해서는 제대로 동작하지 않는 문제가 있다.
모델 학습이 과적합된 경우에는 학습 데이터에서 불필요한 요소 (noise)까지 학습한 상태로 볼 수 있다.
<우리가 하고 싶은 최종 예측 모양>
사각형이 test 데이터를 뜻함.
regularization을 직역하면 정규화로 번역되지만 일반화라고 번역하는 것이 더 적합하다.
regularization을 활용하여 model이 train data에 overfitting (과대적합)되는 것을 방지하여 test data를 적용하면 좋은 결과를 얻을 수 있다.
💡 즉, unique한 weight 값을 결정하기 위해서 regularization이 생긴 것이다. regularization를 활용하여 weight가 얼마나 괜찮은지 측정할 수 있다. (data loss 부분은 train data에 일반화, regulatization은 test에 일반화하려는 것)<SVM loss에 regularization을 적용한 식>
regularization strength로 하나의 hyperparameter를 뜻한다.
regularization은 위의 이미지를 봐도 많이 있지만 L2 regularization이 가장 많이 사용된다.
x=[1,1,1,1]일 때 w1을 활용한 data loss = 1, w2일 때는 data loss= 1로 같은 결과값을 가진다.
regularization은 weight가 특정 값만 영향을 주는 것보다 모든 원소값에 영향을 주는 것(diffuse over everything)을 선호하기 때문에 w1보다 w2를 더 선호한다.
원본 사이트
https://leather-pedestrian-89b.notion.site/Regularization-85f701af9726443b8217739b1e7508a2