
본 내용은 인하대학교 정보통신공학과 홍성은 교수님의 인공지능응용 강의내용을 기반으로 작성한 내용입니다.












정답O와 정답X의 차이가 k보다 작으면(정답O가 정답X+k 보다 더 크면) loss=0이다.(k는 하이퍼 파라미터)
max(0, 정답X1 - 정답O + k)
max(0, 정답X2 - 정답O + k)
...
위 값들을 더해준 값이 각 이미지의 Loss가 된다.

max(0, 5.1-3.2+1) + max(0, -1.7-3.2+1) = 2.9
max(0, 1.3-4.9+1) + max(0, 2.0-4.9+1) = 0
max(0, 2.2-(-3.1)+1) + max(0, 2.5-(-3.1)+1) = 12.9
위 3개의 Loss의 평균 = 5.27
아래 문제 풀어보기

Q1. 이 training 예제에서 Car score가 0.5 감소하면 손실은 어떻게 됩니까?
Q2. 각 이미지 별 가능한 최소/최대 SVM 손실 L은 얼마입니까?
Q3. 초기 score는 모두 0에 가까운 작은 값이라 할 때, N개의 예제와 C 클래스를 가정할 때 손실 L은 얼마입니까?


다중 분류에서 계산된 Score 값의 크기를 고려하여 합이 1이 되도록 변환해준다.
① y = exp(x) → 값의 양수화 + 큰 값은 더 커지고, 작은 값은 더 작아진다.

② Normalize : Sum to 1
- logits : input x가 수많은 Weight층을 거쳐서 나오는 값(raw score)
- logits을 확률값으로 변환한다.




Entropy : 불확실성, 무질서도, 값을 예측하기 힘든 정도
동전 던지기를 생각해보자. 앞면과 뒷면이 나올 확률이 반반이지만, 항상 50%의 확률이 아니기 때문에 값을 예측하기 힘들다.
주사위 던지기를 생각해보면, 동전 던지기보다 값을 예측하기 더 힘들다. 이 때 주사위 던지기의 Entropy가 더 크다고 할 수 있다. 계산 식은 아래와 같다.

Cross Entropy는 두 확률 분포를 모두 고려하여 확률 분포의 차이를 산출한다.

★ 불일치 척도를 계산하는 3가지 방법이 있다.

KL Divergence(쿨백-라이블러 발산)

p의 엔트로피(H(p))에 Cross-Entropy를 더한 것.

