| Binary Classification | Multi-Class Classfication |
---|
Output Layer Act. Func | sigmoid | softmax |
Cost Function | mean of Cross-Entropy | mean of Cross-Entropy |
da (GD) | | da = a - y |
| | |
1. Softmax Function : Output Layer Activation Function
입력값들을 확률로 변환해주는 함수.
ai[l]=∑kezk[l]ezi[l]
▶️ multi-class Classification 문제의 output layer act. func.
cf) hardmax → [0, 1, 0, 0]
2. Loss Function
- Cross-Entropy를 로스 함수로 사용
- maximum likelihood principle에 의해 가능
- argminW,b(−logy^i)=argmaxW,b(y^i)=argmaxW,b(p(yi∣W,b))
m개 data 의 cost function은 E(Loss) 이다.
3. Gradient Descent with Softmax
dz=dzdJ=y^−y
proof of dz