딥러닝 모델의 목표는 학습 데이터뿐만 아니라, 보지 못한 새로운 데이터에서도 잘 동작하는 것 — 이를 일반화 능력이라고 한다.
기대 위험(Expected Risk)인 를 최소화하는 것이 목표지만, 분포 D는 알 수 없기 때문에 경험 위험(Empirical Risk)인 를 최소화하는 방식으로 접근한다.
Train을 통해 모델을 최적화하고, Test에서 일반화 성능을 평가하는 구조이며, 서로 다른 데이터셋을 사용해야 한다.
Training Loss
Validation Loss
두 가지 평가 기준
1. Training loss를 얼마나 줄일 수 있는가
2. Training loss와 Validation loss 간의 차이
Training loss는 매우 낮지만 Validation loss가 높은 경우는 과적합(overfitting), 둘 다 낮지 않으면 과소적합(underfitting)에 해당한다.
통계적 표현에서
일반화 성능은 이 둘의 합—MSE—를 최소화하는 것이 중요
모델이 복잡할수록 Bias는 줄지만 Variance는 커지고, 단순할수록 그 반대이므로 적절한 균형을 찾는 것이 핵심이다.