좋은 모델이란 무엇인가? 이 질문에 답하기란 생각보다 쉽지 않다. 그렇지만 좋은 모델들이 공통적으로 갖추어야할 공통적인 덕목(?)이 있는데 그것은 바로 다음과 같다.
- 현재 주어진 데이터, 즉 훈련 데이터를 잘 설명할 수 있다.
- 미래에 주어질 데이터, 즉 테스트 데이터도 잘 설명할 수 있어야 한다.
훈련 데이터를 잘 설명하려면 모델이 고차원일수록 유리하다. 그러나 모델의 차원이 증가할수록 차원의 저주에 의해 테스트 데이터에 대한 설명력이 떨어지게 된다. 반면, 모델의 차원이 너무 낮을 경우 반대의 문제에 직면하게 된다. 즉, 첫 번째 조건을 만족하려다보면 오버피팅이 발생할 수 있고, 두 번째 조건을 만족하려다보면 언더피팅이 발생할 수 있다.
오버피팅이 발생하면 데이터의 작은 변동에도 모델이 민감하게 반응한다. 다시 말해, 오버피팅이 발생하면 훈련 데이터가 조금만 바뀌더라도 학습 결과가 완전히 달라질 수 있다. 이 경우를 통계학과 기계학습 분야에서는 모델의 분산이 크다고 부른다. 반대로, 언더피팅은 잘못된 가정으로 모델을 지나치게 단순화함으로 인해 입출력 데이터 간의 적절한 관계를 놓치게 만든다. 따라서 훈련 데이터의 특성이 바뀌더라도 학습 결과는 거의 달라지지 않을 수 있으며, 이 경우를 모델의 편향이 크다고 부른다. 편향은 실제 모델과 학습 모델 간의 차이를 말한다.
[그림 1] Bias와 Variance의 개념 (source: [5])
분산과 편향의 개념을 설명할 때, 가장 자주 등장하는 그림이 바로 [그림 1]이다. 우리는 당연히 분산과 편향이 모두 낮은 모델을 찾고자 한다. 그러나 안타깝게도 분산과 편향은 하나를 줄이면 다른 하나는 증가하는 tradeoff 관계에 있다는 것이 수학적으로 매우 간단히 증명할 수 있으며, 때문에 모델을 일반화하면서 높은 학습 성능을 성취하는 것은 사실상 불가능하다. (이는 마치 detection theory에서 false alarm rate과 detection probability를 동시에 minimize하는 것이 불가능한 것과 같다.)
마지막으로 bias-variance decomposition을 통해 bias-variance tradeoff 관계를 수학적으로 살펴보고 이 글을 마치기로 한다.
먼저 잡음이 포함된 의 관계를 만족하는 어떠한 모델을 생각해보자. 여기서 잡음 는 평균이 0이고 분산이 인 정규분포 따른다. 따라서 이다. 우리는 를 추정하기 위해 학습 알고리즘을 통해 실제 관계함수인 의 근사함수 를 찾았다고 가정해보자.
확률변수 에 대하여
의 관계가 성립하고, 는 이미 결정되어 있는, 즉 deterministic이므로
이 되고, 따라서
가 된다. 그리고 이므로
이 된다. 이제 앞에서 살펴보았던 결과와 함께 와 가 서로 독립인 관계를 이용하여 MSE를 전개하면 다음의 결과를 얻을 수 있다.
위 식으로부터 MSE는 irreducible error와 모델의 분산, 그리고 모델의 편향 제곱에 의해 결정됨을 알 수 있다.
적은 데이터로 훈련을 부족하게 하였을 때 학습된 모델의 적합 능력은 떨어진다. 하지만 훈련 데이터가 조금 변경된다고 해서 학습 모델의 성능에는 큰 변화가 생기지 않는다. 이 경우에는 편향이 오차의 주된 원인이 된다.
반면, 더 많은 데이터로 훈련의 깊이를 증가시켰을 경우에는 충분히 훈련이 되어 모델의 적합 능력은 매우 좋게 된다. 반면, 훈련 데이터에 발생하는 작은 변화에도 학습기 성능은 민감하게 된다. 이는 훈련 데이터의 일반적이지 않은 특성까지 학습기가 배웠기 때문이다.
모델의 복잡도에 따른 분산과 편향의 tradeoff 관계를 그림으로 나타내면 아래와 같다.
[그림 2] 모델 복잡도(model training)에 따른 분산과 편향의 변화 (source: [9])
[1] https://people.eecs.berkeley.edu/~jrs/189s19/lec/12.pdf
[2]김성범, [핵심 머신러닝] 정규화모델 1(Regularization 개념, Ridge Regression)](https://www.youtube.com/watch?v=pJCcGK5omhE&list=PLpIPLT0Pf7IoTxTCi2MEQ94MZnHaxrP0j&index=21)
[3] 조우쯔화 저/김태헌 역, "단단한 머신러닝 머신러닝 기본 개념을 제대로 정리한 인공지능 교과서," 제이펍, 2020.
[4] 오렐리앙 제롱 (박해선 역), "핸즈온 머신러닝 사이킷런과 텐서플로를 활용한 머신러닝, 딥러닝 실무 2판," 한빛미디어, 2020.
[5] https://www.listendata.com/2017/02/bias-variance-tradeoff.html
[6] https://en.wikipedia.org/wiki/Bias%E2%80%93variance_tradeoff
[8] http://www2.econ.osaka-u.ac.jp/~tanizaki/class/2012/econome1/05.pdf