위의 그래프는 설명변수가 2개인 데이터셋에 대한 두 개의 KNN 적합을 보여준다. KNN 적합은 훈련 관측치를 완벽하게 보간하고 K개 관측치의 평균을 이용하여 계단함수의 형태를 띈다. 왼쪽은 K=1, 오른쪽은 K=9인 경우이다. 최적의 K값은 편향-분산 절충(bias-variance trade off)에 따라 달라질 것이다. K 값이 작으면 적합이 유연해져서 편향은 낮지만, 분산이 클 것이다. K 값이 클수록 적합은 더 평활해지고 변동이 줄어든다.
인공신경망 모델은 인풋, 은닉, 아웃풋 3개의 층(layer)으로 구성되어 있으며 각 층에 있는 노드들이 서로 연결된 네트워크 그래프 형태로 표현된다. 인공신경망 모델은 일단 네트워크 구조가 결정되면, 층간 노드들을 연결하고 있는 연결선의 가중치를 결정하는 것이 핵심이다. 여기에서 가중치는 모수(parameter)이며, 은닉층의 개수, 은닉층에 포함할 노드의 개수 등은 하이퍼모수(hyperparameter)이다. 모수인 가중치를 계산할 때 확률분포의 개념은 사용되지 않는다. 따라서 확률분포 사용 여부를 기준으로 본다면 인공 신경망은 비모수적 모델이다. 따라서 우리는 세미모수적 모델이라는 새로운 개념을 소개해보도록 하겠다.
모수와 비모수의 중간으로, 연결선의 가중치인 모수가 존재하나 이 모수는 확률 분포와는 무관하게 얻어진다.
ex. 인공신경망, 서포트 벡터 머신
References
1. 모수 모델 vs 비모수 모델