거리를 측정하는 방법은 다양한 방법이 있지만 Minkowski distance을 알아본다. dist(x,z)=(∑r=1d∣xr−zr∣p)p1
다음과 같이 나타낸다.
p = 1 (Manhatttan Distance (l1-norm)) dist(x,z)=∑r=1d∣xr−zr∣
p = 2 (Euclidean Distance (l2-norm)) dist(x,z)=∑r=1d∣xr−zr∣2
Choosing the Hyperparameter K
k의 값이 증가할 수록 variance는 감소하지만, bias는 증가한다. (high training error, but low test error) 즉, underfitting이 발생한다.
k의 값이 감소할 수록 variance는 증가하지만, bias는 감소한다. (low training error, but high test error) 즉, overfitting이 발생한다.
이산적인 k의 값은 다음과 같다. k<N
Scale and Normalization
만약 어떤 feature가 큰 범위를 가진다면, 중요한 정보를 다룬다. 하지만 Euclidean distance는 모든 dimension에 대해 동등한 scale을 가져야 한다. 이를 위해 normalizing scale을 가져야 한다. 이는 [0, 1]의 범위를 갖는다. 이때 공식은 다음과 같다. σ(xi−μ)