Logistic regression과 다른 방법으로도 classification을 진행할 수 있다.
각 class 별 X의 distribution을 modeling하고, Bayes theorem을 적용해 Pr(Y∣X)를 얻는다. 이를 discriminant analysis 방법이라고 한다.
Bayes Theorem for Classification
X=x 일 때, Y=k에 대한 conditional probability에 대해 Bayes theorem을 적용하면 다음과 같이 표현할 수 있다.
Pr(Y=k∣X=x)=Pr(X=x)Pr(X=x∣Y=k)⋅Pr(Y=k)
Pr(Y=k)와 Pr(X=x)는 data를 통해 쉽게 알 수 있다. 또한, condition이 X일 때보다 Y일 경우에 각 condition 별 data sample의 개수가 훨씬 많아지기 때문에 distribution을 추정하기 용이하다.
위 식을 다음과 같이 표현하자.
Pr(Y=k∣X=x)=∑l=1Kπlfl(x)πkfk(x)
fk(x)=Pr(X=x∣Y=k): density for X in class k
여기서는 gaussian distribution으로 가정
πk(x)=Pr(Y=k): prior probability for class k
이를 이용하면, 새로운 data point X=x에 대해 다음과 같이 class를 정할 수 있다.
각 k에 대해 πkfk(x)를 계산
가장 높은 값을 갖는 class k로 x를 할당
Discriminant Analysis vs. Logistic Regression
현실에서는 별로 그럴 일은 없지만, data가 well-seperated 되어있는 경우에 logistic regression model은 unstable하다 (결과의 차이는 없을지라도). 하지만 discriminant analysis을 사용하면 안정적인 model을 가질 수 있다.
또한, X의 distribution이 어느정도 예측이 되는 경우(특히 normal에 가까울 때)에는 X의 density를 보다 정확하게 가정할 수 있으므로 더욱 안정적인 model을 만들 수 있다.
추가적으로 Multiclass classification 문제에서 logistic regression에 비해 보다 low-dimensional view를 제공할 수 있다.
Linear Discriminant Analysis (LDA)
When p=1
fk(x)가 Gaussian density를 따르고 (Gaussian을 따른다고 가정하면 많은 부분에서 편리해진다), 모든 k에 대해 σk=σ라고 가정하자.