출처: 모두를 위한 딥러닝 강좌 시즌 1 by Sung Kim
Binary Classification(이진 분류)
예시)
- Spam Detection: Spam(1) or Ham(0)
- Facebook feed: show(1) or hide(0)
- Radiology: Malignant tumor(1) or Benign tumor(0)
분류 시에 선형 회귀의 문제점
-
아주 큰 x 값을 포함하여 가설 함수를 세울 경우, 회귀선의 기울기가 기울어져 제대로 분류하지 못할 가능성이 있다.
-
이진 분류에서 결과는 0 또는 1인데, 선형 회귀의 가설 함수를 통한 예측값은 0과 1사이의 값이 아니라, 0보다 훨씬 작거나 1보다 훨씬 큰 값이 나올 수 있다.
Logisic Hypothesis
- 선형 회귀의 모델의 결과를 0과 1 사이의 값으로 압축해주는 함수의 필요성이 생김
- logistic function (= sigmoid function)
- sigmoid: "S"자 처럼 두 방향으로 휘어진 모양
- 입력값이 커질수록 함수의 값이 1에 근접하고, 입력값이 작아질수록 함수의 값이 0에 근접하게 됨.
- 예측값이 0.5 이상이면 1로, 0.5 미만이면 0으로 분류하게 됨
- Logistic Hypothesis는 Logistic Function에서 e의 지수로 Linear Hypothesis를 투입한 것.