1. 개요
지도학습, 교사학습이라고 한다.
- 학습할 때 목표 출력 값 (target ouput)이 함께 제공된다.
- 학습을 안내하고 지도해주는 supervisor(교사)가 존재
- D={(xi,yi)}i=1,....N
- 분류문제와 회귀문제에 적합하다.
- Bayes 분류기, K-NN 분류기, Linear Regression, Logistic Regression, Decision Tree, Random Forest, SVM, CNN, RNN 등...
2. Bayes Classifier
베이즈 정리로부터 유도된 결정 경계를 이용한 분류기
xnew -> P(Ck∣xnew) -> xnew∈Ci
- xnew 데이터가 주어졌을 때, 해당 데이터가 클래스 Ck에 속할 확률
- 하지만 이 값은 P(xnew∣Ck)를 통해서 구할 수 있다.
이분류 문제
x∈C1 or x∈C2 ?
- x가 각 클래스에 속할 확률 P(C1∣x), P(C2∣x) 중
확률 값이 가장 큰 클래스로 할당
판별 함수
- g(x)=P(C1∣x)−P(C2∣x)
이 때, P(C1∣x),P(C2∣x)를 어떻게 구하느냐가 관건인데,
Bayes 정리를 사용하면 된다.
- P(Ck∣x)=P(x)p(x∣Ck)p(Ck)
- P(Ck∣x) : 후험확률 (사후 확률)
- P(Ck) : 선험확률 (사전 확률)
- g(x)=P(x)p(x∣C1)p(C1)−P(x)p(x∣C2)p(C2)
- p(x∣C1) : 클래스1에 대한 확률 밀도 함수
- p(x∣C2) : 클래스2에 대한 확률 밀도 함수
결정 경계
g(x)=P(x)p(x∣C1)p(C1)−P(x)p(x∣C2)p(C2)=0
- P(x)p(x∣C1)p(C1)
-
gLRT(x)=p(x∣C1)p(C1)−p(x∣C2)p(C2)>0
-
gLRT(x)=p(x∣C1)p(C1)−p(x∣C2)p(C2)<0
결정 규칙
y(x)={1,ifgLRT(x)>0−1,otherwise
분류 과정
3. Decision Boundary and Error of Bayes Classifier
오류 확률 ( Probability of Error )
- 결정경계로부터 얻어진 결정규칙이 오류를 발생시킬 확률
- 두 개의 클래스 분류 문제에서 발생하는 오류
- 클래스 C1에 속하는 데이터 x를 C2에 속한다고 판단하는 오류
- 클래스 C2에 속하는 데이터 x를 C1에 속한다고 판단하는 오류
오류확률
-
Perr=Prob{x∈R2,x∈C1}+Prob{x∈R1,x∈C2}
-
Perr=p(C1)∫R2p(x∣C1)dx+p(C2)∫R1p(x∣C2)dx
= p(C1)ε1+p(C2)ε2
클래스 Ci에 속하는 데이터를 바르게 판단할 확률
- Prob{x∈Ri,x∈Ci}=∫Rip(x∣Ci)p(Ci)dx
= p(Ci)∫Rip(x∣Ci)dx
M개의 클래스에 대한 정분류 확률
- Pcorrect=i=1∑Mp(Ci)∫Rip(x∣Ci)dx
= i=1∑M∫Rip(Ci∣x)p(x)dx
p(Ci∣x)를 최대로 해야 다중 클래스 분류에서
바르게 분류할 최대 확률을 구할 수 있다.
4. Gausian Distribution and Bayes Classifier
가우시안 확률분포를 가정한 베이즈 분류기
- 평균과 공분산에 의해서 결정된다.
- gi(x)=p(x∣Ci)p(Ci)
= lngi(x)=lnp(x∣Ci)
공분산 행렬의 형태에 따른 판별 함수
클래스 공통 단위 공분산 행렬 (실제 문제에서는 한계가 있음)
- i∑=σ2I
판별함수
- li(x)=−2σ21(x−μi)T(x−μi)−lnσ+const
결정 규칙
- y(x)=argmini{(x−μi)T(x−μi)}
- 입력 데이터와 평균과의 거리를 계산해서
가장 작은 값을 가지는 클래스로 분류
클래스 공통 공분산 행렬 (타원형 형태의 데이터 분포)
- i∑=∑
판별 함수
- li(x)=−21(x−μi)T(∑)−1(x−μi)
결정 규칙
- y(x)=armini{(x−μi)T(∑)−1(x−μi)}
- (∑)−1: 공분산
일반적인 공분산 행렬 (서로 다른 타원형 분포)
- i∑=j∑
결정 규칙
- y(x)=argmini{(x−μi)T(∑)i−1(x−μi)+ln∣(∑)i∣}