1. 로지스틱 회귀의 개요
2. 분류 문제와 결정 경계
분류(Classification)는 특정 입력에 대해 출력이 카테고리(클래스)로 나오는 문제
- 대표 예시:
스팸 여부, 종양의 악성 여부, 사기 거래 탐지
일반적으로 출력 레이블은 0(False) 또는 1(True)로 표현함
- 로지스틱 회귀는 다음과 같은 함수 구조를 가짐:
f(x)=1+e−z1,z=w⋅x+b
3. 시그모이드 함수
정의:
g(z)=1+e−z1
- z→+∞ 일 때 g(z)→1
- z→−∞ 일 때 g(z)→0
- z=0일 때 g(z)=0.5
출력값은 항상 0과 1 사이이며, 1일 확률로 해석 가능
4. 예측과 분류 기준
- 로지스틱 회귀의 예측값 f(x)는 확률로 해석
- 일반적으로 다음과 같은 기준을 사용
임계값 기준:
- f(x)≥0.5 →
y = 1 예측
- f(x)<0.5 →
y = 0 예측
0.5는 가장 일반적인 임계값, 문제에 따라 조정 가능
5. 비용 함수 (Cost Function)
제곱 오차는 비선형 분류 문제에 적합하지 않음 → 로그 손실 함수 사용
Loss(f,y)=−ylog(f)−(1−y)log(1−f)
J(w,b)=m1∑i=1mLoss(f(i),y(i))
- m: 훈련 샘플 개수
- f(i): i번째 예측값, y(i): 실제 레이블
이 함수는 볼록(convex)하여 경사 하강법으로 최적화 가능
6. 경사 하강법 (Gradient Descent)
비용 함수를 최소화하기 위해 반복적으로 가중치와 편향을 조정하는 알고리즘
wj:=wj−α⋅m1∑i=1m(f(i)−y(i))⋅xj(i)
b:=b−α⋅m1∑i=1m(f(i)−y(i))
학습률이 너무 크면 발산하고, 작으면 수렴 속도가 느림
7. 결정 경계의 확장: 다항 로지스틱 회귀
예시:
f(x)=g(w1x12+w2x22+b)
단, 복잡한 모델일수록 과적합(overfitting)에 주의해야 함