1. 로지스틱 회귀의 개요

2. 분류 문제와 결정 경계

  • 분류(Classification)는 특정 입력에 대해 출력이 카테고리(클래스)로 나오는 문제
  • 대표 예시: 스팸 여부, 종양의 악성 여부, 사기 거래 탐지

일반적으로 출력 레이블은 0(False) 또는 1(True)로 표현함

결정 경계 (Decision Boundary)

  • 로지스틱 회귀는 다음과 같은 함수 구조를 가짐:

f(x)=11+ez,z=wx+bf(x) = \frac{1}{1 + e^{-z}}, \quad z = w \cdot x + b

3. 시그모이드 함수

정의:

g(z)=11+ezg(z) = \frac{1}{1 + e^{-z}}

  • z+z \rightarrow +\infty 일 때 g(z)1g(z) \rightarrow 1
  • zz \rightarrow -\infty 일 때 g(z)0g(z) \rightarrow 0
  • z=0z = 0일 때 g(z)=0.5g(z) = 0.5

출력값은 항상 0과 1 사이이며, 1일 확률로 해석 가능

4. 예측과 분류 기준

  • 로지스틱 회귀의 예측값 f(x)f(x)확률로 해석
  • 일반적으로 다음과 같은 기준을 사용

임계값 기준:

  • f(x)0.5f(x) \geq 0.5y = 1 예측
  • f(x)<0.5f(x) < 0.5y = 0 예측

0.5는 가장 일반적인 임계값, 문제에 따라 조정 가능

5. 비용 함수 (Cost Function)

제곱 오차는 비선형 분류 문제에 적합하지 않음 → 로그 손실 함수 사용

로지스틱 손실 함수:

Loss(f,y)=ylog(f)(1y)log(1f)Loss(f, y) = -y \log(f) - (1 - y) \log(1 - f)

전체 비용 함수:

J(w,b)=1mi=1mLoss(f(i),y(i))J(w, b) = \frac{1}{m} \sum_{i=1}^{m} Loss(f^{(i)}, y^{(i)})

이 함수는 볼록(convex)하여 경사 하강법으로 최적화 가능

6. 경사 하강법 (Gradient Descent)

비용 함수를 최소화하기 위해 반복적으로 가중치와 편향을 조정하는 알고리즘

파라미터 업데이트 식:

wj:=wjα1mi=1m(f(i)y(i))xj(i)w_j := w_j - \alpha \cdot \frac{1}{m} \sum_{i=1}^{m} (f^{(i)} - y^{(i)}) \cdot x_j^{(i)}

b:=bα1mi=1m(f(i)y(i))b := b - \alpha \cdot \frac{1}{m} \sum_{i=1}^{m} (f^{(i)} - y^{(i)})

학습률이 너무 크면 발산하고, 작으면 수렴 속도가 느림

7. 결정 경계의 확장: 다항 로지스틱 회귀

예시:

f(x)=g(w1x12+w2x22+b)f(x) = g(w_1x_1^2 + w_2x_2^2 + b)

단, 복잡한 모델일수록 과적합(overfitting)에 주의해야 함

profile
Data_Analyst

0개의 댓글