G^2가 왜 카이제곱분포를 따를까

·2025년 4월 29일
0

🔵 질문

Likelihood-ratio statistic G2G^2이 왜 카이제곱 분포를 따르는가?
(특히 G2=2(logL(θ^)logL(θ0))G^2 = 2(\log L(\hat\theta) - \log L(\theta_0))가 왜?)


🔵 전체 흐름

1. MLE는 점근적으로 정규분포를 따른다

표본 크기 nn이 충분히 크면,
MLE θ^\hat\theta는 진짜 모수 θ0\theta_0 주변에서 다음을 만족해:

n(θ^θ0)dN(0,I(θ0)1)\sqrt{n}(\hat\theta - \theta_0) \xrightarrow{d} N(0, I(\theta_0)^{-1})

여기서:

  • I(θ0)I(\theta_0)Fisher Information Matrix (피셔 정보량).

즉,
MLE는 진짜 모수 근처에서 정규분포로 흔들린다.


2. 로그 가능도 함수의 Taylor 전개

이제 로그 가능도 (θ)=logL(θ)\ell(\theta) = \log L(\theta)θ0\theta_0 주변에서 2차 Taylor 전개해보자:

(θ^)=(θ0)+(θ^θ0)T(θ0)+12(θ^θ0)T2(θ0)(θ^θ0)+higher order terms\ell(\hat\theta) = \ell(\theta_0) + (\hat\theta - \theta_0)^T \nabla \ell(\theta_0) + \frac{1}{2} (\hat\theta - \theta_0)^T \nabla^2 \ell(\theta_0) (\hat\theta - \theta_0) + \text{higher order terms}

그런데 대표본에서는 다음이 성립해:

  • (θ0)\nabla \ell(\theta_0) (score function)는 평균이 0.
  • 2(θ0)I(θ0)\nabla^2 \ell(\theta_0) \approx -I(\theta_0) (로그 가능도 이계미분은 피셔 정보량의 음수 근방).

그래서 위 전개는 거의 이렇게 돼:

(θ^)(θ0)12(θ^θ0)TI(θ0)(θ^θ0)\ell(\hat\theta) - \ell(\theta_0) \approx -\frac{1}{2} (\hat\theta - \theta_0)^T I(\theta_0) (\hat\theta - \theta_0)

(※ 부호 조심: 로그 가능도는 concave하니까 이계미분은 음수 방향이야.)


3. Likelihood-ratio statistic G2G^2 구하기

Likelihood-ratio 통계량은 정의상:

G2=2((θ^)(θ0))G^2 = 2\left( \ell(\hat\theta) - \ell(\theta_0) \right)

위 Taylor 전개를 대입하면:

G2(θ^θ0)TI(θ0)(θ^θ0)G^2 \approx (\hat\theta - \theta_0)^T I(\theta_0) (\hat\theta - \theta_0)

이건 뭐야?
정규분포 벡터의 이차형식(quadratic form)이야.


4. 정규분포 벡터의 이차형식은 카이제곱 분포를 따른다

아까 1번에서 본 것처럼:

n(θ^θ0)N(0,I(θ0)1)\sqrt{n}(\hat\theta - \theta_0) \sim N(0, I(\theta_0)^{-1})

그러니까 (θ^θ0)(\hat\theta - \theta_0)는 대략 분산 1/n1/n 크기의 정규분포야.

이걸 Fisher Information I(θ0)I(\theta_0)로 샌드위치하면:

(θ^θ0)TI(θ0)(θ^θ0)χr2(\hat\theta - \theta_0)^T I(\theta_0) (\hat\theta - \theta_0) \sim \chi^2_r

여기서 rr은 제약된 모형에서 자유도(모수 차이 수)야.


🔵 최종 결론

G2dχr2G^2 \xrightarrow{d} \chi^2_r

즉,
Likelihood-ratio statistic G2G^2는 자유도 rr를 가진 카이제곱 분포로 수렴한다.


🔵 한 문장 요약

가능도비 통계량 G2G^2는 로그 가능도 함수의 2차 근사를 통해 정규분포 기반 이차형식(quadratic form)으로 나타나고, 이게 카이제곱 분포로 수렴한다.


🔵 직관 요약 표

구분Pearson's X2X^2Likelihood-ratio G2G^2
기본 아이디어관측-기대 차이를 정규화 후 제곱합로그 가능도 차이를 2배
형태(nijμij)2μij\sum \frac{(n_{ij} - \mu_{ij})^2}{\mu_{ij}}2nijlog(nijμij)2 \sum n_{ij} \log \left( \frac{n_{ij}}{\mu_{ij}} \right)
카이제곱 분포 수렴 이유관측-기대 차이가 정규분포처럼 되어 제곱합이 됨MLE 간 로그 가능도 차이 → 이차형식 → 카이제곱

profile
보건대학원 뉴비

0개의 댓글