포아송분포

choyunjeong·2024년 12월 25일

시간이 지남에 따라 일어나는 어떤 특정한 사건 xx의 발생횟수의 분포를 고려. XPOI(λ)X\sim \text{POI}(\lambda) 로 표기.

1. 확률밀도함수

XPOI(λ)X\sim \text{POI}(\lambda)일 때 확률밀도함수와 확률분포함수는 다음과 같다.

P(X=x)=λxeλx!x=0,1,2,P(X = x) = \dfrac{\lambda^x e^{-\lambda}}{x!}\quad x = 0, 1, 2, \cdots

cf. 포아송분포에 의한 이항분포의 근사
확률변수 XXB(n, p)B(n,\ p)분포를 따른다고 하자. 이 때 nn이 커짐에 따라 pp가 0으로 수렴하되 np=λnp=\lambda를 만족하면 x=0,1,2,x=0,1,2,\ldots에 대해서 다음이 성립한다.

limn(nx)px(1p)nx=exp(λ)λxx!\lim_{n\rightarrow\infty}\binom{n}{x}p^x(1-p)^{n-x}=\dfrac{\exp(-\lambda)\lambda^x}{x!}


n>100, p<0.01n>100,\ p<0.01인 경우 λ\lambdanpnp에 가까울 때 효과적으로 이용가능.
n=50, p=0.02, n=100, p=0.01, n=200, p=0.005, λ=1n=50,\ p=0.02,\ n=100,\ p=0.01,\ n=200,\ p=0.005,\ \lambda=1 증명과 상황 비교. p.80 ~ 81

\\[60pt]

2. 기댓값과 분산

XPOI(λ)X\sim \text{POI}(\lambda)일 때 기댓값과 분산은 다음과 같다.

1) 기댓값

E(X)=x=0xeλλxx!=λeλx=1λx1(x1)!(ex=n=0xnn!)=λ\begin{aligned} E(X) &=\sum_{x=0}^{\infty}x\frac{e^{-\lambda}\lambda^x}{x!} \\ &=\lambda e^{-\lambda}\sum_{x=1}^{\infty}\frac{\lambda^{x-1}}{(x-1)!}\quad (\because e^x=\sum_{n=0}^{\infty}\dfrac{x^n}{n!})\\ &=\lambda \end{aligned}

\\[40pt]

2) 분산

E(X2)=E[X(X1)]+E(X)=x=0x(x1)eλλxx!+λ=λ2eλx=2λx2(x2)!+λ=λ2eλk=0λkk!+λ=λ2+λVar(X)=λ2+λλ2=λ\begin{aligned} E(X^2) &=E[X(X-1)]+E(X)\\[10pt] &=\sum_{x=0}^{\infty}x(x-1)\frac{e^{-\lambda}\lambda^x}{x!}+\lambda \\[15pt] &=\lambda^2e^{-\lambda}\sum_{x=2}^{\infty}\frac{\lambda^{x-2}}{(x-2)!}+\lambda \\[15pt] &=\lambda^2e^{-\lambda}\sum_{k=0}^{\infty}\frac{\lambda^{k}}{k!}+\lambda\\[15pt] &= \lambda^2+\lambda \\[20pt] \therefore \text{Var}(X) &=\lambda^2+\lambda-\lambda^2 \\[5pt] &=\lambda \end{aligned}

\\[60pt]

3. 적률생성함수

XPOI(λ)X\sim \text{POI}(\lambda)일 때 적률생성함수는 다음과 같다.

MX(t)=E(etx)=x=0netxeλλxx!=eλx=0n(λet)xx!=eλeλet(ex=n=0xnn!)=eλ(et1)\begin{aligned} M_X(t) &=E(e^{tx}) \\[10pt] &=\sum_{x=0}^{n}e^{tx}\dfrac{e^{-\lambda}\lambda^x}{x!} \\[10pt] &=e^{-\lambda}\sum_{x=0}^{n}\dfrac{(\lambda e^{t})^x}{x!} \\[10pt] &=e^{-\lambda}e^{\lambda e^{t}}\quad (\because e^x=\sum_{n=0}^{\infty}\dfrac{x^n}{n!})\\[10pt] &=e^{\lambda(e^t-1)} \end{aligned}

따라서 적률생성함수를 활용한 기댓값과 분산은

  • 기댓값
    MX(1)(t)=(ddt)(eλ(et1))=eλ(et1)ddt(λ(et1))=eλ(et1)λetE(X)=MX(1)(0)=eλ(et1)λet=λ\begin{aligned} M^{(1)}_X(t) &=\left(\dfrac{d}{dt}\right)\left(e^{\lambda(e^t-1)}\right)=e^{\lambda (e^t - 1)} \cdot \frac{d}{dt} \left( \lambda (e^t - 1) \right)= e^{\lambda (e^t - 1)} \cdot \lambda e^t \\[30pt] \therefore E(X) &=M^{(1)}_X(0)=e^{\lambda (e^t - 1)} \cdot \lambda e^t=\lambda \end{aligned}

\\[40pt]

  • 분산
MX(2)(t)=(d/dt)(eλ(et1)λet)=(ddteλ(et1))(λet)+eλ(et1)ddt(λet)={eλ(et1)(λet)(λet)}+eλ(et1)λet=eλ(et1)λ2e2t+eλ(et1)λet=eλ(et1)λet(λet+1).MX(2)(0)=eλ(et1)λet(λet+1)=λ(λ+1)Var(X)=λ(λ+1)λ2=λ\begin{aligned} M^{(2)}_X(t) &=(d/dt)(e^{\lambda (e^t - 1)} \cdot \lambda e^t) \\[10pt] &= \left( \frac{d}{dt} e^{\lambda (e^t - 1)} \right) \cdot (\lambda e^t) + e^{\lambda (e^t - 1)} \cdot \frac{d}{dt} (\lambda e^t) \\[15pt] &= \{e^{\lambda (e^t - 1)} \cdot (\lambda e^t) \cdot (\lambda e^t)\} + e^{\lambda (e^t - 1)} \cdot \lambda e^t \\[10pt] &= e^{\lambda (e^t - 1)} \cdot \lambda^2 e^{2t} + e^{\lambda (e^t - 1)} \cdot \lambda e^t \\[10pt] &=e^{\lambda (e^t - 1)} \cdot \lambda e^t (\lambda e^t + 1). \\[15pt] M^{(2)}_X(0)&=e^{\lambda (e^t - 1)} \cdot \lambda e^t (\lambda e^t + 1)=\lambda (\lambda + 1) \\[15pt] \therefore \text{Var}(X)&=\lambda (\lambda + 1)-\lambda^2=\lambda \end{aligned}

\\[60pt]

4. 표본분포의 근사

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n을 구했을 때 표본평균과 표본분산은 다음과 같다.

표본평균

E(Xˉn)=E(1ni=1nXi)=1n{i=1nE(Xi)}=1nnE(X)=λ\begin{aligned} E(\bar{X}_n)&=E(\dfrac{1}{n}\sum_{i=1}^{n}X_i) \\[15pt] &=\dfrac{1}{n}\left\{\sum_{i=1}^{n}E(X_i)\right\} \\[15pt] &=\dfrac{1}{n}\cdot n\cdot E(X)=\lambda \end{aligned}

\\[20pt]

Var(Xˉn)=Var(1ni=1nXi)=1n2Var(i=1nXi)=1n2i=1nVar(Xi)=nλn2=λn\begin{aligned} \text{Var}(\bar{X}_n) &=\text{Var}(\dfrac{1}{n}\sum_{i=1}^{n}X_i) \\[15pt] &=\dfrac{1}{n^2}\text{Var}(\sum_{i=1}^{n}X_i) \\[15pt] &=\dfrac{1}{n^2}\sum_{i=1}^{n}\text{Var}(X_i) \\[15pt] &=\dfrac{n\lambda}{n^2} \\[10pt] &=\dfrac{\lambda}{n} \end{aligned}

\\[40pt]

표본분산

E(Sn2)=E[1n1i=1n(XiXˉn)2]=E[1n1i=1n(Xiλ+λXˉn)2]=E[1n1i=1n[(Xiλ)2+(λXˉn)2+2(Xiλ)(λXˉn)]]=1n1E[i=1n(Xiλ)2n(Xˉnλ)2]=1n1[i=1nE(Xiλ)2nE(Xˉnλ)2]=1n1[nλnλn]=λ\begin{aligned} E(S_n^2) &=E\left[\dfrac{1}{n-1}\sum_{i=1}^{n}(X_i-\bar{X}_n)^2\right] \\[15pt] &=E\left[\dfrac{1}{n-1}\sum_{i=1}^{n}(X_i-\lambda+\lambda-\bar{X}_n)^2\right] \\[15pt] &=E\left[\dfrac{1}{n-1}\sum_{i=1}^{n}[(X_i-\lambda)^2+(\lambda-\bar{X}_n)^2+2(X_i-\lambda)(\lambda-\bar{X}_n)]\right] \\[15pt] &=\dfrac{1}{n-1}E\left[\sum_{i=1}^{n}(X_i-\lambda)^2-n(\bar{X}_n-\lambda)^2\right] \\[15pt] &=\dfrac{1}{n-1}\left[\sum_{i=1}^{n}E(X_i-\lambda)^2-nE(\bar{X}_n-\lambda)^2\right] \\[15pt] &=\dfrac{1}{n-1}\left[n\lambda-n\dfrac{\lambda}{n}\right] \\[15pt] &=\lambda \end{aligned}

\\[40pt]

1) 대수의 법칙

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n을 구했을 때 표본평균은 모평균에 확률적으로 수렴한다.

Xˉnpλ\bar{X}_n \xrightarrow{p}\lambda

\\[20pt]

P[Xnˉλ<ϵ]=P[Xnˉλ2<ϵ2]1E(Xnˉλ)2ϵ2=1λ/nϵ21\begin{aligned} \because \quad P[|\bar{X_n}-\lambda|<\epsilon] &=P[|\bar{X_n}-\lambda|^2<\epsilon^2] \\[10pt] &\ge 1-\dfrac{E(\bar{X_n}-\lambda)^2}{\epsilon^2} \\[10pt] &= 1-\dfrac{\lambda/n}{\epsilon^2}\rightarrow1 \end{aligned}

\\[40pt]

2) 중심극한정리

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n을 구했을 때 nn이 증가함에 따라 확률변량 ZnZ_n은 (표준)정규분포로 분포수렴한다.

Zn=n(Xˉnλ)dN(0, λ)Zn=(Xˉnλ)λ/ndN(0, 1)Zn=i=1n(Xiλ)nλdN(0, 1)\begin{aligned} Z_n&=\sqrt{n}(\bar{X}_n-\lambda)\xrightarrow{d}N(0,\ \lambda) \\[20pt] Z_n&=\dfrac{(\bar{X}_n-\lambda)}{\sqrt{\lambda/n}}\xrightarrow{d}N(0,\ 1) \\[20pt] Z_n&=\dfrac{\sum_{i=1}^{n}(X_i-\lambda)}{\sqrt{n\lambda}}\xrightarrow{d}N(0,\ 1) \end{aligned}

\\[40pt]

3) 델타 방법

확률변수 열 X1,X2,,Xn,X_1,X_2,\ldots,X_n,\ldots이 중심극한정리를 만족한다면 확률변량의 함수의 표본분포를 근사하기 위한 방법으로 델타방법을 활용할 수 있다.

n(Xnλ)dN(0,λ)\sqrt{n}(X_n-\lambda)\xrightarrow{d}N(0,\lambda)

이때 함수 g(λ)g(\lambda)의 연속인 도함수 g(λ)g'(\lambda)가 존재하고 0이 아니면 다음이 성립한다.

n(g(Xn)g(λ))dN(0,σ2[g(λ)]2)\sqrt{n}(g(X_n)-g(\lambda))\xrightarrow{d}N(0,\sigma^2[g'(\lambda)]^2)

이제 함수 g(x)=x2g(x)=x^2를 고려하면 g(λ)=λ2g(\lambda)=\lambda^2, σ2=λ\sigma^2=\lambda, g(λ)=2λg'(\lambda)=2\lambda이므로

n(Xˉn2λ2)dN(0,4λ3)\sqrt{n}(\bar{X}_n^2-\lambda^2)\xrightarrow{d}N(0,4\lambda^3)

\\[60pt]

5. 추정량

1) 적률 추정량

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n을 구했을 때 λ\lambda의 추정값을 적률을 사용하는 방법으로 추정.

m1=μ1(λ)=λi=1nXi1/n=λ^λ^=Xˉn\begin{aligned} m_1'&=\mu_1'(\lambda)=\lambda \\[10pt] \rightarrow \sum_{i=1}^{n}X_i^1/n &= \hat{\lambda} \\[15pt] \therefore \hat{\lambda} &= \bar{X}_n \end{aligned}

\\[40pt]

2) 최대가능도 추정량

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n을 구했을 때 λ\lambda의 최대가능도 추정량은 로그 가능도함수의 미분을 이용하여 다음과 같이 구한다.

λ\lambda의 최대가능도추정량을 구하기 위한 포아송분포의 가능도함수는

L(λ;x1,x2,,xn)=i=1nf(xi;λ)=(enλλxi)/i=1nxi!\begin{aligned} L(\lambda;x_1,x_2,\ldots,x_n) &=\prod_{i=1}^{n}f(x_i;\lambda)\\[15pt] &=\left.\left(e^{-n\lambda}\cdot \lambda^{\sum x_i}\right)\right/\prod_{i=1}^{n}x_i! \end{aligned}

가 되며, 따라서 로그가능도함수는

logL(λ;x1,x2,,xn)=log(enλ)+log(λxi)log(i=1nxi!)=nλ+i=1nxilogλlog(i=1nxi!)\begin{aligned} \log L(\lambda;x_1,x_2,\ldots,x_n) &=\text{log}(e^{-n\lambda})+ \log(\lambda^{\sum x_i})-\log\left(\prod_{i=1}^{n}x_i!\right)\\[15pt] &=-n\lambda + \sum_{i=1}^{n}x_i\cdot\log \lambda-\log\left(\prod_{i=1}^{n}x_i!\right) \end{aligned}

가 된다. 이제 로그가능도 함수를 최대화하는 값을 찾기 위해 다음 방적식의 해를 찾는다.

ddλlogL(λ;x1,x2,,xn)=n+i=1nxiλ=0=i=1nxi=nλ=λ^=xˉn\begin{aligned} \dfrac{d}{d\lambda}\text{log}L(\lambda;x_1,x_2,\ldots,x_n) &=-n+\sum_{i=1}^{n}\dfrac{x_i}{\lambda}=0 \\[15pt] &=\sum_{i=1}^{n}x_i=n\lambda \\[15pt] &=\hat{\lambda}=\bar{x}_n \end{aligned}

이 방정식이 방정식을 만족하는 λ^=xˉn\hat{\lambda}=\bar{x}_n

d2dλ2logL(λ;x1,x2,,xn)λ=xˉn=i=1nxiλ2λ=xˉn=nxˉn21ni=1nxi=nxˉn<0\begin{aligned} \left.\dfrac{d^2}{d\lambda^2}\text{log}L(\lambda;x_1,x_2,\ldots,x_n)\right|_{\lambda=\bar{x}_n} &=-\sum_{i=1}^{n}\left.\dfrac{x_i}{\lambda^2}\right|_{\lambda=\bar{x}_n} \\[15pt] &=-\dfrac{n}{\bar{x}_n^2}\cdot\dfrac{1}{n}\sum_{i=1}^{n}x_i \\[15pt] &=-\dfrac{n}{\bar{x}_n}<0 \end{aligned}

을 만족시키므로(단 xˉn>0\bar{x}_n>0 가정) 가능도함수를 최대화하는 최대가능도 추정량은 Xˉn\bar{X}_n이다 (단 xˉn>0\bar{x}_n>0인 경우 성립).

최대가능도 추정량의 불변성

λ^\hat{\lambda}가 모수 λ\lambda의 최대가능도 추정량이면, λ\lambda의 함수인 g(λ)g(\lambda)에 대하여, g(λ^)g(\hat{\lambda})g(λ)g(\lambda)의 최대가능도 추정량이 된다. 따라서 g(λ)=λ2g(\lambda)=\lambda^2의 추정량이 필요할 때 다음과 같이 쉽게 구할 수 있다.

g(λ^)=λ2^=Xˉn2g(\hat{\lambda})=\hat{\lambda^2}=\bar{X}_n^2

\\[60pt]

6. 좋은 추정량 조건

최대가능도 추정량인 경우만 고려하였다.

1) 비편향추정량

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n을 구했을 때 최대가능도 추정량의 기댓값이 모평균과 같다면 비편향추정량이다. 이 때 최대가능도 추정량의 기댓값 E[Xˉn]E[\bar{X}_n]λ\lambda이므로

E[Xˉn]λ=0E[\bar{X}_n]-\lambda=0

비편향추정량을 만족한다.

\\[40pt]

2) 최소분산 비편향추정량

2-1. 크래머-라오 방법

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n을 구했을 때 비편향 추정량인 최대 가능도 추정량의 분산에 대한 부등식은 다음이 성립한다.

Var(Xˉn)[g(λ)]2nI(λ)\text{Var}(\bar{X}_n)\ge\dfrac{[g'(\lambda)]^2}{nI(\lambda)}

T(X)T(X)g(θ)g(\theta)형태가 아닌 θ\theta의 비편향추정량이라고 한다면 위 정리로부터

Var(Xˉn)1nI(λ)\text{Var}(\bar{X}_n)\ge\dfrac{1}{nI(\lambda)}

을 얻을 수 있다. 그러므로 어떤 비편향추정량 Xˉn\bar{X}_n의 분산이 1nI(λ)\dfrac{1}{nI(\lambda)}이라면 이 추정량은 λ\lambda의 최소분산 비편향추정량이다.
\\[10pt]

이 때 피셔의 정보량 I(λ)I(\lambda)은 다음과 같고

I(λ)=E[(λlog f(X;λ))2]=E[(2λ2log f(X;λ))]I(\lambda)=E\left[\left(\dfrac{\partial}{\partial\lambda}\text{log }f(X;\lambda)\right)^2\right]=-E\left[\left(\dfrac{\partial^2}{\partial\lambda^2}\text{log }f(X;\lambda)\right)\right]

계산을 하면

I(λ)=E[(2λ2log f(X;λ))]=E[λ(λ{λ+xlog λx!})]=E[λ(1+Xλ)]=E[Xλ2]=1λ2E[X]=1λ\begin{aligned} I(\lambda) &=-E\left[\left(\dfrac{\partial^2}{\partial\lambda^2}\text{log }f(X;\lambda)\right)\right] \\[15pt] &=-E\left[\dfrac{\partial}{\partial \lambda}\left(\dfrac{\partial}{\partial \lambda}\left\{-\lambda+x\text{log } \lambda - x!\right\}\right)\right] \\[15pt] &=-E\left[\dfrac{\partial}{\partial \lambda}\left(-1 + \dfrac{X}{\lambda}\right)\right] \\[15pt] &=-E\left[-\dfrac{X}{\lambda^2}\right] \\[15pt] &=\dfrac{1}{\lambda^2}E\left[X\right] \\[15pt] &=\dfrac{1}{\lambda} \end{aligned}

따라서 Var(Xˉn)=1nI(μ)=λ/n\text{Var}(\bar{X}_n)=\dfrac{1}{nI(\mu)}=\lambda/n이므로 표본평균 Xˉn\bar{X}_n는 최소분산 비편향추정량이다.

\\[40pt]

3) 일치추정량

Tn(X)T_n(X)g(λ)g(\lambda)의 추정량이라고 할 때, 모든 λΩ\lambda\in\Omega에 대하여

MSE(Tn)=Var(Tn)+[E(Tn)g(λ)]2\text{MSE}(T_n)=\text{Var}(T_n)+[E(T_n)-g(\lambda)]^2

이므로 TnT_ng(λ)g(\lambda)의 비편향추정량인 경우 limnVar(Tn)=0\lim_{n\rightarrow\infty}\text{Var}(T_n)=0이 성립하면 추정량 TnT_n의 일치성이 보장된다. (정리 4.9참조)

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n을 구했을 때 최대가능도 추정량 Xˉn\bar{X}_n은 비편향추정량이므로 MSE\text{MSE}는 0이다. 또한 nn이 증가할 때 Var(Xˉn)\text{Var}(\bar{X}_n)

limnVar(Xˉn)=limnλn=0\lim_{n\rightarrow\infty}\text{Var}(\bar{X}_n)=\lim_{n\rightarrow\infty}\dfrac{\lambda}{n}=0

으로

MSE(Xˉn)=Var(Xˉn)=0\text{MSE}(\bar{X}_n)=\text{Var}(\bar{X}_n)=0

이므로 Xˉn\bar{X}_n는 일치추정량이다. 이를 보아 대부분 분포의 최대추정량의 분산의 분모는 nn이므로 대부분 일치추정량이라고 할 수 있다.

\\[20pt]

직접적으로 일치성을 입증하기 어려운 경우 적절한 조건하에서 점근적 성질을 이용한다면 최대가능도 추정량은 일치성을 가질 뿐 아니라 점근적으로 정규분포를 따르기 때문에 쉽게 근사적 구간추정과 검정이 가능하다.

n(λ^nλ)dN(0, 1I(λ))\sqrt{n}(\hat{\lambda}_n-\lambda)\xrightarrow{d}N\left(0,\ \dfrac{1}{I(\lambda)}\right)

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n을 구했을 때 최대가능도 추정량은 λ^n=Xˉn\hat{\lambda}_n=\bar{X}_n으로 적절한 조건하에서 일치추정량이고, 나아가 점근적으로 정규분포를 따르는지 확인해보자.

이 때 I(λ)I(\lambda)

I(λ)=E[(2λ2log f(X;λ))]I(\lambda)=-E\left[\left(\dfrac{\partial^2}{\partial\lambda^2}\text{log }f(X;\lambda)\right)\right]

으로 logf(X;λ)\log f(X;\lambda)의 2차 도함수를 먼저 구하면

f(X;λ)=λXeλX!logf(X;λ)=Xlogλ+λlogX!(λ)log f(X;λ)=Xλ1(2λ2)log f(X;λ)=Xλ2\begin{aligned} f(X;\lambda) &= \dfrac{\lambda^X e^{-\lambda}}{X!} \\[15pt] \log f(X;\lambda) & =X\log \lambda +\lambda - \log X! \\[15pt] \left(\dfrac{\partial}{\partial\lambda}\right)\text{log }f(X;\lambda) &=\dfrac{X}{\lambda}-1 \\[15pt] \left(\dfrac{\partial^2}{\partial\lambda^2}\right)\text{log }f(X;\lambda) &=-\dfrac{X}{\lambda^2} \end{aligned}

이므로

I(λ)=E(Xλ2)=1λ2E(X)=1λ\begin{aligned} I(\lambda) &=-E\left(-\dfrac{X}{\lambda^2}\right) \\[15pt] &=\dfrac{1}{\lambda^2}E(X) \\[15pt] &=\dfrac{1}{\lambda} \end{aligned}

따라서 최대가능도 추정량 λ^\hat{\lambda}의 점근분포는

n(λ^λ)dN(0, λ)\sqrt{n}(\hat{\lambda}-\lambda)\xrightarrow{d}N\left(0,\ \lambda\right)

가 되고, 이것은 중심극한정리에서 얻은 결과와 동일하다.

\\[60pt]

7. 구간추정

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n을 구했을 때 다음과 같이 신뢰구간을 중심극한정리를 이용하여 다음과 같이 근사적으로 구할 수 있다.

모분산을 아는경우

표본의 크기가 커질 때 대수의 법칙에 따라 표본평균 Xˉnpλ\bar{X}_n\xrightarrow{p}\lambda에 확률적으로 수렴하고 중심극한정리에 따라

n(Xˉnλ)λdN(0,1)\dfrac{\sqrt{n}(\bar{X}_n-\lambda)}{\sqrt{\lambda}}\xrightarrow{d} N(0,1)

이므로 슬럿츠키 정리에 의해

Zn=n(Xˉnλ)XˉndN(0,1)Z_n=\dfrac{\sqrt{n}(\bar{X}_n-\lambda)}{\sqrt{\bar{X}_n}}\xrightarrow{d} N(0,1)

로 수렴한다. 따라서 모수 λ\lambda에 대한 95%의 근사신뢰구간을 다음과 같이 구할 수 있다.

[Xˉn1.96Xˉnn,Xˉn+1.96Xˉnn]\left[\bar{X}_n-1.96\sqrt{\dfrac{\bar{X}_n}{n}} , \bar{X}_n+1.96\sqrt{\dfrac{\bar{X}_n}{n}}\right] \\[15pt]

\\[40pt]

모분산을 알지 못하는 경우
σ2\sigma^2Sn2S_n^2으로 대체한다.

8. 가설검정

(1) 균일 최강력 검정법

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n이라 하고 다음 가설 검정을 한다.

H0:λλ0vsH0:λ>λ0H_0:\lambda\le \lambda_0\quad\text{vs}\quad H_0:\lambda > \lambda_0

그러면 λ1<λ2\lambda_1<\lambda_2에 대한 가능도비는 다음과 같이 주어진다.

LR(λ1,λ2;x1,x2,,xn)=exp(nλ1)λ1i=1nxi/i=1nxi!exp(nλ2)λ2i=1nxi/i=1nxi!=exp(nλ1)λ1i=1nxiexp(nλ2)λ2i=1nxi=exp(n(λ1λ2))(λ1λ2)i=1nxi\begin{aligned} LR(\lambda_1,\lambda_2;x_1,x_2,\ldots,x_n) &=\dfrac{\exp(-n\lambda_1)\lambda_1^{\sum_{i=1}^{n}x_i}/\prod_{i=1}^{n}x_i!}{\exp(-n\lambda_2)\lambda_2^{\sum_{i=1}^{n}x_i}/\prod_{i=1}^{n}x_i!} \\[20pt] &= \frac{\exp(-n\lambda_1) \lambda_1^{\sum_{i=1}^n x_i}}{\exp(-n\lambda_2) \lambda_2^{\sum_{i=1}^n x_i}} \\[15pt] &= \exp(-n(\lambda_1-\lambda_2)) \left(\frac{\lambda_1}{\lambda_2}\right)^{\sum_{i=1}^n x_i} \end{aligned}

따라서 이 경우 가능도함수는 T(x1,x2,,xn)=i=1nxiT(x_1,x_2,\ldots,x_n)=\sum_{i=1}^{n}x_i에 대해 비증가인 단조가능도비 성질 (λ1<λ2)(\lambda_1<\lambda_2)이 있으므로 유의수준 α=P(i=1nxikλ0)\alpha=P(\sum_{i=1}^{n}x_i\ge k|\lambda_0)인 균일최강력 검정법은 그 기각영역이

C={(x1,x2,,xn):i=1nxik}C=\{(x_1,x_2,\ldots,x_n):\sum_{i=1}^{n}x_i\ge k\}

로 주어지며, 상수 kk는 유의수준이 α=P(i=1nxikλ0)\alpha=P(\sum_{i=1}^{n}x_i\ge k|\lambda_0)의해 결정된다. 구체적인 기각영역을 구하기 위해서는 중심극한정리에 의해

P(i=1nxikλ0)=P[i=1nxiE[i=1nxi]Var(i=1nxi)kE[i=1nxi]Var(i=1nxi)λ0]=P[i=1nxinλ0nλ0knλ0nλ0λ0]P(Zknλ0nλ0λ0)=α\begin{aligned} P(\sum_{i=1}^{n}x_i\ge k|\lambda_0) &=P\left[\left.\dfrac{\sum_{i=1}^{n}x_i - E[\sum_{i=1}^{n}x_i]}{\sqrt{\text{Var}(\sum_{i=1}^{n}x_i)}}\ge\dfrac{k - E[\sum_{i=1}^{n}x_i]}{\sqrt{\text{Var}(\sum_{i=1}^{n}x_i)}}\right|\lambda_0\right] \\[15pt] &=P\left[\left.\dfrac{\sum_{i=1}^{n}x_i-n\lambda_0}{\sqrt{n\lambda_0}}\ge\dfrac{k-n\lambda_0}{\sqrt{n\lambda_0}}\right|\lambda_0\right] \\[15pt] &\approx P\left(\left.Z\ge\dfrac{k-n\lambda_0}{\sqrt{n\lambda_0}}\right|\lambda_0\right) \\[15pt] &=\alpha \end{aligned}

가 성립하므로, k=nλ0+zαnλ0k=n\lambda_0+z_{\alpha}\sqrt{n\lambda_0}이다. 즉, 기각 영역은 다음과 같다.

C={(x1,x2,,xn):i=1nxinλ0+zαnλ0}C=\{(x_1,x_2,\ldots,x_n):\sum_{i=1}^{n}x_i\ge n\lambda_0 + z_{\alpha}\sqrt{n\lambda_0}\}

\\[40pt]

(2) 근사 가능도비 검정법

일반화 가능도비를 적절히 변환시킴으로써 필요한 검정통계량의 분포를 구하기 어려움이 존재해 근사 가능도비 검정법을 이용하여 일반화 가능도비 통계량의 근사분포를 구할 수 있다.

XPOI(λ)X\sim \text{POI}(\lambda)으로부터 랜덤표본 X1,X2,,XnX_1,X_2,\ldots,X_n이라 하고 다음 가설 검정을 한다.

H0:λλ0vsH0:λ>λ0H_0:\lambda\le \lambda_0\quad\text{vs}\quad H_0:\lambda > \lambda_0

점근적 정규성 (정리4.13) 조건을 만족할 때, 2logΛ-2\text{log}\Lambda는 귀무가설 하에 자유도가 kk인 카이제곱분포를 근사적으로 따른다. 2logΛ-2\text{log}\LambdaΛ\Lambda의 감소함수이므로 Λ\Lambda의값이 충분히 작을 때 귀무가설을 기각하는 것은 2logΛ-2\text{log}\Lambda가 충분히 클 때 귀무가설을 기각하는 것과 동일.

2logΛχα(k)-2\text{log}\Lambda \ge \chi_{\alpha}(k)

따라서 유의수준 α\alpha인 근사 기각영역은 {(x1,x2,,xn):2logΛχα(1)}\left\{(x_1,x_2,\ldots,x_n):-2\text{log}\Lambda\ge \chi_{\alpha}(1)\right\}이다.

최대가능도 추정량이 Xˉn\bar{X}_n이므로 일반화 가능도비는

Λ(X1,X2,Xn)=exp(nλ0)λ0i=1nxi/i=1nxi!exp(nXˉn)Xˉni=1nxi/i=1nxi!=exp(nλ0)λ0i=1nxiexp(nXˉn)Xˉni=1nxi=exp(n(λ0Xˉn))(λ0Xˉn)i=1nxi\begin{aligned} \Lambda (X_1,X_2\ldots,X_n) &=\dfrac{\exp(-n\lambda_0)\lambda_0^{\sum_{i=1}^{n}x_i}/\prod_{i=1}^{n}x_i!}{\exp(-n\bar{X}_n)\bar{X}_n^{\sum_{i=1}^{n}x_i}/\prod_{i=1}^{n}x_i!} \\[20pt] &= \frac{\exp(-n\lambda_0) \lambda_0^{\sum_{i=1}^n x_i}}{\exp(-n\bar{X}_n) \bar{X}_n^{\sum_{i=1}^n x_i}} \\[15pt] &= \exp(-n(\lambda_0-\bar{X}_n)) \left(\dfrac{\lambda_0}{\bar{X}_n}\right)^{\sum_{i=1}^n x_i} \end{aligned}

따라서 귀무가설 하에

2logΛ=2{n(λ0Xˉn)nXˉnlog(Xˉnλ0)}\begin{aligned} -2\log\Lambda &=-2\left\{-n(\lambda_0-\bar{X}_n) - n\bar{X}_n\cdot \log \left(\dfrac{\bar{X}_n}{\lambda_0}\right)\right\} \\[15pt] \end{aligned}

이다. 테일러 정리로부터 x0|x|\approx 0인 경우 log(1+x)=x\log(1+x)=x라는 근사관계로부터

log(Xˉnλ0)=log(1+Xˉnλ0λ0)Xˉnλ0λ0\log\left(\dfrac{\bar{X}_n}{\lambda_0}\right) = \log\left(1+\dfrac{\bar{X}_n-\lambda_0}{\lambda_0}\right) \approx\dfrac{\bar{X}_n-\lambda_0}{\lambda_0}

로 이를 대입하면

2logΛ=2{n(λ0Xˉn)nXˉnlog(Xˉnλ0)}=2{n(λ0Xˉn)nXˉn(Xˉnλ0λ0)}=2{nλ0(λ0Xˉn)λ0nXˉn(Xˉnλ0)λ0}=2{n(Xˉn22λ0Xˉn+λ02)λ0}=2n(Xˉnλ0λ0)2χα2(1)\begin{aligned} -2\log\Lambda &=-2\left\{-n(\lambda_0-\bar{X}_n) - n\bar{X}_n \cdot \log \left(\dfrac{\bar{X}_n}{\lambda_0}\right)\right\} \\[15pt] &=-2\left\{-n(\lambda_0-\bar{X}_n) - n\bar{X}_n \cdot \left(\dfrac{\bar{X}_n-\lambda_0}{\lambda_0}\right)\right\} \\[15pt] &=-2\left\{\dfrac{-n\lambda_0(\lambda_0-\bar{X}_n)}{\lambda_0} - \dfrac{n\bar{X}_n\left(\bar{X}_n-\lambda_0\right)}{\lambda_0}\right\} \\[15pt] &=-2\left\{\dfrac{-n(\bar{X}_n^2-2\lambda_0\bar{X}_n+\lambda_0^2)}{\lambda_0}\right\} \\[15pt] &=2n\left(\dfrac{\bar{X}_n-\lambda_0}{\sqrt{\lambda_0}}\right)^2 \\[15pt] &\approx\chi_\alpha^2(1) \end{aligned}

이므로 2logΛ-2\log\Lambda2χ2(α)2\cdot\chi^2(\alpha)를 근사적으로 따른다는 것을 알 수 있다.

0개의 댓글