베르누이 확률변수와 이항분포
Bernoulli Random Variables
결과값이 성공과 실패로 나누어지는 실험을 한 번 수행했다고 가정하자. 결과값이 성공일 경우 X=1, 실패일 경우 X=0이라고 하자. 성공 확률을 P라 할 때, 확률질량함수(pmf)가 다음과 같은 확률변수를 베르누이 확률변수라 한다.
{p(0)=P{X=0}=1−pp(1)=P{X=1}=p
- Probability mass function: p(x)=P(X=x)=px(1−p)1−xx=0,1
- E(X)=0×(1−p)+1×p=p
- E(Xn)을 X의 n번째 moment라고 하며, E((X−E[X])n)을 n번째 central moment라고 한다.
- Moment generating function MX(t)=E(Xk)=∑x=01xkpkq1−k
- Var(X)=p(1−p)
Binomial Distribution
베르누이 시행을 n번 반복했을 때 {X1,…,Xn} 성공의 횟수를 이항 확률변수라고 한다. 각각의 X가 1의 값을 가질 확률을 p라 한다면 X=X1+⋯+Xn은 모수 n과 p를 갖는 이항분포를 가지며 X∼B(n,p)로 나타낸다. (모수란 모집단 확률분포의 형태을 규정짓는 값을 의미한다.)
P(X=x)=(xn)px(1−p)n−x,x=0,1,…,n
- ∑x=0n(xn)px(1−p)n−x=1
- 독립적인 베르누이 시행의 합으로 이항 확률변수를 고려해보면, X=X1+…,Xn이므로
E(X)=E(X1)+⋯E(Xn)=np
Var(X)=Var(X1)+…Var(Xn)=np(1−p)
- B(n,0.5) 분포는 모수 n의 기대값 2n에 대하여 좌우대칭인 좌우대칭분포이다.
기하분포(Geometric Distribution)
성공확률 p를 가지는 일련의 독립 베르누이 시행 시, 첫 번째 성공이 발생할 때까지 실시해야만 하는 총 시행 횟수를 확률변수로 갖는 분포를 기하분포라고 한다. 기하분포의 모수는 성공 확률인 p이다. 성공이 발생할 때까지 반복한 횟수가 x이면 확률은 다음과 같다.
P(X=x)=(1−p)x−1p
- E(X)=p1
- Var(X)=p21−p
- P(X>x)=(1−p)xp+(1−p)x+1p+⋯=p(1−p)x(1+(1−p)+(1−p)2+⋯)=(1−p)x
- P(X>n+x∣X>n)=P(X>n)P(X>n+x)=P(X>x)
- 이 수식을 만족하는 성질을 무기억 특성이라고 한다. 이전까지 시행된 결과가 다음 시행 확률에 영향을 주지 않는 것을 말한다.
기하분포는 무기억 특성을 갖는 유일한 이산형 분포이다.
음이항분포(Negative Binomial Distribution)
성공확률이 p인 베르누이 실험을 r번째 성공이 발생할 때까지 수행한 횟수의 분포를 음이항분포라고 하며 X∼NB(r,p)로 나타낸다. 이때 X는 모수가 p,r이며, 성공 횟수는 이항분포를 따른다.
P(X=x)=(r−1x−1)(1−p)x−rpr,x=r,r+1,…
Xi가 i번째 성공이 나올 때까지 총 시행 회수를 의미할 때 독립적인 기하분포의 합 X=X1+⋯+Xr일 경우
- E(X)=E(X1)+⋯+E(Xr)=pr
- Var(X)=Var(X1)+⋯+Var(Xr)=p2r(1−p)
초기하분포(Hypergeometric Distribution)
비복원추출에서 N개의 모집단 중 n개를 추출할 때, r번 성공할 확률에 대한 분포를 초기하분포라고 한다.
P(X=x)=(nN)(xr)×(n−xN−r),max(0,n+r−N)≤x≤min(n,r)
- E(X)=Nnr
- Var(X)=N−1N−n×n×Nr×(1−Nr)
포아송분포(Poisson Distribution)
단위시간 동안 어떤 사건이 발생하는 횟수를 확률변수로 정의하는 확률분포를 포아송 분포라고 하며, X∼Pois(λ)로 나타낸다.
P(X=x)=x!e−λλx,x=0,1,2,…
- ∑x=0∞P(X=x)=e−λ∑x=0∞x!λx=e−λeλ=1
- E(X)=λ
- Var(X)=λ
- 평균과 분산이 같다.
다항분포
발생 가능한 결과가 두 개인 이항 분포와 달리, 여러 개의 값을 가질 수 있는 독립 확률변수들에 대한 확률분포를 다항분포라고 한다. 각각의 결과값의 빈도수를 나타내는 확률변수들의 결합밀도함수는 다음과 같다.
P(X1=x1,…,Xk=xk)=x1!⋯xk!n!p1x1×⋯×pkxk
- 이때 x1+⋯+xk=n
- E(Xi)=npi
- Var(Xi)=npi(1−pi)
- p1=1−p2−⋯−pk 즉, 다른 사건에 따라 확률이 결정되므로 서로 독립적이지 않다.