수리통계학- 2. 확률변수 및 확률분포

WooSeongkyun·2023년 3월 21일
0

수리통계학

목록 보기
2/6
  • ref
    - t, F, cauchy, hypergeometric, logistic을 제외한 다른 분포들은 모두 지수족을 따른다
    - 지족 f(x;θ)=a(θ)b(x)exp[i=1kci(θ)ti(x)]f(x;\theta)=a(\theta)b(x)exp[\displaystyle\sum\limits_{i=1}^{k}{c _{i}(\theta)t _{i}(x)}] 에서 통계량 Sj=i=1tj(Xi)S _{j}=\displaystyle\sum\limits_{i=1}^{}{t _{j}(X _{i}) } 는 모수 θ1,θ2,,θk\theta _{1},\theta _{2},\cdots,\theta _{k} 결합 완비 충분통계량으로 S1,S2,,SkS _{1},S _{2},\cdots,S _{k} 의 함수로 만들어지는 θ1,θ2,,θk\theta _{1},\theta _{2},\cdots, \theta _{k} 의 비편향 추정량은 이의 최소분산 비편향추정량이 된다
flowchart TD
A1["확률분포"] --- A2_2["정규분포"]
A2_2["정규분포"] --- A2_2_1["표준정규분포"]
A1["확률분포"] --- A1.5["베르누이분포"]
A1.5["베르누이분포"] --- A2_3["이항분포"]
A1["확률분포"] --- A2_4["연속형분포"]
A1["확률분포"] --- A2_5["변수변환"]
A2_3["이항분포"] --- A2_3_1["푸아송 분포"]
A2_3["이항분포"] --- A2_3_2["음이항 분포"]
%%A2_3["이항분포"] --- A2_3_3["기하 분포"]%%
A2_3["이항분포"] --- A2_3_4["초기하 분포"]
A2_4["연속형분포"] --- A2_4_1["베타 분포"]
A2_4["연속형분포"] --- A2_4_2["감마 분포"]
A2_4["연속형분포"] --- A2_4_3["지수 분포"]

1.정규분포

  • 일변수 정규분포 Gaussian distribution
    - f(x)=12πσexp[12(xμσ)2]f(x)=\displaystyle\frac{1}{\sqrt{2\pi}\sigma}exp[-\displaystyle\frac{1}{2}(\displaystyle\frac{x-\mu}{\sigma})^2]
  • 다변수 정규분포 multivariable Gaussian distribution
    - f(x)=i=1n1(2π)n/2Σ1/2exp[12(xμ)TΣ1(xμ)]f(\boldsymbol{x})=\displaystyle\prod\limits_{i=1}^{n}{\displaystyle\frac{1}{(2 \pi) ^{n/2} |\boldsymbol{\Sigma} ^{1/2}|}exp[-\displaystyle\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu}) ^{T}\boldsymbol{\Sigma} ^{-1}(\boldsymbol{x}-\boldsymbol{\mu})]}
    - [Cov(x)]ij=Cov(xi,xj)=E(xixj)E(yi)E(yj)[Cov(\boldsymbol{x})]_{ij}=Cov(x _{i},x _{j})=\mathbb{E}(x _{i}x _{j})-\mathbb{E}(y _{i})\mathbb{E}(y _{j})
    - Σ=E(xTx)μμT\boldsymbol{\Sigma}=\mathbb{E}(\boldsymbol{x} ^{T}\boldsymbol{x})-\boldsymbol{\mu}\boldsymbol{\mu} ^{T}
    - Mahalanobis distance
    - Δ2=(xμ)TΣ1(xμ)\Delta ^{2}=(\boldsymbol{x}-\boldsymbol{\mu}) ^{T}\boldsymbol{\Sigma} ^{-1}(\boldsymbol{x}-\boldsymbol{\mu})
    - 이때 Σ1\boldsymbol{\Sigma} ^{-1} 자리엔 항상 positive-semidefinite가 와야되고 Σ1\boldsymbol{\Sigma} ^{-1} 는 positive semidefinite이다
    - Σ1\boldsymbol{\Sigma} ^{-1} 가 positive semidefinite 증명
    - v,Σv=vTΣv\langle {\boldsymbol{v}},{\boldsymbol{\Sigma}\boldsymbol{v}} \rangle=\boldsymbol{v} ^{T}\boldsymbol{\Sigma}\boldsymbol{v}
    - vTRnρ(x)(xμ)T(xμ)dxv=Rn((xμ)v)T(xμ)vρ(x)dx=E[(xμ)v2]0\boldsymbol{v} ^{T}\displaystyle\int_{\mathbb{R} ^{n}}^{}{\rho(\boldsymbol{x})(\boldsymbol{x}-\boldsymbol{\mu}) ^{T}(\boldsymbol{x}-\boldsymbol{\mu})d \boldsymbol{x}}\,\,\boldsymbol{v}=\displaystyle\int_{\mathbb{R} ^{n}}^{}{((\boldsymbol{x}-\boldsymbol{\mu})\boldsymbol{v}) ^{T} (\boldsymbol{x}-\boldsymbol{\mu})\boldsymbol{v}\rho(\boldsymbol{x})d \boldsymbol{x}}=\mathbb{E}[\| (\boldsymbol{x}-\boldsymbol{\mu})\boldsymbol{v} \| ^{2}]\ge 0
    - (왜냐하면 항상 p(x)0p(\boldsymbol{x})\ge 0이므로)
    - y=Σx\boldsymbol{y}=\boldsymbol{\Sigma}\boldsymbol{x} 라 하자 yTΣ1y=yTΣ1Σx=(Σx)TΣ1Σx=xTΣTΣ1Σx=xTΣx>0\boldsymbol{y} ^{T}\boldsymbol{\Sigma} ^{-1}\boldsymbol{y}=\boldsymbol{y} ^{T}\boldsymbol{\Sigma} ^{-1}\boldsymbol{\Sigma}\boldsymbol{x}=(\boldsymbol{\Sigma}\boldsymbol{x}) ^{T}\boldsymbol{\Sigma} ^{-1}\boldsymbol{\Sigma}\boldsymbol{x}=\boldsymbol{x} ^{T}\boldsymbol{\Sigma} ^{T}\boldsymbol{\Sigma} ^{-1}\boldsymbol{\Sigma}\boldsymbol{x}=\boldsymbol{x} ^{T}\boldsymbol{\Sigma}\boldsymbol{x}>0
    - 그러므로 Σ1\boldsymbol{\Sigma} ^{-1} 도 positive-semidefinite이다
    - Σ1\boldsymbol{\Sigma} ^{-1} 가 positive-semidefinite이므로 λj0\lambda _{j}\ge 0{λj}j=1n\{ \lambda _{j} \}_{j=1} ^{n} 고유값 집합이 존재한다.β={e1,e2,,en}\beta=\{ \boldsymbol{e}_{1},\boldsymbol{\boldsymbol{e}}_{2},\cdots ,\boldsymbol{e}_{n} \} γ=[v1,v2,,vn]\gamma=[v _{1},v _{2},\cdots,v _{n}] 이라 하자(Σvj=λjvj\Sigma v _{j}=\lambda _{j}v _{j}) [Σ]β=[I]γβ[Σ]γ[I]βγ[\Sigma]_{\beta}=[I]_{\gamma} ^{\beta}[\Sigma]_{\gamma}[I]_{\beta} ^{\gamma} 이고,
    - (xμ)TΣ1(xμ)=(xμ)T([I]γβ[Σ]γ1[I]βγ)(xμ)(\boldsymbol{x}-\boldsymbol{\mu}) ^{T}\boldsymbol{\Sigma} ^{-1}(\boldsymbol{x}-\boldsymbol{\mu})=(\boldsymbol{x}-\boldsymbol{\mu}) ^{T}([I]_{\gamma} ^{\beta}[\Sigma]_{\gamma} ^{-1}[I]_{\beta} ^{\gamma})(\boldsymbol{x}-\boldsymbol{\mu})
    - =([I]βγ(xμ))T[Σ]γ([I]βγ(xμ))0=([I]_{\beta} ^{\gamma}(\boldsymbol{x}-\boldsymbol{\mu})) ^{T}[\Sigma]_{\gamma}([I]_{\beta} ^{\gamma}(\boldsymbol{x}-\boldsymbol{\mu}))\ge 0

2. 이항분포와 관련분포

  • 베르누이 분포 Bernouli Distribution
    - 결과가 성공 또는 실패 두 가지 경우만 존재하고, 각 시행마다 성공확률이 pp로 동일한 시행
    - 정의
    - f(x;p)=px(1p)1xf(x;p)=p ^{x}(1-p) ^{1-x} : x=0,1x=0,1 만 존재
  • 이항분포 Binomial Distribution
    - 성공확률이 pp 일때,베르누이 시행을 nn 번하여, xx 번 성공했음을 의미한다
    - 정의
    - f(x;n,p)=(nx)px(1p)nxf(x;n,p)=\displaystyle\binom{n}{x}p^x(1-p)^{n-x}
  • 다항분포 Multinomial Distribution
    - 한번의 시행에서 kk개 범주가 존재하는 시행이 이에 대응되는 고정된 성공확률 p1,p2,...,pkp_{1},p_{2},...,p_{k}일때, nn번 시도하여 , 각 범주가 x1,x2,...,xkx_{1},x_{2},...,x_{k} 번씩 성공했음을 의미한다
    - 정의
    - P(x1,x2,...,xk;n,p)=n!x1!x2!xk1!xk!p1x1p2x2pk1xk1pkxkP(x_1,x_2,...,x_k;n,\boldsymbol{p})=\displaystyle\frac{n!}{x_1!x_{2!} \cdots x_{k-1}!x_{k}!}p_{1}^{x_{1}}p_{2}^{x_{2}}\cdots p_{k-1}^{x_{k-1}}p_{k}^{x_{k}}
    - 이때 n=i=1kxin=\displaystyle\sum_{i=1}^{k}{x_i} 이고 1=i=1kpi1=\displaystyle\sum_{i=1}^{k}{p_i} 이다
  • 푸아송 분포 Poisson Distribution
    - 정해진 시간 내에 어떤 사건이 일어날 횟수의 기댓값을 λ\lambda라고 할때, 그 사건이 xx회 일어날 확률을 의미한다
    - 성공확률 pp값이 매우 작은 베르누이 시행을 고려하자. 이 경우 pp를 다룰순 없지만, 정해진 시간내에 시행횟수 nn을 높여, npnp는 특정 수로 기댓값을 갖는다고 하자. 푸아송 분포는 n,pn,p 대신 주어진 시간내의 성공횟수 λ=np\lambda=np 를 다루는 것이다.
    - 정의
    - P(x;λ)=λxeλx!P(x;\lambda)=\displaystyle\frac{\lambda^{x} e^{-\lambda}}{x!}
    - 1=x=0p(x)1=\displaystyle\sum_{x=0}^{\infty}{p(x)} 라는 성질을 갖는다. x=0λxx!=eλ\displaystyle\sum_{x=0}^{\infty}{\displaystyle\frac{\lambda^x}{x!}}=e^{\lambda}이기 때문이다
    - 증명
    - limnP(x;n)=limnn!x!(nx)!(λn)x(1λn)nx\lim_{n\to\infty}{P(x;n)}=\lim_{n\to\infty}{\displaystyle\frac{n!}{x!(n-x)!}}{(\displaystyle\frac{\lambda}{n})^x}{(1-\displaystyle\frac{\lambda}{n})^{n-x}}
    - =limnn!nx(nx)!λxx!(1λn)n(1λn)x=\lim_{n\to \infty }{\displaystyle\frac{n!}{n^x(n-x)!}}\displaystyle\frac{\lambda^x}{x!}(1-\displaystyle\frac{\lambda}{n})^n(1-\displaystyle\frac{\lambda}{n})^{-x}
    - =limnn(n1)(n2)(nx+1)nxλxx!eλ=\lim_{n\to \infty }{\displaystyle\frac{n(n-1)(n-2)\cdots(n-x+1)}{n^x}}\displaystyle\frac{\lambda^x}{x!}e^{-\lambda}
    - =λxx!eλ=\displaystyle\frac{\lambda^x}{x!}e^{-\lambda}
    - 특성
    - x=λx=\lambda 에서 1계도함수 값이 0이고, 2계도함수값이 음수므로 극값이 되는 것을 확인할 수 있다
    - 기댓값과 분산 모두 λ\lambda의 값을 갖는다
  • 음이항분포 Negative Binomial Distribution
    - 성공확률이 pp 인 베르누이 시행을 rr개의 성공을 얻을 때까지 시도할 때의 시행횟수를 XX 라 할때 이 XX에 대한 확률밀도함수이다
    - 처음의 성공(r=1r=1)이 나타날때 까지 시도하면 기하분포라고 부른다
    - 마지막 위치가 반드시 성공이여야만 하므로 다음과 같은 확률을 갖는듯
    - 정의
    - f(x;r,p)=(x1r1)pr(1p)xrf(x;r,p)=\displaystyle\binom{x-1}{r-1}p ^{r}(1-p) ^{x-r}
  • 초기하분포 Hypergeometric Distribution
    - 주머니에 rr 개의 빨간공과 ww 개의 하얀공이 있을 때 (총 갯수 N=r+wN=r+w) nn 개의 공을 비복원 추출하였을 때 xx개의 빨간공을 얻을 확률
    - 정의
    - f(x;N,r,n)=(rx)(Nrnx)(Nn)f(x;N,r,n)=\displaystyle\frac{\displaystyle\binom{r}{x}\displaystyle\binom{N-r}{n-x}}{\displaystyle\binom{N}{n}}
    -

3.연속형 확률분포

  • 균일분포
    - 조건
    - 구간 (a,b)(a,b) 에서 균일하게 분포되어있다고하자

  • 정의

  • f(x)=\begin{equation}\begin{cases} {1/(b-a)} & \text{if } a \le x \le b {}\\ {0} & \text{else } {}\end{cases}\end{equation}
    - 균일분포의 확률분포함수
    - F(x)=\displaystyle\int_{}^{}{f(x)dx}=\begin{equation}\begin{cases} {0} & \text{if } x <a {}\\ {(x-a)/(b-a)} & \text{if } { }a \le x <b \\ {1} & \text{ else } \end{cases}\end{equation}

  • 지수분포- 조건
    - 특정 사건 AA 가 일어나고 또 다시 같은 사건이 일어나는데 걸리는 시간을 WW 라 하자
    - 이는 1- (x=0x=0인 푸아송분포 P(x;λ)=λxeλx!P(x;\lambda)=\displaystyle\frac{\lambda^{x} e^{-\lambda}}{x!}를 ww번 곱한값) 과 같다
    - 정의
    - F(w)=1[λ0eλ0!]w=1exp[λw]F(w)=1-[\displaystyle\frac{\lambda ^{0}e^{-\lambda}}{0!}] ^{w}=1-exp[-\lambda w]
    - f(w)=λexp[λw]f(w)=\lambda exp[-\lambda w ]
    - 이를 1/θ=λ1/\theta=\lambda 로 표기하면
    - f(x)=1θexp(x/θ)f(x)=\displaystyle\frac{1}{\theta}exp(-x/\theta)
    - 활용
    - 신뢰성 이론, 생존모형, 보험계리모형에서 이렇게 표현하곤 한다

4. 베타,감마 분포

  • 모수 α,β\alpha,\beta에 따라 다양한 형태가 존재하기 때문에, 베이지안에서 사전확률분포을 가정할 때 주로 활용된다
  • 베타함수와 감마함수
    - 베타함수
    - B(α,β)=01xα1(1x)β1dxB(\alpha,\beta)=\displaystyle\int_{0}^{1}{x^{\alpha-1}(1-x)^{\beta-1}dx}
    - =Γ(α)Γ(β)Γ(α+β)=\displaystyle\frac{\Gamma(\alpha)\Gamma(\beta)}{\Gamma(\alpha+\beta)}
    - 감마함수
    - Γ(α)=0xα1exdx\Gamma(\alpha)=\displaystyle\int_{0}^{\infty }{x^{\alpha-1}e^{-x}}{dx}
    - =(α1)Γ(α1)=(\alpha-1)\Gamma(\alpha-1)
    - =(α1)!(ifαN)=(\alpha-1)!\,\,(if\,\, \alpha\in \mathbb{N})
    - 이 함수들은 다양한 형태의 바리에이션이 존재한다. 자세한 설명은 Boas- Special Functions 파트를 참고하자
  • 베타분포와 감마분포
    - 베타 분포
    - f(x;α,β)=Γ(α+β)Γ(α)Γ(β)xα1(1x)β1f(x;\alpha,\beta)=\displaystyle\frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha) \Gamma(\beta)}x^{\alpha-1}(1-x)^{\beta-1}
    - 특성
    - E(x)=αα+βE(x)=\displaystyle\frac{\alpha}{\alpha+\beta}
    - Var(x)=αβ(α+β)2(α+β+1)Var(x)=\displaystyle\frac{\alpha \beta}{(\alpha+\beta)^{2}(\alpha+\beta+1)}
  • 감마분포
    - Γ(x;α,β)=1Γ(α)βαxα1ex/β\Gamma(x;\alpha,\beta)=\displaystyle\frac{1}{\Gamma(\alpha)\beta^{\alpha}} x ^{\alpha-1} e ^{- x/\beta}
    - 이때 α,β\alpha,\beta를 각각 shape parameter,scale parameter라고 부른다
    - 특성
    - E(x)=αβE(x)=\displaystyle\frac{\alpha}{\beta}
    - Var(x)=αβ2Var(x)=\displaystyle\frac{\alpha}{\beta^2}

5. 확률변수들의 변환

  1. 누적분포함수 사용

    • 조건 1
      - 확률변수 XX 가 이산형이고, 가능한 값이 x1,x2,x _{1},x _{2},\cdots 이 있다 하자
    • 정리 1
      - Y=g(X)Y=g(X)y1=g(x1),y2=g(x2),y _{1}=g(x _{1}), y _{2}=g(x _{2}),\cdots 와 같은 방법으로 구할 수 있다
      - fY(yj)=P(Y=yj)=P(g(X)=yj)f _{Y}(y _{j})=P(Y=y _{j})=P(g(X)=y _{j})
      - ={i:g(xi)=yj}P(X=xi)=\displaystyle\sum\limits_{\{ i : g(x _{i})=y _{j} \}}^{}{P(X=x _{i})}
      - ={i:g(xi)=yj}fX(xi)=\displaystyle\sum\limits_{\{ i:g(x _{i})=y _{j} \}}^{}{f _{X}}(x _{i})
    • 조건 2
      - 확률변수 XX 가 연속형이고, 누적분포함수 FX(x)F _{X}(x) 를 가진다고하자
    • 정리 2
      - Y=g(X)Y=g(X) 는 다음과 같은 방법으로 구할 수 있다
      - {X:g(X)y}\{X:g(X) \le y \} 를 다음과 같이 표현한다
      - FY(y)=P[g(X)y]F _{Y}(y)=P[g(X) \le y]
      - fY(y)f _{Y}(y)FY(y)F _{Y}(y) 를 미분함으로서 구할 수 있다

    • - Y=X2Y=X ^{2} 인 경우 fY(y)f _{Y}(y)fX(x)f _{X}(x) 에 대한 함수로 구하기
      - FY(y)=P(Yy)F _{Y}(y)=P(Y \le y)
      - =P(X2y)=P(X ^{2} \le y)
      - P(yXy)P(-\sqrt{ y} \le X \le \sqrt{y})
      - =FX(y)FX(y)=F _{X}(\sqrt{y})-F _{X}(-\sqrt{y})
      - fY(y)=yFY(y)=y[FX(y)FX(y)]f _{Y}(y)=\cfrac{\partial {}}{\partial {y}}F _{Y}(y)=\cfrac{\partial {}}{\partial {y}}[F _{X}(\sqrt{y})-F _{X}(-\sqrt{y})]
      - =fX(y)2y+fX(y)2y=\displaystyle\frac{f _{X}(\sqrt{y})}{2\sqrt{y}}+\displaystyle\frac{f _{X}(-\sqrt{y})}{2 \sqrt{y}}
  2. 결합변환

    • 조건
      - X=(X1,X2,,Xn)\boldsymbol{X}=(X _{1},X _{2},\cdots,X _{n}) 연속형 확률변수로 구성된 확률벡터가 있다하자
      - X\boldsymbol{X} 의 결합 확률밀도함수는 fXf _{\boldsymbol{X}} 로 표기하자
      - fXf _{\boldsymbol{X}} 의 정의역을 AA 라 하자
      - Yi=gi(X)Y _{i}=g _{i}(\boldsymbol{X}) 로 결합변화된 확률변수가 있다하자
      - gig _{i}AA 상에 정의된 1:1 변환이라 하자
      - xi=hi(y)x _{i}=h _{i}(\boldsymbol{y}) 를 만족시키는 hih _{i} 가 유일하게 존재한다고 하자
    • 정리
      - fY(y1,y2,,yn)=fX(h1(y),h2(y),,hn(y))Jf _{\boldsymbol{Y}}(y _{1},y _{2},\cdots, y _{n})=f _{\boldsymbol{X}}(h _{1}(\boldsymbol{y}),h _{2}(\boldsymbol{y}),\cdots, h _{n}(\boldsymbol{y}))|J|- J=\begin{vmatrix*} \cfrac{\partial {x _{1}}}{\partial {y _{1}}} & \cfrac{\partial {x _{1}}}{\partial {y _{2}}} & \cdots & \cfrac{\partial {x _{1}}}{\partial {y _{n}}} \\ \cfrac{\partial {x _{2}}}{\partial {y _{1}}} & \cfrac{\partial {x _{2}}}{\partial {y _{2}}} & \cdots & \cfrac{\partial {x _{2}}}{\partial {y _{n}}} \\ \cdots \\ \cfrac{\partial {x _{n}}}{\partial {y _{1}}} & \cfrac{\partial {x _{n}}}{\partial {y _{2}}} & \cdots & \cfrac{\partial {x _{n}}}{\partial {y _{n}}}\end{vmatrix*}

6. 적률생성함수 & 확률생성함수

  • 적률
    - 조건
    - 확률변수 XX 가 있다고 하자
    - 정의
    - rr 차 적률
    - μr=E[Xr]\mu _{r}'=\mathbb{E}[X ^{r}]
    - rr 차 중심적률
    - μr=E[(Xμ)r]\mu _{r}=\mathbb{E}[(X-\mu) ^{r}]
    - 여기서 3차 중심적률은 비대칭성을 재는 척도로서 왜도skewness라 하고, 4차는 꼬리의 두께를 재는 척도로써 첨도kurtosis라고 부른다. 다만 왜도는 측정단위에 의존하므로 σ3\sigma ^{3} 으로 나눈 단위를 왜도 계수라고 칭하고, 첨도도 σ4\sigma ^{4} 를 나누고 3을 뺀 μ4/σ43\mu _{4}/\sigma ^{4}-3 를 첨도계수라고 한다

  • 적률생성함수
    - 조건
    - 확률변수 XX 가 있다고 하자
    - 어떤 h>0h>0 에 대하여, h<t<h-h<t<h 를 만족하는 모든 tt 에서 E[etX]<\mathbb{E}[e^{tX}]<\infty 라면
    - 정의
    - M[X]=MX(t)=E[exp(tX)]\mathbb{M}[X]=M _{X}(t)=\mathbb{E}[exp(tX)]
    - 성질
    - M[X](r)=MX(r)(0)=E(Xr)\mathbb{M}[X]^{(r)}=M _{X}^{(r)}(0)=E(X ^{r})
    - 관련 정리
    1. 확률 변수 X,YX,Y 가 같은 적률생성함수를 가지면, 두 확률변수는 같은 확률밀도함수를 갖는다
    2. M[aX+b]=ebtM[X](at)=ebtMX(at)\mathbb{M}[aX+b]=e^{bt}\mathbb{M}[X](at)=e^{bt}M _{X}(at) 이다
    3. 만약 Xi(i=1,2,,n)X _{i}(i=1,2,\cdots,n)이 서로 독립이라면 M[i=1nXi]=i=1nM[Xi]\mathbb{M}[\displaystyle\sum\limits_{i=1}^{n}{X _{i}}]=\displaystyle\prod\limits_{i=1}^{n}{\mathbb{M}[X _{i}]} 이다
    - 증명
    2. M[aX+b]=E[exp(t(aX+b))]=ebtE[exp(taX)]=ebtM[X](at)\mathbb{M}[aX+b]=\mathbb{E}[exp(t(aX+b))]=e^{bt}\mathbb{E}[exp(taX)]=e^{bt}\mathbb{M}[X](at)
    3. M[i=1nXi]=E[exp(t(i=1nXi))]=E[i=1nexp(tXi)]=i=1nE[exp(tXi)]=i=1nM[Xi]\mathbb{M}[\displaystyle\sum\limits_{i=1}^{n}{X _{i}}]=\mathbb{E}[exp(t(\displaystyle\sum\limits_{i=1}^{n}{X _{i}}))]=\mathbb{E}[\displaystyle\prod\limits_{i=1}^{n}{exp(t X _{i})}]=\displaystyle\prod\limits_{i=1}^{n}{\mathbb{E}[exp(t X _{i})]}=\displaystyle\prod\limits_{i=1}^{n}{\mathbb{M}}[X _{i}]
    - 예
    - X1,X2,,XnX _{1},X _{2},\cdots,X _{n} 이 서로 독립이고 성공확률이 pp 인 베르누이 확률변수라고 하자.
    - 베르누이 확률변수의 적률생성함수는 M[Xi]=pet+q(p+q=1)\mathbb{M}[X _{i}]=p e^{t}+q \,\,(p+q=1) 이다.
    - 이때 Y=X1+X2++XnY=X _{1}+X _{2}+\cdots+X _{n} 이라면
    - M[i=1nXi]=i=1nM[Xi]=(pet+q)n\mathbb{M}[\displaystyle\sum\limits_{i=1}^{n}{X _{i}}]=\displaystyle\prod\limits_{i=1}^{n}{\mathbb{M}[X _{i}]}=(p e^{t}+q) ^{n} 이다 즉 B(n,p)B(n,p)의 이항분포를 따르는 확률변수의 적률생성함수는 앞에와 같다.

  • 확률생성함수
    - GX(s)=E[sX]=j=0pjxjG _{X}(s)=\mathbb{E}[s ^{X}]=\displaystyle\sum\limits_{j=0}^{\infty }{p _{j}x ^{j}}
profile
안녕하세요!

0개의 댓글