Bernoulli, Binomial, Multinomial, Multinoulli Distribution

J.H.L·2022년 7월 14일
0

Bernoulli Distribution (베르누이 분포)

  • 확률 변수 X의 값이 0 혹은 1인 분포
  • P(x=1):μP(x=1): \mu
  • P(x=0):1μP(x=0): 1-\mu
  • P(xμ)=μx(1μ)1xP(x | \mu) = \mu^x (1-\mu)^{1-x}
  • E(x)=μE(x) = \mu
  • Var(x)=μ(1μ)Var(x) = \mu(1-\mu)
    -> 평균과 분산의 경우 공식에 대입하면 바로 얻을 수 있다.
    -> E(x)=xP(xμ)=0(1μ)+1μ=μE(x) = \sum x*P(x|\mu) = 0 * (1-\mu) + 1 * \mu = \mu
    -> Var(x)=E((xE(x))2)=E((xμ)2)=E(x2)μ2=μμ2=μ(1μ)Var(x) = E((x-E(x))^2) = E((x-\mu)^2) = E(x^2)-\mu^2 = \mu-\mu^2 = \mu(1-\mu)

Binomial Distribution (이항 분포)

  • 베르누이 분포와 같이 일어날 확률이 P(x=1)=μP(x=1) = \mu, 혹은 P(x=0)=1μP(x=0) = 1-\mu 두개인 확률 변수가 있을 때, 총 N번 시행 시 확률변수 X가 1인 사건이 m번 발생한 것을 나타내는 확률 분포
  • P(mN,μ)=(Nm)μm(1μ)NmP(m|N, \mu) = \dbinom{N}{m}\mu^{m}(1-\mu)^{N-m}
  • 이때 (NM)=NCm\dbinom{N}{M} = _N C _m을 뜻한다.
  • 평균: NμN\mu
  • 분산: Nμ(1μ)N\mu(1-\mu)

Multinomial Distribution (다항 분포)

  • 이항 분포와 비슷하지만, 확률변수 XX가 2개가 아닌, k개일 때의 각 확률 변수가 발생할 확률 분포이다.
  • P(Xi)=pi(i:1,...,k)P(X_i) = p_i (i: 1 , ... , k) 일 때, p1+p2+...+pk=1p_1 + p_2 + ... + p_k = 1을 만족할 때
  • P(X1=x1,X2=x2,...,Xk=xk)=N!x1!...xk!p1x1p2x2...pkxk,wheni=1kNP(X_1=x_1, X_2=x_2, ..., X_k=x_k ) = \frac{N!}{x_1!...x_k!}p_1^{x_1}p_2^{x_2}*...*p_k^{x_k}, when \sum_{i=1}^k{N}
    ->즉 k개의 확률변수가 총 N번 발생했고, 각 확률변수의 발행 횟수가 x1, x2, ... , xk회 일 때의 확률을 구하는 것이다.
  • E(Xi)=npiE(X_i) = np_i
  • Var(Xi)=npi(1pi)Var(X_i)= np_i(1-p_i)

Multinoulli Distribution

  • xx 벡터가 k*1 차원의 이산 확률 변수 (벡터)이고, one-hot encoding과 같은 방식으로 하나의 원소만 1, 다른 k-1개의 원소는 0일 때 확률 분포를 정의한다.
  • 또한 각 k차원의 값에서 xix_i값이 발생할 확률을 pip_i 라고 한다.
  • i=1kpi=1\sum_{i=1}^kp_i = 1을 만족
  • P(x1,x2,...,xk)=i=1kpixiP(x_1, x_2, ..., x_k)= \prod_{i=1}^kp_i^{x_i}의 확률을 갖게 되는 확률 분포이다.
  • p=[p1,p2,...,pk]Tp = [p_1, p_2, ..., p_k]^T라 할때,
  • E(X)=p(k1벡터)E(X) = p (k*1벡터)
  • Cov(X)=Cov(X)= \sum 이고, i,j={pi(1pi)if j=ipipjif ji}\sum_{i,j} = \begin{Bmatrix} p_i(1-p_i)& \text{if }&j=i \\ -p_ip_j &\text{if }&j\ne i \end{Bmatrix}
  • 즉 Bernoulli Distrobution의 확장판이 되는 것.
profile
포항공대 인공지능 대학원에 재학중인 대학원생입니다.

0개의 댓글