링크텍스트

위 강의를 듣고 정리하는 글입니다.


discrete RV

5.1 Bernoulli and Binomial random variables

Bernoulli RV

XBernoulli(p)X \sim Bernoulli(p)

\sim: tilde

  • pmf
    • P(X=0)=1pP(X=0) = 1-p
    • P(X=1)=pP(X=1) = p

→ 앞면이 나올 확률이 pp인 동전

Binomial RV

YBinomial(n,p)Y \sim Binomial(n,p)

→ 위 동전을 nn번 던지기

  • pmf
    • P(Y=i)=(ni)pi(1p)niP(Y=i) = \binom{n}{i}p^i(1-p)^{n-i} (i=0,1,...,ni = 0, 1, ..., n)

(ni)\binom{n}{i}: n choose i

Y=X1+X2+...+XnY = X_1 + X_2 + ... + X_n
E[Xi]=0(1p)+1p=pE[X_i] = 0*(1-p) + 1*p = p
E[Y]=npE[Y] = np
Var[Y]=np(1p)Var[Y] = np(1-p)




5.2 Poisson RV

np=constant λnp =constant\ λ일 때

Possion(λ)=limn>infYPossion(λ) = \lim_{n->\inf}Y

예시) 어떤 매장에 1시간동안 들어오는 고객의 수(지나가는 사람은 많고(매우 큰 n) 그 사람들 중 들어올 확률 p는 적을 때)

  • pmf
    • P(X=i)=eλλii!P(X=i) = e^{-λ}\frac{λ^i}{i!} (i=0,1,2,3,i=0, 1, 2, 3, …)
i=0infP(i)=i=0infeλλii!=eλi=0infλii!=eλeλ=1\sum^{\inf}_{i=0}P(i) = \sum^{\inf}_{i=0}e^{-λ}\frac{λ^i}{i!} = e^{-λ}\sum^{\inf}_{i=0}\frac{λ^i}{i!} = e^{-λ}e^{λ} = 1

i=0infλii!=eλ\sum^{\inf}_{i=0}\frac{λ^i}{i!} = e^{λ}: taylor series

  • mgf
    • Φ(t)=E[etx]=i=0infetiP(i)=eλ(et1)Φ(t)=E[e^{tx}] = \sum_{i=0}^{\inf}e^{ti}P(i) = e^{λ(e^t-1)}
    • Φ(0)=λ=E[X]Φ’(0) = λ = E[X] → 제일 위의 식

geometric RV

Xgeometric(p)X \sim geometric(p)

동전을 던질 때 첫 앞면 나올 때까지 i 번 던질 확률

  • pmf

    • P(X=i)=(1p)i1pP(X=i) = (1-p)^{i-1}p
    • E[X]=1pE[X]=\frac{1}{p}(몇 번 던졌을 때 첫 앞면이 나오겠니?)
  • conditional expectation technique

    E[X]=E[E[XY]]E[X] = E[E[X|Y]]을 이용

    Y=0Y=0: 동전을 처음 던졌을 때 뒷면

    Y=1Y=1: 동전을 처음 던졌을 때 앞면

    XX의 첫 시도에서 앞면 또는 뒷면밖에 안나오니까 위 처럼 조건을 줄 수 있겠지

    E[X]=(1p)E[XY=0]+pE[XY=1]E[X] = (1-p)E[X|Y=0] + pE[X|Y=1]

    =(1p)(E[X]+1)+p(1)= (1-p)(E[X]+1) + p(1)

    E[XY=0]=E[X]+1E[X|Y=0]=E[X]+1: 처음에 뒷면 나왔으니 1. 첫 시도는 날리고 다시 시작한다고 생각하면 E[X]E[X]. 더해주면 그게 E[XY=0]E[X|Y=0]겠지.




continuous RV

5.4 Uniform RV

XUniform(α,β)X \sim Uniform(\alpha, \beta)
  • pdf
    • f(x)=1βα  if  αxβf(x) = \frac{1}{\beta - \alpha} \ \ if \ \ \alpha ≤ x ≤ \beta
    • f(x)=0  otherwisef(x) = 0 \ \ otherwise




5.5 Normal(Gaussian) RV

XNormal(μ,σ2)X \sim Normal(\mu, \sigma^2)
  • pdf
f(x)=12πσ2e(xμ)2)2σ2f(x) = \frac{1}{\sqrt{2\pi\sigma^2}}e^{\frac{-(x-\mu)^2)}{2\sigma^2}}




5.6 Exponential RV

XExponential(λ)X \sim Exponential(\lambda)
  • pdf

    • f(x)=λeλx      (x0)f(x) = \lambda e^{-\lambda x} \ \ \ \ \ \ (x ≥ 0)
    • f(x)=0      (x<0)f(x) = 0 \ \ \ \ \ \ (x < 0)
  • Memoryless

P(X>s+tX>t)=P(X>s)P(X>s+t|X>t) = P(X>s)

예를 들어 XX가 형광등의 수명이고 s=5s = 5, t=3t=3일 때

좌변: 형광등을 3일 쓰고 이 형광등을 최소 5일 더 쓸 확률

우변: 새 형광등을 5일 넘게 쓸 확률

→ 좌변은 중고 아니니? → 형광등의 수명이 Exponential RV로 모델링 될 때는 형광등을 썼다는 memory가 없음(새거랑 헌거랑 구분이 안됨) → 아래 그림이 exponential RV의 pdf인데 s일만큼 썼다고 pdf가 파란색으로 바뀌면 안됨(파란색 그래프는 면적이 1이 아니기 때문에 s일 썼더라도 노란색 그래프(원래 pdf와 동일)가 되어야겠지)


random variable XX

random variable이 n개 모이면 random vector [X1,X2,,Xn][X_1, X_2, …, X_n]

random variable이 무한개면 random process X(t)X(t)

random process: 시간에 따른 RV(시간에 따른 확률적인 변화를 가지는 구조)




5.7 gamma distribution

Xgamma(α,λ)      α>0, λ>0X \sim gamma(\alpha, \lambda) \ \ \ \ \ \ \alpha > 0, \ \lambda > 0
  • pdf
f(x)=λeλx(λx)α1Γ(α)     (x>=0)f(x) = \frac{\lambda e^{-\lambda x}(\lambda x)^{\alpha -1}}{Γ(\alpha)} \ \ \ \ \ (x>=0)
f(x)=0      (x<0)f(x)=0 \ \ \ \ \ \ (x<0)
  • gamma function
    • Γ(α)=0infeyyα1dyΓ(\alpha) = \int^{\inf}_0e^{-y}y^{\alpha - 1}dy
    • Γ(α)=(α1)Γ(α1)Γ(\alpha)=(\alpha - 1)Γ(\alpha - 1)
    • Γ(1)=1Γ(1) = 1 → 이때 gamma distribution의 pdf는 exponential distribution이 됨
    • Γ(n)=(n1)!Γ(n) = (n-1)!




5.8 Distributions arising from the normal

normal distribution으로부터 파생된 distribution

5.8.1 The chi-square distribution

ZiN(0,1)Z_i \sim N(0, 1)이고

Z1,Z2,...,Zn:iid RVsZ_1, Z_2, ..., Z_n: iid \ RVs일 때

X=Z12++Zn2X = Z_1^2 + … + Z_n^2

Xχn2X \sim χ_n^2

relation between chi-square and gamma RVs

χn2=gamma(n2,12)χ_n^2 = gamma(\frac{n}{2}, \frac{1}{2})

위 식 nn22를 넣으면

χn2=gamma(1,12)=exp(12)χ_n^2 = gamma(1, \frac{1}{2}) = exp(\frac{1}{2})

5.8.2 t-distribution

Tn=Zχn2nT_n = \frac{Z}{\sqrt{\frac{χ_n^2}{n}}}

0개의 댓글