7강_여러가지 이산확률분포

Eony_Jahng·2021년 12월 14일
0

확률과통계

목록 보기
7/10
post-thumbnail

"모두를 위한 열린 강좌 KOCW"에서 제공하는 한양대학교 이상화 교수님의 확률과통계 수업을 정리한 내용입니다.

Expectation = mean. 어떤 랜덤하게 나오는 확률, 변수값의 평균이 왜 중요한가?

랜덤하게 나오기 때문에 예측할 수 없다. 랜덤한 현상으로부터 어떤 값을 결정하려면 방법이 필요하다. 어떤 값이 나올지 모르니, 랜덤한 값을 하나 생각해보자.

estimate/prediction: X^estimate/prediction:\ \hat{X}

그리고 실제 값

(real)randomobservation: X(real) random observation:\ X

예를 들어, 주사위를 던져 나올 값을 예측해 하나를 정한 것이 X^\hat{X}이고, 실제로 던져 나온 값이 XX. 두 값의 차이의 제곱이 작을수록 유리한 것이다. 하지만 랜덤하니 여러번 던져 평균을 구해준다. 그것이 평균값 expectation이다.

E[(XX^)2]minimize expectation of squared differenceE[(X-\hat{X})^2]\\minimize\ expectation\ of\ squared\ difference

이 값이 minimize될 때 X^\hat{X}는 뭘까? 그것이 E[X]E[X]이다. 이것이 평균이 갖는 의미이다. 모든 랜덤한 현상에 대해서 Error가 가장 적은 값, 그것이 평균이다.

1. Chevyshev Inequality

Mean이 가지는 의미를 확률적으로 이야기해 보자.

P(XE[X]a)P(|X-E[X]|\le{a}): RV X와 X의 평균값 E[X]의 차이가 어떤 실수값 a보다 크거나 같을 확률은

P(XE[X]a)σX2a2P(|X-E[X]|\le{a})\le{\frac{\sigma_{X}^{2}}{a^2}}

부등호를 만족한다.

임의로 나온 값 X와 평균값 E[X]의 차이는 특정한 실수값 a보다 클 확률이 Upper bound σX2a2\frac{\sigma_{X}^{2}}{a^2}이다. 확률값과 실제값의 차이를 확률적으로 정의한 것이 Chevyshev Inequality이다.

증명은 다음과 같다.

chapter 4. Special Distribution

확률함수가 정해져있는 것에 대해 다뤄보자

4.2 Bernoulli Distribution

정의하고자 하는 Random Variable X가 binary하다. 단 두가지 outcome만 나온다는 뜻이다. outcome 적당한 RV에 매칭시키면 일종의 RV이 된다. 그런 분포를 Bernoulli Dist라고 한다.

4.3 Binomial Distribution 이항분포

이항분포가 제대로 된것인지 이야기 하려면, RV이 어떠한 범위, 어떠한 값을 취하는지 같이 규정해 주어야 한다.


4.4 Geometric Distribution

RV X: # of Bernoulli trials until 1st success

PX(x)=(1P)x1P,x=1,2,3,...E[X]=1p,σX2=1PP2P_X(x) = (1-P)^{x-1}P\quad,x=1,2,3,...\\ E[X]=\frac{1}{p},\quad \sigma_{X}^2=\frac{1-P}{P^2}

4.4.1 Forgetfulness(Memoryless)

Geometric Dist의 대표적인 예가 주사위를 던지는 것이다. 만약 10번을 던졌는데도 원하는 숫자가 나오지 않았다 하자. 앞으로 5번을 더 던져서 원하는 숫자가 나올 확률은 얼마일까?

만약 5번을 던져서 원하는 숫자가 나오지 않았으면, 앞으로 5번을 더 던져서 원하는 숫자가 나올 확률은 또 얼마일까?

정답은 앞에서 뭔 짓을해도 앞으로의 확률에 아무런 영향을 주지 않는다. (마치 로또와 같군;;) 이것을 Forgetfulness(Memoryless)이다. 이것이 Geometric Dist에 나온다.

Consider K additional trials untis the 1st success, given n trials fail.

P(X=n+kX>n)=P(X=n+KX>n)P(X>n)P(X=n+k|X>n)=\frac{P(X=n+K \cap X>n)}{P(X>n)}
=P(X=n+K)P(X>n)=(1P)n+K1Px=n+1(1P)x1P=\frac{P(X=n+K)}{P(X>n)}=\frac{(1-P)^{n+K-1}P}{\sum_{x=n+1}^{\infty}{(1-P)^{x-1}P}}
=P(1P)n+k1P(1P)n1(1P)=P(1P)K1P(X=K)=\frac{P(1-P)^{n+k-1}}{\frac{P(1-P)^n}{1-(1-P)}}=\frac{P(1-P)^{K-1}}{P(X=K)}
profile
7층에 사는 동언이

0개의 댓글

관련 채용 정보