0. Reference
- source : 수학으로 풀어보는 강화학습 원리와 알고리즘
1. Expectation
-
Random Variable X 의 기댓값 또는 평균 E[X]
E[X]=∫∞∞xpX(x)dx
-
Random Variable X 의 함수 g(X) 의 기대값
E[g(x)]=∫−∞∞g(x)pX(x)dx
-
Random Variable X 가 다른 Random Variable Y 와 결합 분포를 갖는다면
- Random Variable X 의 함수 g(X) 의 기댓값
E[g(X)]=∫−∞∞∫−∞∞g(x)pXY(x,y)dxdy=∫−∞∞g(x)pX(x)dx
- Random Variable X 와 Y 의 함수 g(X,Y) 의 기댓값
E[g(X,Y)]=∫−∞∞∫−∞∞g(x,y)pXY(x,y)dxdy
Dirac delta 함수 δ(x) 를 이용하면 PMF 를 PDF 의 형태로 표시할 수 있다.
Dirac delta 함수 δ(x−a) 는 다음과 같은 두 가지 성질을 만족하는 함수로 정의.
∫−∞∞δ(x−a)dx=1,δ(x−a)=⎩⎪⎨⎪⎧∞,x=a0,x=a
Dirac delta 함수의 성질을 이용하면, 다음과 같이 PMF 의 총 합이
1=∫−∞∞pX(x)dx=∫−∞∞i=1∑nwX(xi)δ(x−xi)dx=i=1∑nwX(xi)∫−∞∞δ(x−xi)dx=i=1∑nwX(xi)
-
Probability (Mass Function) 기댓값
-
Discrete Random Variable X={x1,x2,⋯,xn}
-
PMF 가 pX(xi) 일 때, X 의 기댓값
pX(x)=i=1∑nwXδ(x−xi)dx
-
기댓값의 정의
E[X]=∫−∞∞xpX(x)dx
에 의해 X 가 가질 수 있는 값과 그 확률을 곱한 값의 총 합으로 계산. (with Dirac delta)
E[X]=∫−∞∞xpX(x)dx=∫−∞∞xi=1∑nwX(xi)δ(x−xi)dx=i=1∑nwX(xi)∫−∞∞xδ(x−xi)dx=i=1∑nxiwX(xi)
2. Variance
-
Random Variable 의 Variance.
Var(X)=E[(X−E[X])2]=∫−∞∞(x−E[X])2pX(x)dx=E[X2−2XE[X]+(E[X])2]=E[X2]−2E[X]E[X]+(E[X])2=E[X2]−(E[X])2
-
X 의 표준편차 (standard deviation) 은 σX=Var(X) 로 정의.
-
Random Variable X 와 Y 의 공분산 (covariance).
Cov(X,Y)=E[(X−E[X])(Y−E[Y])]=∫−∞∞∫−∞∞(x−E[X])(y−E[Y])pXY(x,y)dxdy=E[XY−XE[Y]−YE[X]+E[X]E[Y]]=E[XY]−E[X]E[Y]−E[Y]E[X]+E[X]E[Y]=E[XY]−E[X]E[Y]
-
X=Y 라면 Cov(X,X)=E[XX]−E[X]E[X]=E[X2]−(E[X])2=Var(X).
Variable X 와 Y 의 공분산이 0 이면 Random Variable X 와 Y 는 서로 비상관 관계 (uncorrelation).
- Random Variable X 와 Y 의 상관도 (correlation) 는 다음과 같이 정의.
Cor(X,Y)=E[XY]=∫−∞∞∫−∞∞xypXY(x,y)dxdy
Random Variable X 와 Y 가 서로 독립 일 때, correlation.
Cor(X,Y)=E[XY]=E[X]E[Y]
property
-
X,Y 가 독립이면, (x,y) 의 joint PDF 인 pXY(x,y)=pX(x)⋅pY(y)
-
수열의 합.
i∑j∑xiyj=(i∑xi)(i∑yi)
-
dx 에 대해 적분하면 y 에 대한 수식은 상수.
∫∫pX(x)pY(y)dxdy=∫pY(y)(∫pX(x)dx)dy
-
E[X] is constant.
source : https://www2.econ.osaka-u.ac.jp/~tanizaki/class/2012/econome1/05.pdf
Theorem:E[XY]=E[X]E[Y], when X is independent of Y.
pf.
For discrete random variables X and Y
E[XY]=i∑j∑xiyjpXY(xi,yj)=i∑j∑xiyjpX(xi)pY(yj)=(i∑xipX(xi))(j∑yjpY(yj))=E[X]E[Y]
pf.
For continuous random variables X and Y
E[XY]=∫−∞∞∫−∞∞xy⋅pXY(x,y)dxdy=∫−∞∞∫−∞∞xy⋅pX(x)⋅pY(y)dxdy=∫−∞∞y⋅pY(y)(∫−∞∞x⋅pX(x)dx)dy=E[X]⋅∫−∞∞y⋅pY(y)dy=E[X]E[Y]
-
두 Random Variable 가 독립
E[XY]=E[X]E[Y] 이므로
Cor(X,Y)=E[XY]−E[X]E[Y]=0
이 되어서 두 Random Variable 는 비상관 관계가 된다.
- 그러나 두 Random Variable 이 비상관 관계에 있다는 것은 독립을 의미하지 않는다.
-
Random Variable X 와 Y 의 상관 계수 (correlation coefficient)
ρXY=Var(X)Var(Y)Cov(X,Y)=(E[X2]−(E[X])2)(E[Y2]−(E[Y])2)E[XY]−E[X]E[Y]
상관계수는 (X−E[X]) 가 (Y−E[Y]) 와 얼마나 밀접한 관련이 있는지를 나타내는 척도.
=E[X2]E[Y2]−E[X2](E[Y])2−(E[X])2E[Y2]+(E[X])2(E[Y])2E[XY]−E[X]E[Y]
- 두 Random Variable X,Y 의 correlation 이 E[XY]=0→ X 와 Y 는 서로 직각.
3. Conditional Expectation, Variance
-
Random Variable Y 가 y 로 주어진 X 의 조건부 기댓값(conditional expectation)
E[X∣Y=y]=∫−∞∞xpX∣Y(x∣y)dx
-
Random Variable Y 자체를 조건으로 하는 X 의 조건부 기댓값.
E[X∣Y]=∫−∞∞xpX∣Y(x∣Y)dx
-
주의
- E[X∣Y=y] 는 실수 y 의 함수로서의 Real value R
- E[X∣Y] 는 Random Variable Y 의 함수로서 Random Variable
-
Random Variable Y 가 y 로 주어진 X 의 함수 g(X) 의 조건부 기댓값.
E[g(X)∣Y=y]=∫−∞∞g(x)pX∣Y(x∣y)dx
-
Random Variable Y 를 조건으로 하는 X 의 함수 g(X) 의 조건부 기댓값.
E[g(X)∣Y]=∫−∞∞g(x)pX∣Y(x∣Y)dx
-
y 로 주어진 X 의 조건부 분산 (conditional variance) 는 다음과 같이 정의.
Var(X)=E[(X−E[X])2]=E[X2]−(E[X])2
Var(X∣Y=y)=E[(X−E[X∣Y=y])2∣Y=y]=E[X2∣Y=y]−(E[X∣Y=y])2
-
Random Variable Y 자체를 조건으로 하는 X 의 조건부 분산.
Var(X∣Y)=E[(X−E[X∣Y])2∣Y]=E[X2∣Y]−(E[X∣Y])2
-
주의
- Var(X∣Y=y) 는 실수 y 의 함수로서 실수
- Var(X∣Y) 는 Random Variable Y 의 함수로서 Random Variable
-
Var(X∣Y) 는 Random Variable 이므로 기댓값 가능.
E[Var(X∣Y)]=E[E[X2∣Y]−(E[X∣Y])2]=E[E[X2∣Y]]−E[(E[X∣Y])2]=E[X2]−E[(E[X∣Y])2]
-
E[X∣Y] 도 Random Variable 이므로 분산 가능.
Var(E[X∣Y])=EY[(E[X∣Y]−E[E[X∣Y]])2]=E[(E[X∣Y])2]−(E[X])2
- EY[⋅] 는 Random Variable Y 에 관한 기댓값임을 강조하기 위한 기호.
-
E[Var(X∣Y)] 와 Var(E[X∣Y]) 을 더하면,
E[Var(X∣Y)]+Var(E[X∣Y])=E[X2]−(E[X])2=Var(X)