확률변수

Rapsby·2021년 1월 4일
0

머신러닝

목록 보기
2/2

확률변수 XX
표본의 집합 SS의 원소 ee를 실수값 X(e)=xX(e) = x에 대응시키는 함수

확률변수의 성질

곱셈법칙
p(X,Y)=p(XY)p(Y)=p(YX)p(X)p(X,Y) = p(X|Y)p(Y) = p(Y|X)p(X)

베이즈 확률
p(YX)=p(XY)p(Y)YP(XY)p(Y)p(Y|X) = \cfrac{p(X|Y)p(Y)}{\sum_YP(X|Y)p(Y)}

posterior=likelihood×priornormalizationposterior = \cfrac{likelihood \times prior}{normalization}

posterior : 사후확률
likelihood : 가능도
prior : 사전확률
normalization : YY와 상관없는 상수, XX의 경계확률 p(X)p(X)

확률변수의 함수
kk차원의 확률변수 벡터 x=(x1,,xk)\mathbf{x} = (x_1, \dots,x_k)가 주어졌을 때, kk개의 x\mathbf{x}에 관한 함수들 yi=gi(x)y_i = g_i(\mathbf{x})로 나타낼 수 있다.
만약 y=g(x)y = g(\mathbf{x})가 일대일 변환인 경우 (x=w(y)(\mathbf{x} = \mathbf{w}(y)로 유일한 해를 가질 때, yy의 결합확률밀도함수는

py(y1,,yk)=px(x1,,xk)Jp_y(y1,\dots,y_k) = p_x(x_1,\dots,x_k)|\mathbf{J}|

J=x1y1x1y2x1ykx2y1xky1xkyk\mathbf{J} = \begin{vmatrix} \frac{\partial x_1}{\partial y_1} & \frac{\partial x_1}{\partial y_2 } & \cdots & \frac{\partial x_1}{\partial y_k} \\ \\ \frac{\partial x_2}{\partial y_1} & \cdots & & \vdots \\ \\ \dots \\ \\ \frac{\partial x_k}{\partial y_1} & \cdots & & \frac{\partial x_k}{\partial y_k} &\end{vmatrix}

빈도주의 : 반복가능한 사건들의 빈도수에 기반
베이지안 : 불확실성을 정량적으로 표현

profile
Good Morning

0개의 댓글