2주차 - Gaussian Process

ToBigs1617 Time-Series·2022년 4월 14일
0
post-custom-banner

2주차 - Gaussian Process

Gaussian Basics

Gaussian random variable XN(μ,Σ)X\sim N(\mu, \Sigma)

  • P(X;μ,Σ)=1(2π)d/2Σe12((xμ)TΣ1(xμ))P(X;\mu, \Sigma)=\frac{1}{(2\pi)^{d/2}|\Sigma|}e^{-\frac{1}{2}((x-\mu)^T\Sigma^{-1}(x-\mu))} - prbability density function

  • xP(X;μ,Σ)dx=1\int_{x}P(X;\mu, \Sigma)dx=1

  • P(XA)=XBP(XA,XB;μ,Σ)dXBP(X_A)=\int_{X_B}P(X_A,X_B;\mu, \Sigma)dX_B - marginalization

  • P(XB)=XAP(XA,XB;μ,Σ)dXAP(X_B)=\int_{X_A}P(X_A,X_B;\mu, \Sigma)dX_A - marginalization

  • P(XAXB)=P(XA,XB;μ,Σ)XBP(XA,XB;μ,Σ)dXBP(X_A|X_B)=\frac{P(X_A,X_B;\mu, \Sigma)}{\int_{X_B}P(X_A,X_B;\mu, \Sigma)dX_B} - conditioning

  • XAXB=XBN(μA+ΣABΣBB1(XBμB),ΣAAΣABΣBB1ΣBA)X_A|X_B=X_B\sim N(\mu_A+\Sigma_{AB}\Sigma_{BB}^{-1}(X_B-\mu_B),\Sigma_{AA}-\Sigma_{AB}\Sigma_{BB}^{-1}\Sigma_{BA})

Multivariate Gaussian
X=[XAXB],μ=[μAμB],Σ=[ΣAAΣABΣBAΣBB],Σ=E[(Xiμi)(Xjμj)]X=\begin{bmatrix} X_A \\ X_B \\ \end{bmatrix} , \mu=\begin{bmatrix} \mu_A \\ \mu_B \\ \end{bmatrix}, \Sigma=\begin{bmatrix} \Sigma_{AA} & \Sigma_{AB}\\ \Sigma_{BA} & \Sigma_{BB}\\ \end{bmatrix}, \Sigma=E[(X_i-\mu_i)(X_j-\mu_j)]

multivariate gaussian

matrix

covariance matrix는 변수간 상관관계에 대한 정보를 담고있다.

몇 가지 중요한 특징들

  • Σ\Sigma is positive semi-definite
  • Σii=Var(yi),Σii>=0\Sigma_{ii}=Var(y_i), \Sigma_{ii}>=0
  • if Yi,YjY_i, Y_j are independent , XiX_i is very different from XjX_j Σij,Σji=0\rightarrow \Sigma_{ij}, \Sigma_{ji}=0
  • if XiXj,Σij,Σji>0X_i \approx X_j, \Sigma_{ij}, \Sigma_{ji}>0

Example - Predict House price

covariance matrix

GP Regression

gaussian regression - 일반적인 Linear regression

2 different ways to learning parameter WW

D={(x1,y1),....,(xn,yn)}D=\{(x_1, y_1), ...., (x_n, y_n)\}

1) MLE: P(D;w)=i=1nP(yixi;w)P(D;w)=\prod_{i=1}^{n} P(y_i|x_i;w) - probability of data given parameters

2) MAP: P(wD)P(Dw)P(w)P(w|D)\propto P(D|w)P(w) - given our data, what is most likely set of parameters
\\
Once gaussian always gaussian
Assume a Gaussian Noise ϵN(0,σ2)\epsilon \sim N(0,\sigma^2), P(yixi;w)=N(wTx,σ2I)P(y_i|x_i;w)=N(w^Tx, \sigma^2I)

P(w)=N(0,Σp)P(w)=N(0, \Sigma_p)
P(D;w),P(wD)\therefore P(D;w),P(w|D)는 모두 Gaussian
\\

일반적인 machine learning process:
DWy=WTXD\rightarrow W \rightarrow y=W^TX (데이터를 학습시켜 파라미터 W를 추정하고 예측모델에 테스트 데이터를 입력하여 예측을 수행.)
MLE와 MAP에서는 하나의 특정 parameter w에 대한 predictive model을 준다.

Bayesian says.. Instead of model the probability of w (and we do prediction for that w), why don’t we from the start from modeling the prediction of the test point.
\\

  • P(yx,D)P(y|x^*,D): given the test set of x, what is distribution of label y?

  • P(yx,D)=wP(y,wD,x)dw=wP(yw,D,x)P(wD)dwP(y|x,D)=\int_w P(y,w|D,x)dw=\int_w P(y|w,D,x)P(w|D)dw

    marginalize out the model: average the prediction overall possible parameter W's with weight P(WD)P(W|D)

P(yx,D)=wP(y,wD,x)dw=wP(y|x,D)=\int_w P(y,w|D,x)dw=\int_wP(yw,x)P(y|w,x) P(wD)P(w|D)dwdw

P(yw,x)P(y|w,x): Gaussian

P(wD)P(w|D): Gaussian

P(yx,D)GaussianP(y|x,D) \rightarrow Gaussian (Once gaussian always gaussian)

하지만, 위의 integral식은 closed form으로 풀리지 않는다. 그러나, Gaussian likelihood and prior assumption을 통해 P(yx,D)P(y^*|x^*,D)는 여전히 gaussian이기에 우리는 이 문제를 풀 수 있다. 왜냐하면, 우리는 gaussian의 형태를 잘 알고 있기 때문 !

P(yx,D)N(μyD,ΣyD)P(y_*|x_*,D) \sim N(\mu_{y_*|D},\Sigma_{y_*|D})

Y(Y1=y1,...,Yn=yn,x1,...,xn,xt)N(KT(K+σ2I)1y,KKT(K+σ2I)1K)Y_*|(Y_1=y_1,...,Y_n=y_n,x_1,...,x_n,x_t)\sim N(K_*^T(K+\sigma^2I)^{-1}y,K_{**}-K_*^T(K+\sigma^2I)^{-1}K_*)

Example - Gaussian Process

gaussian process example where there is data you should be confident, when you don't have data you should believe on your prior knowledge.

Gaussian Process Math

Assuming that wN(0,Σp)w\sim N(0, \Sigma_p) \\ P(WD)N(σ2A1Xy,A1)P(W|D)\sim N(\sigma^{-2}A^{-1}Xy, A^{-1}) where A=1σ2XXT+Σp1A=\frac{1}{\sigma^2}XX^T+\Sigma_p^{-1}

prediction YY_* for a testing sample XX_*
P(yx,D)N(μyD,ΣyD)P(y_*|x_*,D) \sim N(\mu_{y_*|D},\Sigma_{y_*|D})
where μyD=σ2xTA1Xy\mu_{y_*|D}=\sigma^{-2}x_*^TA^{-1}Xy , ΣyD=xTA1x\Sigma_{y_*|D}=x_*^TA^{-1}x_*

From the property of matrix inversion lemma,
(I+UV)1U=U(I+VU)1(I+UV)^{-1}U=U(I+VU)^{-1}
(I+UV)1=IU(I+VU)1V(I+UV)^{-1}=I-U(I+VU)^{-1}V

gp math

Kernel

kernel feature map

위의 그림처럼 linear model f(x)로 문제를 풀 수 없을 때, input space X를 linear model이 해결할 수 있는 형태인 고차원의 feature space ϕ(X)\phi(X) 로 만들면 문제를 해결할 수 있다.

하지만, ϕ(X)\phi(X)를 정의하는 것 자체가 어렵거나 ϕ(X)\phi(X)를 푸는 연산량이 많은 문제점이 발생. 이를 해결하고자 Kernel을 적용한다.

ex) polynomial kernel
ϕ(x)=(1x1..xdx1x2..xd1xd..x1x2...xd)\phi(x)=\begin{pmatrix} 1 \\ x_1 \\ . \\ . \\ x_d \\ x_1x_2 \\ . \\ . \\ x_{d-1}x_d \\ . \\ . \\ x_1x_2...x_d \end{pmatrix}
ϕ(x)Tϕ(z)=1+x1z1+x2z2+...+x1..xdz1...zd=k=1d(1+xkzk)\rightarrow \phi(x)^T\phi(z)=1+x_1z_1+x_2z_2+...+x_1..x_dz_1...z_d=\prod_{k=1}^{d}(1+x_kz_k)

계산비용을 2d2^d에서 kdkd로 줄일 수 있다. K(xi,xj)=ϕ(xi)Tϕ(xj)=KijK(x_i,x_j)=\phi(x_i)^T\phi(x_j)=K_{ij}

GP에서는 RBF Kernel 주로 사용
Σij=K(xi,xj)=γexixj2σ2\Sigma_{ij}=K(x_i,x_j)=\gamma e^{\frac{-||x_i-x_j||^2}{\sigma^2}}

  • 0, xixjinf||x_i-x_j|| \rightarrow \inf

  • 1, xi=xjx_i=x_j

we can decompose Σ\Sigma as (KKKTK)\begin{pmatrix} K & K_* \\ K_*^T & K_{**} \end{pmatrix}

kernel matrices K,K,KK, K_*, K_{**} are functions of x1,x2,..xn,xx_1,x_2,..x_n,x_*
kernel is well defined covariance function

따라서 우리는 Gaussian Process를 평균과 공분산 kernel로 나타낼 수 있다.

yGP(m(x),k(x,x))y\sim GP(m(x), k(x,x'))

gp sample

Once you've constructed these matrices of similarities (K,K,KK, K_*, K_{**}), the process of prediction is just computing the posterior distribution of ff_*.

P(yx,D)N(μyD,ΣyD)P(y_*|x_*,D) \sim N(\mu_{y_*|D},\Sigma_{y_*|D})
Since I have a gaussian distribution of xx_*, I can draw samples from gaussian.

Gaussian Process 정리

y=WTx+ϵy=W^Tx+\epsilon \rightarrow Noisy ϵN(0,σ2)\epsilon\sim N(0,\sigma^2)

Function evaluation에 Noise가 있는 Noisy GP regression을 정의

P(yx,D)=wP(yw,D,x)P(wD)dwP(y|x,D)=\int_w P(y|w,D,x)P(w|D)dw

X가 given 되어있을 때, y의 distribution을 계산하기 위해 w로 marginalize

WN(0,Σp)W\sim N(0, \Sigma_p)

P(WD)N(σ2A1Xy,A1)P(W|D)\sim N(\sigma^{-2}A^{-1}Xy, A^{-1}) where A=1σ2XXT+Σp1A=\frac{1}{\sigma^2}XX^T+\Sigma_p^{-1}

Prior를 Gaussian으로 가정. covariance matrix는 similarity kernel(RBF)로 계산

P(yw,D,x)=i=1nP(yixi;w)P(y|w,D,x)=\prod_{i=1}^{n} P(y_i|x_i;w)

관측된 모든 데이터 포인트들에서의 추정값은 iid를 가정하기 때문에 전부 곱해서 계산. 역시 gaussian을 따름.

matrix2

P(yx,D)N(μyD,ΣyD)P(y_*|x_*,D) \sim N(\mu_{y_*|D},\Sigma_{y_*|D})

μ=KT(K+σ2I)1y\mu_*=K_*^T(K+\sigma^2I)^{-1}y

Σ=KKT(K+σ2I)1K\Sigma_*=K_{**}-K_*^T(K+\sigma^2I)^{-1}K_*

이제 새로운 xx_*데이터가 들어왔을 때, y의 covariance matrix가 어떻게 생겼는지 알 수 있고 평균과 분산을 활용하여 예측 모델을 만들어 낼 수 있음.

GPs are elegant and powerful ML method.

We get a measure of uncertainty for predictions for free.

GPs work very well for regression problems with small training data set sizes.

Running time O(n3n^3) due to matrix inversion. thus, GPs get slow when n >> 0.


Reference

https://www.youtube.com/watch?v=R-NUdqxKjos&t=1s - Cornell대학 Kilian교수님 강의

https://www.edwith.org/bayesiandeeplearning/joinLectures/14426 - edwith 최성준님 강의

https://www.youtube.com/watch?v=4vGiHC35j9s - UBC Nando de Freitas교수님 강의

https://www.youtube.com/watch?v=MfHKW5z-OOA - UBC Nando de Freitas교수님 강의

profile
빅데이터 분석 및 인공지능 대표 연합 동아리 투빅스(ToBig's) 16기 & 17기 시계열 심화세미나 기록입니다.
post-custom-banner

0개의 댓글