Regression

ingsol·2023년 4월 8일
0

자료

목록 보기
8/10

1. Linear Regression

WLS=WMLEW_{LS} = W_{MLE}

2. Ridge Regression

WRidge=WMAPW_{Ridge} = W_{MAP}

둘이 어떻게 연관이 되는 것일까,,
우선 Ridge Regression의 objective는 model의 overfitting을 막는 것.

어떻게?

우선 model의 overfitting이 왜 일어나는지 살펴보자.
1) When the number of parameters is large(parameter 수가 많을 경우)

  • The funciton approximation focuses on memorizing training data rather than extracting patters

2) train set이 적을 경우

3) When the magnitude of parameters is large(가중치들이 넓은 범위의 값을 갖을 경우)
=> 이 상황을 제어함으로써 overfitting 방지 = Ridge Regression

Ridge Regression은 model이 loss를 줄이는 onjective를 가지고 학습될 때 그 loss에 W magnitude를 추가해준다. W가 크면 loss 또한 커지도록 설정해줌으로써 W가 너무 커지지 않도록 regulate하면서 W(=model)를 학습할 수 있다.
** λ가 커질 수록 smoother prediction model

ε/W∂ε/∂W =>

그렇다면 이게 MAP와 무슨 연관이 있는 것일까?

Based on the belif that good parameter has small magnitude(=Ridge), i.e.prior p(w)=N(w0,Σ)p(w) = N(w|0,Σ), the posterior over w is given as:
which is maximized at

likelihood에 w의 분포를 prior로 줌으로써 posterior을 구할 수 있게된다. 즉, Linear Regression = p(y|Φ,w) = likelihoodprior p(w) 을 줘서 posterior = p(w|y,Φ) 을 이용한 MAP optimize가 이루어진다.

하지만 이것이 이루어지려면 w가 작은 분산을 가진다는 조건이 꼭 충족되어야지만 최적의 WMAPW_{MAP} 값을 구할 수 있다. 따라서,

0개의 댓글

관련 채용 정보