지도 학습 머신 러닝 문제는 크게 분류 (Classification) 와 회귀 (Regression) 로 나뉜다.
그 중 회귀에 대해서 알아보겠다.
Regression
회귀는 어떤 연속형 데이터 b와 b의 원인으로 추정되는 a 사이의 관계식을 만들어 두 데이터 사이의 관계를 추정하는 방법이다.
→ b=f(a)+e
(여기서 e는 오차를 보정하기 위한 수식이다.)
위 식에서 f에 어떤 형태의 함수를 사용하느냐에 따라 linear regression, polynomial regression, logistic regression 등으로 나눌 수 있다.
Regularization
머신 러닝에서는 모델이 학습 데이터에 overfit되는 것에 주의해야 한다. 회귀 분석에서 overfit 문제를 해결하는 방법 중 하나는 관계식에 regularization 항을 추가하는 것이다. 이에 대한 자세한 개념적인 정리는 여기에서 볼 수 있다.
L1 regularization → LASSO(= Least Absolute Shrinkage and Selection Operator) regression
L1 regularization은 아래와 같은 cost function을 취해서 overfit을 완화하는 것이다.
costfunction=i=0∑NL(ytrue,ymodel)+λj=0∑M∣wj∣ where wj = regression 식에서의 가중치
L1이라는 이름이 붙은 이유는, regularization 항의 가중치를 더하는 방식이 벡터의 크기를 정의하는 L1 norm의 형태 ||x|| = i=0∑N∣xi∣ 와 같기 때문이다.
L2 regularization
L2 regularization은 아래와 같은 cost function을 취해서 overfit을 완화하는 것이다.
costfunction=i=0∑NL(ytrue,ymodel)+λj=0∑Mwj2 where wj= regression 식에서의 가중치
L2라는 이름이 붙은 이유는, regularization 항의 가중치를 더하는 방식이 벡터의 크기를 정의하는 L2 norm의 형태 ||x|| = i=0∑Nxi2 와 같기 때문이다.