• 오버피팅 문제로 규제(regularization)를 적용한 모델
• 규제 방식: L2 규제
• 파라미터(alpha) 값을 활용해 조절
• alpha 값이 커질수록 회귀 계수 값을 작게 만듦
*규제를 통해서 모델의 성능을 올릴 수 있습니다.
# 릿지 회귀
from sklearn.linear_model import Ridge
model = Ridge(alpha=1)
model.fit(X_train, y_train)
pred = model.predict(X_test)
mean_squared_error(y_test, pred)
# 회귀 계수
coef = pd.DataFrame(data=model.coef_, index=X_train.columns, columns=['alpha1'])
coef
> alpha는 학습 데이터 적합 정도와 회귀 계수 값을 크기 제어를 수행하는 튜닝 파라미터
# 릿지 회귀 (alpha=10)
model = Ridge(alpha=10)
model.fit(X_train, y_train)
pred = model.predict(X_test)
mean_squared_error(y_test, pred) # 오차가 커질수록 나쁜 성능
# 회귀 계수 (alpha 10)
coef['alpha10'] = model.coef_
coef
# 릿지 회귀 (alpha=0.05)
model = Ridge(alpha=0.05)
model.fit(X_train, y_train)
pred = model.predict(X_test)
mean_squared_error(y_test, pred)
# 회귀 계수 (alpha 0.05)
coef['alpha0.05'] = model.coef_
coef
:
⇒ 릿지 회귀는 모든 특성이 중요하거나 특성 간의 상관관계가 높은 경우에 좋으며, 라쏘 회귀는 일부 특성만 중요하거나 특성 간의 상관관계가 낮은 경우에 좋습니다.