# Ridge

13개의 포스트
post-thumbnail

[혼공머신] 3-3. 특성 공학과 규제

김 팀장🗣️ "뭐야, 높이랑 두께 데이터도 있으면서 왜 안 썼어? 선형회귀는 특성이 많을수록 효과가 뛰어나니까, 여러 개의 특성을 함께 적용해 봐!"

2023년 1월 12일
·
0개의 댓글
·
post-thumbnail

선형 회귀 및 다항 회귀(3)

이전 글: 선형 회귀 및 다항 회귀(2)이전 글에서는 농어의 길이와 무게를 회귀 모델에 학습시킨 후, 새로운 농어의 길이 데이터를 입력한 후, 해당 농어의 무게를 예측하는 작업을 하였다.하지만 학습시키는 데이터가 다양할 수록 더욱 더 정확하지 않을까?이번에는 농어의 길

2022년 12월 27일
·
0개의 댓글
·
post-thumbnail

파이썬 머신러닝 완벽 가이드 - 6. Regression(2) (규제, 로지스틱회귀, 회귀 트리 및 예제)

: $w^2$에 대해 패널티를 부여하는 방식. 주요 생성 파라미터는 alpha로, alpha가 커질 수록 회귀 계수 값을 작게 만든다.$RSS(w) + alpha\*||w||\_2^2$ 식을 최소화하는 w를 찾는 것: $|w|$에 패널티를 부여하는 방식. 불필요한 회귀

2022년 10월 10일
·
0개의 댓글
·

[D&A 운영진 ML 스터디] 2주차 2차시

모델이 어떻게 작동하는지 알면 적절한 모델, 올바른 알고리즘, 하이퍼파라미터 탐색, 디버깅, 에러 예측이 효율적으로 가능선형 회귀 - 두 가지 방법으로 훈련 가능train set에 가장 잘 맞는 파라미터를 해석적으로 구함경사 하강법 이용$\\hat y = \\theta

2022년 7월 31일
·
0개의 댓글
·
post-thumbnail

정규화(Regularization)

Bias : 지나치게 단순한 모델로 인한 error분산(Variance) : 데이터 셋 별로 모델이 얼마나 일관된 성능을 보여주는가 편향이 높은 모델은 너무 간단해서 주어진 데이터의 관계를 잘 학습하지 못한다.편향이 낮은 모델은 주어진 데이터의 관계를 잘 학습한다.ov

2022년 7월 10일
·
0개의 댓글
·
post-thumbnail

Ridge Regression

Cross-Validation: Compares various forms/types of Machine Learning methods and gives insight regarding its actual performance. In Machine Learning,Est

2022년 6월 14일
·
0개의 댓글
·
post-thumbnail

Ridge, Rasso

![](https://images.velog.io/images/chromis07/post/31ce8583-4a09-4cc7-980b-5e35e57c80f0/%EB%A6%BF%EC%A7%80%E

2022년 3월 7일
·
0개의 댓글
·
post-thumbnail

[ML] 과적합을 낮춰보자(1) Ridge 회귀

과적합을 낮춰보자 시리즈

2021년 12월 22일
·
0개의 댓글
·
post-thumbnail

Ridge regression(릿지회귀)

과적합(overfitting)을 해결하는 방법으로는 크게 두가지가 있다. 특성의 갯수를 줄이기 주요특징을 직접 선택 or model selection algorithm 사용정규화를 수행하기 모든 특성을 사용, 하지만 파라미터의 값을 줄인다.여기서 릿지 회귀가 바로 정규

2021년 8월 16일
·
0개의 댓글
·

Ridge

정규화 회귀모델

2021년 4월 7일
·
0개의 댓글
·