LOOCV의 경우 계싼 비용이 매우 큰 단점
이러한 문제를 해결하기 위해, K개의 파트로 나누어 검즘을 진행하는 방법
K가 커지면
(람다)가 커지면 Bias 에러값이 커지고, Variance 에러값이 작아짐
파라미터의 희소성(sparsity)정도 : Ridge 정규화 < Lasso 정규화
0의 값을 가진 파라미터가 더 많아지게 하는 방법? 람다 증가
출처 :
https://www.youtube.com/watch?v=pJCcGK5omhE&t=21s
https://www.youtube.com/watch?v=oyzIT1g1Z3U&list=PL7SDcmtbDTTylCwjSDzGduvR-1EItFF2X