<데브코스 9주차 day1 선형회귀3 - 강창성 강사님>
현실의 모든 데이터는 완벽할 수 없으므로 노이즈(시그마)가 껴있다.
하지만 Bias와 Variance는 Trade-off의 관계로 모델이 복잡해질 수록(학습이 진행 될 수록)Bias는 낮이지게 되지만 Variance는 높아지게 된다.
따라서 Bias_error와 Variance_error의 합이 낮아지는 점을 적절히 찾는 것이 General한 모델을 찾는거라 할 수 있따.
결론 : 우리가 모델을 학습할 때 train_data에 overfitting된 모델은 test_data를 잘 예측하지 못함. 따라서 모델을 학습할 때 모델을 train_data에 덜 학습시킬 필요가 있음! -> Regulization , Earlystopping등으로 잘 조절하자!
ps. 9주차 day2 적절한 optimizer를 선택하기 위해선 데이터의 분포를 잘 확인해야함.
(예시로 클래스 불균형이 심하면 경사하강법보다 sgd가 더 잘 작동함
최소제곱법은 가우시안 분포를 가정한 알고리즘임 -> 이상치는 가우시안 분포에 거의 없음 거의 무한에 있는 값이니
적절한 가정을 통한 방법을 사용해야 원하는 결과가 나옴)