① KNeighborsClassifier
② LinearRegression
③ Ridge
④ SGDClassifier
① 확률적 경사 하강법
② 배치 경사 하강법
③ 미니배치 경사 하강법
④ 부분배치 경사 하강법
<풀이>
① KNeighborsClassifier는 최근접 이웃을 찾기 위해 샘플 간의 거리를 계산. 따라서 특성의 스케일이 다르면 잘못된 이웃을 선택할 수 있음.
③ Ridge는 가중치를 규제하여 모델의 과대적합을 막는다. 특성의 스케일이 다름녀 이와 곱해지는 가중치의 스케일도 달라진다. 이렇게 되면 큰 가중치에만 관심을 두게 되어 가중치를 공정하게 규제하지 못한다.
④ SGDClassifier는 손실 함수를 최소화하기 위해 가장 가파른 경로를 찾음. ③과 같이 특성의 스케일 때문에 가중치의 스케일에 차이가 크면 손실 함수를 최소화하는 경로를 올바르게 판단하지 못함.
① 확률적 경사 하강법은 훈련 세트에서 랜덤하게 1개의 샘플을 뽑아 경사 하강법 알고리즘을 수행한다.
② 배치 경사 하강법은 휸련 세트 전체를 사용해 경사 하강법 알고리즘을 수행한다.