K-MOOC '실습으로 배우는 머신러닝' 김영훈 교수님
Iterative Algorithm-based Optimization
Gradient Descent의 수학적 background : Quadratic approximation(2차 다항식)
tc : stepsize == learning rate : Hyperparameter
Global optimum을 구한다는 것은 장담하지 못하지만, 지엽적인 opmimum을 구하는 것만으로도 성능에 큰 영향이 있다.
batch로 여러 개를 쪼개서 추정
샘플링 느낌(Stochastic - 확률)
Global minimum : local minimum 중 가장 작은 것
momentum이 적용된다. 하강하던 관성을 유지해서 saddle point, local minimum에서 빠져나올 수 있도록.
large margin classification : 두 클래스 사이 가장 넓이가 큰 분류 경계선
support vector : 각각의 클래스에서 분류 경계선을 지지하는 관측치들
StandardScaler를 사용하면 스케일을 잘 맞출 수 있다.Hard Margin : 두 클래스가 하나의 선으로 완벽하게 나뉨

Soft Margin : 일부 샘플들이 분류 경계선의 결과에 반하는 경우를 일정 수준 허용
Trade-off
다항식 변수들을 추가해 직선으로 분류할 수 있는 형태로 데이터를 만들기
다항식의 차수를 조절하는 효율적인 계산 방법
데이터의 차원을 효과적으로 늘려줌.
dimension과 같은 차수를 변경해준다.
무한대 차수를 갖는 다항식으로 차원을 확장
gamma라는 고차항 차수에 대한 가중 정도를 변경해준다. == 복잡도 조절
선형 회귀식을 중심으로 오차 한계선을 넘어가는 관측치들에 패널틸르 부여하는 선형 회귀식 추정