최적화 기법 Newton's Method, Gradient Descent

Hansss·2021년 11월 28일
0

Machine Learning

목록 보기
1/10

Newton's Method

뉴턴법은 어떤 함수의 영점을 모를 때 아무점이나 찍은 후 그 점에서의 기울기를 구해서 점점 영점에 다가가는 방법이다.

우선 함수가 미분 가능해야하고 미분값이 0인 지점이 없어야한다. 효과적인 방법이긴 하나 여러 제약조건이 있다.

주로 공학용 계산기에서 방정식의 해를 구할 때 이 방법을 사용한다.

Gradient Descent

경사 하강법은 함수의 극소점을 찾기 위해서 기울기를 구하고 경사의 절댓값이 낮은 쪽으로 계속 이동하는 것을 반복하는 방법이다.

어떻게 보면 최적화하고자 하는 함수의 도함수의 영점을 찾는 것이라고 볼 수 있는데 뉴턴법과 다른 점은 뉴턴법은 상당히 급진적으로 이동하는 반면 경사 하강법은 이동할 거리는 조절하는 매개변수가 있고 (lr) 일반적으로 아주 낮은 숫자로 설정하여 천천히 이동한다.

profile
딥러닝 연습생

0개의 댓글

관련 채용 정보