ML lec(이론) 5-2 Logistic Regression의 Cost Function & Gradient Descent

박성재·2020년 12월 5일
0

출처: 모두를 위한 딥러닝 강좌 시즌 1 by Sung Kim


Logistic Regression의 비용 함수

선형 회귀에서 사용한 비용함수를 Logistic Regression에 그대로 적용하게 되면, 울퉁불퉁한 모양의 함수가 나와 local minimum에 빠지기 쉽게 된다.

로지스틱을 위한 새로운 비용 함수

  • 로지스틱 함수에 쓰인 지수 함수에 상극이 되는 로그 함수를 비용 함수에 사용하는 것이 기본적인 아이디어임.
  • 결과인 y의 값에 따라서 예측값이 y에서 멀어질수록 굉장히 높은 cost를 가지도록 고안된 함수

y = 1일 때

C(H(x),y)C(H(x), y) = log(H(x))-\log{(H(x))}

y = 0일 때

C(H(x),y)C(H(x), y) = log(1H(x))-\log{(1 -H(x))}

이렇게 두 개의 함수를 붙이면 볼록 함수의 모양이 나오게 됨

그런데 항상 y 값에 대한 if 조건문을 달게 되면 실제로 사용하기가 까다롭기 때문에 두 조건에서의 식을 한꺼번에 고려하도록 식을 수정하여 사용함

C(H(x),y)C(H(x), y) = ylog(H(x))(1y)log(1H(x))-y\log{(H(x))} - (1-y)\log{(1-H(x))}

경사 하강법

  • 기존에 선형회귀 함수에서와 마찬가지로 미분을 이용해서 경사하강을 반복적으로 수행하면 됨
  • 라이브러리를 사용하면 꼭 직접 미분할 필요는 없음

0개의 댓글