> 이 글은 스탠퍼드대학교 Andrew Ng 교수님의 강의를 수강한 것을 토대로 작성한 글입니다
선형회귀분석의 비용함수
개별적인 비용 ( 아래로 볼록한 함수 = convex )
로지스틱 회귀분석 적용
위 함수는 convex가 아니기 때문에 최솟값을 구하기 어려움
이를 해결하기 위해 아래와 같은 새로운 형태의 함수 도입
그러면 y = 0일 때와 y = 1일 때 서로 다른 함수를 따르게 됨
class의 모든 h함수에 대해 예측값을 구한 다음 가장 값이 큰 class가 해당 x가 속하게 되는 최종 결과가 됨
feature의 개수를 줄이기
제거할 feature와 유지시킬 feature를 직접 선택
Model selection algorithm을 사용하여 자동으로 feature를 선택
Regularization (정규화)
모든 feature를 유지하고, parameter theta 값만 줄임
유용한 feature들이 많으면 성능이 좋아짐