ML lec(이론) 2 - 선형회귀의 Hypothesis와 cost

박성재·2020년 12월 1일
0
post-thumbnail

출처: 모두를 위한 딥러닝 강좌 시즌 1 by Sung Kim

선형 회귀(Linear Regression)

선형회귀의 가정: 선형 회귀 모델은 데이터의 특징(feature)과 예측하고자 하는 결과값이 선형적인 관계(H(x) = aX + b)를 맺을 것이라고 가정하고 있다.

  • 여기서 H(x)는 데이터의 특징과 예측하고자 하는 결과의 관계에 대한 하나의 가설적인 선임
  • ex) 공부시간과 성적의 관계

선형 회귀 모델에서는, 데이터의 특징을 가지고 결과를 가장 잘 예측할 수 있는 선을 찾는 것이 학습이다.

Cost function(비용 함수)

  • 우리가 세운 가설과 실"제 데이터가 얼마나 다른가에 대한 지표를 계산하는 함수
  • 손실 함수(Loss fuction)라고도 함

  • 가장 작은 값을 산출하는 W와 b를 구하는 것이 linear regression의 학습임

0개의 댓글