2-1. Loss Function

Bard·2023년 3월 19일
2
post-thumbnail
post-custom-banner

본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다.

Problem

광고 예산에 따른 TV의 판매량을 다음과 같은 그래프로 나타내었다.

이 때, 새로운 광고 예산에 대한 TV의 판매량을 예측하는 문제이다.

Data

다음과 같이 변수를 정의하자.

  • XX: TV 광고 예산 (input variable, features)
  • YY: 판매량 (output variable, response variable)
  • (x(i),y(i))(x^{(i)}, y^{(i)}): ii번째 학습 데이터

이를 통해 우리는 이 그래프를 행렬로 표현할 수 있다.

XXYY
230.122.1
44.510.4
17.29.3
151.518.5
\vdots\vdots

Linear Regression

우리는 이를 위해 선형회귀분석을 사용할 것이다.

모델을 다음과 같이 정의하자. Yβ0+β1XY \approx \beta_0 + \beta_1X

이 때 우리는 최적의 β0,β1\beta_0, \beta_1을 찾는 문제로 문제를 변형할 수 있다.

즉, 같은 x(i)x^{(i)}에 대해서, y^(i)\hat{y}^{(i)}y(i)y^{(i)} 의 차이가 최소가 되는 β0,β1\beta_0, \beta_1를 찾으면 된다.

Euclidean distance를 이용하여 차이를 계산한다고 가정할 때, 모든 차이를 다음과 같이 계산할 수 있을 것이다.

iN(y(i)y^(i))2=iN(y(i)(β0+β1x(i)))2\sum^N_i(y^{(i)}-\hat{y}^{(i)})^2 = \sum^N_i(y^{(i)}-(\beta_0 + \beta_1x^{(i)}))^2

이 함수를 바로 Loss function이라고 정의한다.

L(β0,β1)=iN(y(i)(β0+β1x(i)))2L(\beta_0, \beta_1)= \sum^N_i(y^{(i)}-(\beta_0 + \beta_1x^{(i)}))^2

그럼 문제가 다음과 같이 바뀐다.

arg minβ0,β1iN(y(i)(β0+β1x(i)))2\argmin_{\beta_0, \beta_1}\sum^N_i(y^{(i)}-(\beta_0 + \beta_1x^{(i)}))^2

이를 최적화하는 알고리즘에 대해서는 다음 강의에서 다룬다.

profile
The Wandering Caretaker
post-custom-banner

0개의 댓글