선형 회귀 Linear Regression

HJ Koo·2022년 1월 11일
0

AI

목록 보기
9/10

선형 회귀 Linear Regression

가설을 먼저 세우고 가설과 정답값의 간격을 좁히도록 기계를 학습시킨다.

회귀 문제는그래프 직선 하나로 예측할 수 있는 방법이다. 간단하지만 강력한 방법이다.

과거에는 “이 세상의 모든 법칙은 선형적이다” 가정하고 문제에 접근했기 때문에 풀 수 있는 문제가 많았다.

Regression 가설은 수식으로 아래같이 표현

H(x)=Wx+bH(x) = Wx + b

러신머닝의 모든 문제는 가설이 있어야 문제를 풀 수 있다.

가설(Hypothesis) 을 정하는 것은 사람. 컴퓨터에게는 가설에 맞게 문제를 풀어라 하는 것이다.
따라서 우리가 구해야 하는 값은 W(가중치/Weight)와 b(편향/Bias)이다. 이 값을 계속 바꿔가면서 가설에 가장 가까운 값을 찾아 가는 것이다.
(= mean squared error)

가설과 정답값의 거리 간격을 줄이기 위해 Cost (손실함수)를 쓴다.

Cost=1Ni=1N(H(xi)yi)2Cost = {{1\over N}\sum_{i=1}^{N}{(H(x_i) - y_i) ^ 2}}

여기서 H(x)는 우리가 가정한 직선이고 y는 정답 포인트라고 했을 때, H(x)와 y의거리가 최소화 되어야 모델이 잘 학습되었다 말할 수 있다.

H(x) 가설 Hypothesis

Cost 손실함수 Cost or Loss function

기본적인 1차 함수로 머신러닝을 설명했지만, 실무에서 사용하는 머신러닝 모델은 고차원의 함수이다.
하지만 원리는 똑같다.

데이터를 보고 가설을 세우고 그에 맞는 손실 함수를 정의한다. 그리고 컴퓨터가 사람이 정의한 손실함수를 보고 가설에 맞출 수 있도록 열심히 계산하는 것. 그래서 기계학습(머신러닝)이라는 것이다.

다중 회귀 문제든 단일 회귀 문제든 쉽게 풀 수 있다. 걱정 ㄴㄴ

다중 선형 회기 Multi-variable linear regression

선형 회귀와 같지만 입력 변수가 여러개인 경우이다.

아래처럼 변수가 2개이고 정답값이 1개.

결국 x만 늘어나고 핵심 개념은 같다는 것이다.

가설 H(x1,x2,...,xn)=w1x1+w2x2+...+wnxn+bH(x_1, x_2, ..., x_n) = w_1x_1 + w_2x_2 + ... + w_nx_n + b
손실 함수 Cost=1N(H(x1,x2,x3,...,xn)y)2Cost = {{1\over N}\sum{(H(x_1, x_2, x_3, ..., x_n) - y) ^ 2}}

profile
날마다 꾸준히 성장하는 Software Engineer

0개의 댓글