- 입력과 출력 간의 관계를 파악하는 것
- 독립변수와 종속변수를 선형적 관계로 가정하고, 관계를 잘 나타내는 선형식 찾기
1) 단순 선형 회귀
2) 오차(손실)
오차: 가설과 정답(실제값)의 차이 ( 계산: |정답 - 가설| )
데이터를 가장 잘 나타내는 직선: 오차가 최소인 직선
잔차 제곱 합(RSS)

평균 제곱 오차(MSE)

: 선형 회귀의 손실 함수
손실 함수(비용함수)
: 정답과 예측의 차이(Loss)를 계산하는 함수
-> 회귀 알고리즘: 손실함수가 최소가 되는 파라미터를 찾는 문제
여러 종류의 문제에서 최적의 해법을 찾을 수 있는 최적화 알고리즘
비용함수를 최소화하기 위해 파라미터 반복 조정

Beta에 대한 비용 계산

경사 하강법 과정
1) 임의 Beta 값에서 시작
2) 그 점에서 경사 구하기(미분)
3) 기울기의 반대방향으로 현재의 기울기의 크기에 비례한 만큼 빼기

- Cost: MSE 값
학습율 크기(alpha)에 따른 Loss

현실 세계의 손실 함수
: 지역 최솟값(local min) 존재
미니 배치 경사 하강법: 배치 경사 하강법보다 연산량이 적고, 확률적 경사 하강법보다 안정적으로 수렴

1) 다중 선형 회귀

2) 다항 회귀(Polynomial Regression)


- 분류에 사용
- 입력 특성치의 가중치 합 계산(-> 결과값의 로지스틱 출력)
- 확률로 해석
1) 시그모이드 함수

2) Cost Function

여러개의 이진 분류기

Sigmoid 함수 대신 Softmax 사용(전체 확률의 합이 1이 되도록)

손실 함수: Categorical Cross Entropy
최적화: 경사 하강법 사용