선형관계: A, B가 있을 때, A가 증가하면 B가 증가하거나, A가 증가하면 B가 감소하는, 서로 일관되게 변화량이 연관되어있을 때 선형적인 관계라고 일단 단순하게는 그렇게 생각하면 된다.
평균기온에 따른 아이스크림 판매량
-> 지도학습 -> 판매량이 레이블, 피쳐데이터는 평균기온.
선을 찾는다 = 베타0와 베타1을 찾는 것.
X와 Y는 우리가 갖고 있는 데이터, 베타0, 베타1을 근사해서 찾아내는 것이 목표.
가정 Y ~~ B0 + B1 * X
직선을 구성하는 B0 (y절편)과 B1(기울기)를 구해야함
마지막엔 1/N 으로 나눠 평균을 냄.
Loss함수에서 주어진 값은 입력 값과 실제 값이다.
y절편과 기울기값을 조절하여 Loss함수 크기를 작게 한다.
argmin 이란, 최소값을 찾는 건데 파랗게 표시된 B0, B1 값을 조절하여 Loss함수의 최소가 되게 하는 B0, B1값을 찾는다는 의미
크게 두가지 방식. 1), 2)
경사하강법은 딥러닝에도 많이 쓰이는 중요한 개념.
Normal equation 은 수학적으로 상당히 어려워서 이번 강의에선 스킵
초기값을 업데이트해가면서 최적의 값을 찾아가는 방식
1) y절편과 기울기값을 랜덤하게 초기화
2) 현재 값으로 Loss값 계산
3) y절편, 기울기값을 어떻게 변화해야 Loss값을 줄일 수 있는지 알 수 있는 'Gradient값' 계산 (이 gradient값을 어떻게 구하는지는 아직 얘기하지 않을 것)
4) Gradient 값을 활용하여 y절편, 기울기값 업데이트
5) Loss 값의 차이가 거의 없어질 때까지 2~4번 과정을 반복(Gradient값도 계속 다시 구하는 것)(Loss 값과 차이가 줄어들면 Gradient 값도 작아짐)
완벽히 맞힐 수도 있고 아닐 수도 있지만 거의 근접한 값을 구하게 됨.
이 경사가 Gradient, 경사를 따라 내려감.
Gradient값을 구하려면 편미분, 자세히 설명하지 않음.