조건: 단일 variable(x)
hypothesis는 가설함수, 모델이 예측한 가상의 값 자체임, 손실값을 나타내는 것은 cost function임.
이때 관여하는 것 = 이득 최대화, 손실 최소화
손실 최소화의 대표적인 알고리즘 = Gradient descent algorithm
start at 0,0 (or any other value)
θ에 대해 임의의 초기값, 즉 시작점을 잡는다.
Update = W와 b값은 cost(w,b)가 줄어들 수 있는 방향으로 지속적으로 바뀜.
최소점(=local minimum)에 도달할 때까지 반복
-> alpha = learining rate
학습의 수렴속도를 결정하는 요소
이해 안 된 부분:
cost function format에서(강의 13분)
cost function을 W로 미분할 때, 굳이 2로 나누어줄 필요가 없다. 2로 나누어주면 궁극적으로 alpha 값을 2로 나누어준 결과가 되기 때문 ??