-
선형 회귀!
- parameter: 기울기 w, 절편 b
- x → y^ 로 가는 mapping function을 찾자
-
We compute the partial derivatives w.r.t. the optimization variables.
- 어떻게 W와 b를 찾을까?
- back-propagation
- loss가 최소화!> parameter가 어느 방향으로 움직였을 때 loss function이 줄어들까?
- loss function을 각각 parameter로 미분, 방향을 역수(음수) 방향으로 update
- loss function을 w에 대해 편미분한 값을 찾아 현재 w에 편미분 값에 적절한 값을 곱해 빼주어 update
- b에 대해 편미분한 값을 특정 step size만큼 편미분 값에 곱한 다음 빼주어 update
-
Then, we iteratively update the optimization variables.
- 이런 식으로 w와 b를 계속 update해 나가는 방식을 gradient descent라 함
- but 단순히 선형이 아닐 경우,,
- 전체 파라메터로 다 미분하는것: back-propagation
- η: stepsize
- 너무 크게되면 학습 x (gradient 정보는 굉장히 local한 정보)
- 0에 가깝게 되면 아에 학습 x
-
Of course, we can handle multi dimensional input and output.
- n차원에서 m차원으로 가는 행렬?
- One way of interpreting a matrix is to regard it as a mapping between two vector spaces.
- 두개의 vector space 사이의 변환
- W와 b를 가지고 x라는 입력을 y라는 출력으로 바꿈