book title : 딥러닝을 위한 수학
pages : 36 ~ 69
key concepts :
- 간단한 선형회귀 식을 통해 머신러닝의 학습 관련해서 알아본다.
- 그런데 여기서 p 44.에 (xˆ(1)ˆ+xˆ(2)ˆ+xˆ(3)ˆ...xˆ(5)ˆ)와 (yˆ(1)ˆ+yˆ(2)ˆ+yˆ(3)ˆ...yˆ(5)ˆ)
는 각각 해당 x, y의 평균을 원점으로 하는 곳으로 옮기면 0이 된다고 했는데, 이해가 안 갔었다.
- 하지만, 지금은 이해가 간다...
- 계속 생각해서 잘 모르겠으면 또 생각해보자.
- 그러다 너무 힘들면 그때는 일단 step back하고...
- 함수의 개념
- 합성함수 : 한 함수의 공역이 다른 함수의 정의역과 일치할 때 두 함수를 연결해서 만든 함수
- DL에서는 층으로 연결되어 있는 것을 그렇게 이해하면 될 듯
- 역함수 : 한 함수의 입력 -> 출력을 반대로 나오게끔 해주는 함수
- 함수마다 다 있는 것은 아님
- y=xˆ2의 경우 한 y에 2개의 x가 있을 수 있으므로 이렇게는 역함수 없음
- 그래서 X>0 같은 식으로 정해주면 생김
- 역함수의 그래프
- y=x 에 대해서 대칭이다.
- 왜냐하면 x, y를 서로 바꾼 함수들이니까...
- 접선의 방정식
- 한 점이 (a, f(a))로 있을 때 이 점을 지나는 접선의 기울기는 방정식으로 나타날 수 있다.
- y = f′(a)(x−a)+f(a)
- 해석하면, x가 a일때 f(a)를 지나는데, 당연히 이때의 기울기는 미분계수 f′(a)이다.
- 그리고 이것은 직선으로 나타나는 방정식으로 쓸 수 있다.
- p 69. 에 이거 관련한 수학 문제가 나오는데 처음으로 미분을 내 손으로 작성해봤다... 뿌듯하다!