book title : 딥러닝을 위한 수학
pages : 103 ~ 113
key concepts :
다변수함수
-
편미분(partial derivative)
- 딥러닝에서 왜 쓰이는지 의미적으로 이해해보자
- 즉, 다변수 함수로 나타나는 딥러닝 모델에서(입력 여러 개, 출력은 Loss function 값) 각각의 변수에 대한 미분, 변화율 (혹은 변화량 ?)을 구하고자 하기 때문에 편미분이 쓰인다.
- 이 때 특정 변수 하나 빼고 나머지는 상수 취급해서 편미분 값을 구한다.
- 2변수 함수의 경우 3차원 그래프에서 곡면으로 나타나는데,
- 이를 편미분한다는 것은 아래와 같다.
- 편미분 Lu(0,0)은 함수의 곡면을 평면 v=0으로 자른 다음, 그 단면에서 만들어지는 1변수 함수의 그래프에서 u=0일 때의 그 점의 기울기를 말한다.
-
전미분(total differential)
- 공식적으로는(u,v에 대한 2변수함수 L이 있을 때)
- dL=∂u∂Ldu+∂v∂Ldv
- 직관적으로 이해하자면, 입력 변수들을 변화시킬 때 큰 그림에서 전체 출력값의 변화량은 각각의 입력 변수들의 변화량들을 더한 것과 같다(그렇게 이해했는데 맞나...?)
- 여튼, 딥러닝의 Loss function 값을 구할 때 저런 식으로 됐던 것 같다.