Convolution의 핵심은 i,j,k가 변해도 커널은 위치에 따라 움직이지 않는다(translation invariant)는 것.
2-D Conv의 예시. 커널의 값은 바뀌지 않고 입력에서 사용되는 값만 바뀌는 것을 볼 수 있다.
Image processing 같은 경우 2차원 행렬의 채널이 RGB, 3개 존재하게 된다 -> 커널, 입력이 텐서(3차원 이상)가 됨.
하지만 출력은 1차원.
출력도 텐서로 만들어주기 위해서는 커널을 Oc개 사용하면 됨.
w1이 X1-->O1, X2-->O2, X3-->O3으로 전달됐기 때문에 gradient도 똑같이 역으로 전달된다.
각 커널에 들어오는 모든 gradient들을 더하면 결국 convolution 연산과 같다.
backpropagetion에 대한 공부 추가하기!!