\\
사진 출처 https://medium.com/@zurister/depth-wise-convolution-and-depth-wise-separable-convolution-37346565d4echttps://towardsdatascience.com/re
1. Basic architecture 기본적인 구조는 다음과 같다. LSTM으로 예를 들어보자. 1. Encoder Encoder는 입력 시계열 데이터로부터 각 time마다 hidden state와 cell state를 만들어 다음 time으로 전달한다.
즉, data given ( 표본집단 ) -> find parameter ( 모집단 )가능도 함수라고 합니다.$X \\sim f(x;\\theta)$라는 확륜변수가 있다고 하겠습
Loss function을 설명하기에 앞서 input과 ground truth ( target )부터 보겠습니다.Mnist와 같은 CV classification task를 예로 들자면 Input은 image이고 target은 label입니다. 그럼 classifica
https://www.youtube.com/watch?v=Y4ecU7NkiEI 직관적으로 딱 이해됩니다.https://datascienceschool.net/02%20mathematics/06.06%20%EB%B2%A0%EC%9D%B4%EC%A6%88