\\
사진 출처 https://medium.com/@zurister/depth-wise-convolution-and-depth-wise-separable-convolution-37346565d4echttps://towardsdatascience.com/re
1. Basic architecture 기본적인 구조는 다음과 같다. LSTM으로 예를 들어보자. 1. Encoder Encoder는 입력 시계열 데이터로부터 각 time마다 hidden state와 cell state를 만들어 다음 time으로 전달한다.
![](https:/
선형그래서 $$sdf
통계에서 자칫하면 헷갈릴수 있는 개념들을 정리합니다.엄밀하게 말하자면 $\\color{purple}\\small\\mathsf{function}$입니다.정의역이 표본공간이고 공역이 실수공간이 함수입니다.또한 정의역이 실수공간이고 공역이 확률인 함수를 확률 분포(Prob
기본적으로 통계에서 사용하는 추정은 당연히 data기반 입니다. ( 가설 검정도 마찬가지 )즉, data given ( 표본집단 ) -> find parameter ( 모집단 )가능도 함수라고 합니다.$X \\sim f(x;\\theta)$라는 확륜변수가 있다고 하겠습
Loss function을 설명하기에 앞서 input과 ground truth ( target )부터 보겠습니다.Mnist와 같은 CV classification task를 예로 들자면 Input은 image이고 target은 label입니다. 그럼 classifica
https://www.youtube.com/watch?v=Y4ecU7NkiEI 직관적으로 딱 이해됩니다.https://datascienceschool.net/02%20mathematics/06.06%20%EB%B2%A0%EC%9D%B4%EC%A6%88