모델을 학습시킬 자료문제에 dependent데이터를 어떻게 가공할지loss (function): 모델의 badness를 측정, 이루고자 하는 것에 대한 근사치(proxy)data, model이 주어져있을때 model을 어떻게 학습할지를 결정algorithm: loss를
Artificial neural networks (ANNs), usually simply called neural networks (NNs), are computing systems inspired by the biological neural networks that
Good generalization: 이 네트워크의 성능이 unseen data(test)에서도 학습 data만큼 나올 것이다Overfitting: 학습 data에서는 잘 동작하지만 test data에서는 잘 동작하지 않음Underfitting: 학습 data에서도 잘
Convolution filter에 따라 이미지에 다양한 변형을 할 수 있다 filter의 dimension은 input의 dimension과 같고 filter의 갯수는 output의 dimension과 같다 $는 어떻게 표현할 수 있을까? B
추가강의 1시간 만에 GAN 완전 정복하기 [An Introduction to Variational Autoencoders ](https://arxiv.org/abs/1906.02691)
ViT: Vision Transformer https://arxiv.org/abs/2010.11929 리뷰: https://jeonsworld.github.io/vision/vit/ NLP에서 쓰이는 transformer를 CV에 적용
torch는 tensor를 만들면 자동으로 난수를 넣어준다 그래서 init을 생략하기도.보통은 seed를 통일, 기타 오류를 제거하기 위해 init을 명시하는 편혹은 특정 initializer를 사용하기 위해보통 keras나 torch에서 nn.Parameter로 re
문제제기 여러 cross-validation 방법들이 있는데 가장 효과가 좋은 방법은 무엇일까?에 대한 의문이 들어서 조사하기 시작함 Cross Validation methods Holdout 70:30, 80:20 정도로 2개로 나눔 K-fold Cross Va