Lec3. 에서는 이 전 단원에서 다뤘던 다양한 image classification problems을 해결하기 위하여 다양한 타입의 linear classifier들을 다룹니다. linear classifiers는 듣기에는 간단해 보이지만 NN, CNN을 구성하는
저번 강의에서 linear classifier의 score를 SVM loss, corss-entropy loss(softmax)를 사용한 loss 와 model의 overfitting을 방지하기위한 regularization을 더해주는 형태가 최종 L(W) 즉 los
우리는 이 전까지 linear model을 parametic classifier로 설계하면서 몇 개의 loss function을 다루어보았고 gradient descent 기반 algorithm에서 접할 수 있는 여러 문제들을 극복하기위한 여러 optimiaztion
지난 시간에 neural network는 categorical classifier에 매우 강력하다는 것을 살펴 보았다. 하지만 크고 복잡한 neural network system 에서는 어떻게 gradient를 계산할까?
Intro... 이전까지 보았었던 linear classifier와 neural network model은 pixel값들을 flat하게 펼쳐 연산하였기 때문에* image 의 spatial structure까지 다루지 못한다는 문제점이 있었다. 이 전 강의에서 보았
이번 포스팅에서는 EECS 7강과 더불어 Batch Normalization 논문, Andrew ag교수의 강의를 참고하여 작성하였다. 해당 링크는 아래 걸어놓았다.Batch Normalization: Accelerating Deep Network Training by
직전 포스팅이 7강 이었지만 cs231n 과정과 맞추어 나가고자 8강, 9강 은 뒤로 미루고 10강 내용 부터 포스팅합니다.이번 강의는 neural network training의 전체 process 중 trining process 전 과정인 setup 과정에 대해 다
우리는 이전까지 보았던 activation function을 설정하고, initializaion을 설정한 후 training 시켜도 model이 optimizing을 잘 하지 못하고 valid set과 train set의 error차이가 벌어지며 overfit되는 현상
이전 강의(part1) 에선 학습 전에 처리하고 설정해줄 data preprocessing, weights initialization, regularization 을 살펴보았다.part2 에선 training 시키면서 어떻게 model의 perfomance를 향상시킬지
우리가 여지껏 보았던 deep neaural network에서 다뤄온 문제들은 "feed-forward"라고 불리는 형태였다.이러한 feed-forward network는 single-input(like single-image)을 받아 여러 형태의 hidden laye
지난 강의에선 다른 종류의 task별 sequence vector를 처리하는 RNN에 대해서 알아보았고 이번 강의에선 나아가 Attention에 대해서 다룬다.Attention 개념을 살펴보기전에 지난 시간에 다뤘던 기본적인 seq2seq model을 자세히 살펴보자.
이번 강의는 convolutional neural network에서의 Visualizing and Understanding에 대해 다루어본다.첫번째 토픽은 neural net내부를 들여다봐 training data에 대해 배운다는 것이 무엇인지 이해하려하는 테크닉이고두
이번 강의에선 computer vision의 main task중 하나인 Object detection에 대해서 다룬다.이 전까지 봐왔던 image classification task는 하나의 전체이미지를 CNN을 거쳐 single category label을 출력하는