Image Classification Image Classification이란 이미지가 입력으로 들어오면 이미 정의된 카테고리내에서 컴퓨터가 분류하는 작업이다. Image Classification이 어려운 이유 우리는 이 사진을 보고 고양이라는 것을 단번에 알
* CS231n 2강,3강* Linear Classification 은 Neural Network를 구성하는 가장 기본적인 요소이다. Neural Network가 모형이라면, 모형을 이루고 있는 레고 블럭 하나하나가 Linear Classification이다. Pa
CS231n 3강 앞서 우리는 W를 임의로 정하고 score를 구했다. 고양이의 이미지를 줬을때 각 클래스별 score를 보자. 뭔가 이상하지 않는가? 개의 점수가 더 높다!!우리는 W를 수정해야할 것 같다.이때, W가 잘 설정됐는지 안됐는지는 Loss Fuction
CS231n 3강 우리는 함수 f(W,x)를 통해서 스코어를 구하고 , W가 얼마나 잘 만들어졌는지 손실함수를 이용해서 평가도 하였다. 이제 손실함수가 최소가 되는 W를 만드는 optimization에 대해 알아볼 것 이다. optimization은 loss가 0인
CS231n 4강 앞서 배운 식을 computational graph로 만든 것이다. 역전파(Backpropagation)는 input에 대한 gradient를 얻기위해 chain rule을 사용한다. 왜 input에 대한 gradient를 얻냐?? input이
CS231n 4강우리는 이때동안 layer가 하나짜리인 linear function에 대해서 공부해왔다.이제는 레이어가 여러개로 구성된 NN에 대해서 공부할 것이다.그림을 보면, 중간에 히든 레이어가 추가된 것을 볼 수 있다.이전의 CIFAR-10 분류기가 1 clas
CS231n 5강 CNN(Convolutional Neural Network)는 이미지 인식에서 많이 사용한다. 1. NN의 역사 1.1957년 Frank Rosenblatt가 Mark I Perceptron machine을 개발 최초의 퍼셉트론 기계 W값을
CS231n 6강 활성화 함수 f = Wx 에 대해 input값이 linear하게 들어오면 활성화함수를 거쳐서 non-linear하게 output을 출력한다. linear한 값을 사용하면 수식이 많아져도 1개의 layer로 처리되기때문에 non-linear한 값을
CS231n 6강
CS231n 6강기울기 소실문제를 해결하기위해 활성화 함수를 변화시키거나 Batch Normalization을 하는 방법이 있다. 오늘은 Batch Normalization에 대해서 살펴보자Batch Normalization은 학습하는 과정을 안정화시켜 근본적으로 문제
CS231n 6강learning process를 어떻게 관리해나가야하는지 살펴보자 첫번째 단계로는 데이터를 전처리 해야한다.이미지에서는 이미 0-255의 값으로 되어있기때문에 정규화할 필요는 없고, zero centered만 하면 된다. 히든 레이어의 구성 등을 일단
CS231n 10강 one to one 지금까지 우리는 입력 1개 -> 출력 1개의 구조를 배웠었다. 일반적으로 fixed size의 이미지가 input으로 들어가면 hidden layer를 거쳐서 fixed size를 가지는 클래스의 스코어가 output으로 나오