취업을 기원하며 스터디를 시작했다... CS231n을 기반으로 Vision을 공부해보기로 했다. 스터디를 위해 공부해올 부분은 CS231이다. Data-Driven Approach Collect a dataset of images and labels Use Mach
이번 주 월요일 성공적인 스터디를 마쳤고 CS231n 수업에 더욱 만전을 가하기로 다짐했다ㅎ 저번 주 수업시간 때 KNN을 다뤘다. 그것의 요약을 해보자면... KNN은 Supervised Learning이며 Lazy-Learning을 추구한다. 즉 training
Lecture3를 하면서 과제가 굉장히 어려웠다...이론까지는 ok인데 이론을 구현하는 과제는 참 뇌정지를 일으키는 것 같다.Lecture4 수업을 들었고 이 글을 작성하며 최선을 다해 복습과 공부를 해보겠다.역전파이다. Forward 계산 이후로 Back prop으로
Lecture 5에서는 Vision의 꽃인 CNN을 배웠다. CNN강의는 워낙에 예전부터 배워왔었고 그때는 타의로 배워왔기 때문에 왜 중요한지 모르고 배워왔던 것 같다. 지금은 vision part의 문제해결을 목적으로 배운다는 생각으로 참여했다. Convolutio
Lecture 6 는 두차례에 걸쳐 Neural network에 대해 배우게 된다. Activation Function 입력값이 들어오면 cell body를 non-linear하게 만들어 준다.non-linear하게 만들어주는 것은 non-linear한 문제들을 해
Lecture 7은 성능을 올리기 위한 여러 방법들을 알려준다.가장 기본 Gradient Descent 이며 mini-batch 단위로 끊어서 loss를 계산하고 parameters를 업데이트 한다.gradient 방향이 굉장히 크게 튀기 때문에 Zigzag path로
시간이 금세 가서 벌써 Lecture 8이다. 예전 기업 면접에서 tensorflow와 pytorch의 차이를 물어봐서 graph 생성 관련으로 아는대로 대답했었는데 지금 생각해보니 CS231n을 본 사수들이 그래서 물어본거 같기도 하다...static과 dynamic
이번 시간에는 CNN의 대표적인 모델들을 배워보았다. CNN모델의 시작은 LeNet이고 최초로 Convolution 연산을 적용한 모델이다. 이후 ImageNet대회에서 2012년 오차율을 굉장히 줄인 AlexNet은 잠잠했던 CNN연산을 사용해 성공적인 결과를 냈다
내가 딥러닝을 시작하게 된 NLP 분야의 가장 기초가 되는 RNN을 수업 듣게 되어서 굉장히 반가웠다. RNN RNN은 주로 Sequential 데이터 시계열데이터에서 주로 사용되고, 보통 주식, 공장, 비디오, 문자 등 다양한하게 쓰인다. Vanlilla Ne
오늘도 CS231n Lecture 11을 요약 정리해 보겠다.지금까지 image classification task를 다뤘다면 이번에는 새로운 task를 다뤄보았다.semantic segmentation은 각각 필셀 별로 카테고리를 항당하는 방법으로 픽셀로 모든 사물을
Visualizing and Understanding 첫번째 layer의 weight를 시각화해보면 image에서 oriented edge를 찾는걸 볼 수 있다. Feature을 찾는 것이라 볼 수 있다. 필터들이 layer가 깊어지면서, 합성곱이 이뤄지고 점점 더
이번 시간은 generator 모델을 주로 다뤘다. VAE나 GAN을 스터디때 많이 다뤄서 정말 반가웠다. supervised & unsupervised 보통 ML 입문자들이 큰 부류로 나눌때 먼저 배우는 걸 늦게 가르쳐줘서 특이하단 생각도 들었다. supervi