# cs231n

253개의 포스트
post-thumbnail

Lecture 10 | Recurrent Neural Networks(75~)

이미지 캡셔닝 : 결과 예시이미지 캡셔닝은 Supervised learning으로 natural language caption이 있는 이미지를 이용해서 학습합니다. 대표적인게 Microsoft coco 데이터셋입니다. 이미지를 묘사하는 비교적 복잡한 캡션들도 생성할 수

2022년 8월 30일
·
0개의 댓글
·
post-thumbnail

Lecture 9 | CNN Architectures(65~)

ResNet2015 Challenge를 우승한 ResNet은 마이크로 소프트에서 개발했다고 합니다.ResNet은 revolution이라고 할 만큼 네트웍이 깊어집니다. 무려 152개의 레이어를 지닌 아키텍쳐입니다.우선 연구자들은 layer의 깊이와 성능이 비례하는지에

2022년 8월 23일
·
0개의 댓글
·
post-thumbnail

[CS231n] Lecture1. Introduction to Convolutional Neural Networks for Visual Recognition

Haar-like -> 얼굴 인식HOG(Histogram of Gradients) -> 사람 탐지IFT, SURF -> 물체인식, 물체 추적

2022년 8월 17일
·
0개의 댓글
·
post-thumbnail

Lecture 6 | Training Neural Networks I

Activation Function(활성화 함수)input이 들어오면 가중치와 곱해지고, 비선형 함수인 활성화 함수를 거쳐 해당 데이터의 활성화 여부를 결정해줍니다. 활성화 함수에는 여러가지가 있습니다. 각 활성화 함수의 문제점과 이를 어떻게 개선했는지에 대해 알아봅시

2022년 8월 16일
·
0개의 댓글
·

CS231n Lec.05 Convolutional Neural Networks

volumns 이란 Convoloution Layer 필터를 이미지 위에 컨볼류션(dot product 연산)을 시킨다. 1 filter -> 1 activation map

2022년 8월 16일
·
0개의 댓글
·

CS231n Lec.07 Training Neural Networks 2

1. Parameter update schemes x += learning_rate * dx SGD가 속도가 느린이유? 이에 대한 개선 방법? momentum update : conversion을 촉진한다. v = mu * v - learning_rate *dx mu는 마찰 가속도로 Nesterov momentum update(nag) momentum ...

2022년 8월 11일
·
0개의 댓글
·

CS231n Lec.06 Training Neural Networks, Part 1

NN의 설정, 학습, 평가

2022년 8월 5일
·
0개의 댓글
·

CS231n Lec.03 Loss Function and Optimization

loss 최소화 = 좋은 prediction

2022년 8월 4일
·
0개의 댓글
·

Lecture 4 | 역전파(Back Propagation)

역전파는 gradient를 얻기 위해서 chain rule을 사용하는데요, 대략적인 순서는 다음과 같습니다.함수에 대한 computational graph 만들기각 local gradient 구해놓기chain rulez에 대한 최종 loss L은 이미 계산되어 있다.최

2022년 8월 3일
·
0개의 댓글
·

CS231n Lec.02 Image Classificationn

분류

2022년 8월 2일
·
0개의 댓글
·

Lecture 2 | Image Classification 00:00~20:00

이미지 분류 작업을 수행하는 방법은 무엇입니까? 04:50이미지는 시스템에 미리 결정된 범주 또는 레이블 집합을 인식합니다.고정된 범주 레이블이 있고 컴퓨터의 역할은 그림을 보고 하나를 지정하는 것입니다.예를 들어 소파에 숨어 있는 고양이를 찾는 경우 우리는 강력한 인

2022년 7월 25일
·
0개의 댓글
·
post-thumbnail

Lecture 6 Training Neural Networks, Part I

선형적인 층만 여러개 쌓는 것은 선형성에 의해서 하나의 층으로 합칠 수 있으므로 의미가 없다. 그래서 더 복잡한 non-linear 함수를 만들기 위해 선형층 중간에 activation function을 넣어주면서 계층적인 구조의 비선형함수 네트워크로 만들어 준다.오래

2022년 7월 20일
·
0개의 댓글
·
post-thumbnail

Lecture 5 Convolutional Neural Networks

이번 시간에는 Convolutional Neural Network에 대해 살펴 볼 것이다. 기존 Neural Network와 같은 아이디어이긴 하지만 이번에는 ‘spatial structure(공간적 구조)’를 유지하는 Convolutional Layer에 대해 배울

2022년 7월 20일
·
0개의 댓글
·
post-thumbnail

[cs231n] Lecture 3 : Loss function and Optimization

이 글은 cs231n(2017)강의를 보며 정리한 글입니다.https://www.youtube.com/watch?v=h7iBpEHGVNc&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk&index=3Loss function : 실제 데이

2022년 7월 19일
·
0개의 댓글
·
post-thumbnail

cs231n 4강 요약

수업 요약 노트

2022년 7월 17일
·
0개의 댓글
·

[cs231n] Lecture 2 : Image Classification

Image Classification이란? Computer vision의 가장 중요한 task이며, image에 있는 object를 분류하는 것이다. 사람은 쉽게 구별이 가능하지만, 컴퓨터는 image를 big grid of numbers로 받아들이기 때문에 이미지의

2022년 7월 7일
·
1개의 댓글
·
post-thumbnail

CS231n 2강 이미지 분류

이미지 분류의 어려움과 NN, kNN 알고리즘, 교차 검증, 데이터를 분할하는 이유에 대해 설명

2022년 6월 30일
·
0개의 댓글
·

CS231n 1강 시각 인식을 위한 합성곱

스탠포드대의 cs231n 강의를 수강하고 나중에 참고할 만한 부분을 요약 정리한 것입니다. 합성곱 신경망(CNN) 1998년에 관련 논문이 나왔지만 2012년에 ILSVRC에서 사진에 있는 5가지 물체를 분류하는 작업에서 사람과 비슷한 성능을 보이게 되면서 큰 주목

2022년 6월 30일
·
0개의 댓글
·
post-thumbnail

[cs231n] lecture 4 내용 정리

Neural Networks 이전에는 linear score function을 이용하여 score를 얻을 수 있었습니다. 즉, f=Wx로 구할 수 있었는데, 이제는 layer를 하나 더 쌓아서 2-layer Neural Network를 만들어보는 것입니다. $max(0,W)$의 비선형 함수 즉, activation function을 이용해서 layer를 ...

2022년 5월 24일
·
0개의 댓글
·
post-thumbnail

[cs231n] lecture 3 내용 정리

Loss Functions and Optimization - SVM loss(hinge loss) : $Li =∑{j≠yi}max(0,sj - s_{yi} + 1)$

2022년 5월 23일
·
0개의 댓글
·