cf> 스칼라 : 차원이 없는 경우vector : 1차원 Matrix(행렬) : 2차원Tensor : 3차원 2D Tensor : |t| = (batch size, dim) -> t가 batch size(세로) dimension(가로)의 크기를 가진다. 3D Ten
Simple Linear Regression : 하나의 정보로부터 하나의 결론을 짓는 모델 H(x) = Wx + b (x라는 vector와 W라는 matrix의 곱)Multivariable Linear regression : 복수의 정보로부터 하나의 추측값을 계산하는
[LAB 7-1]
[LAB 9-1] ![](https://images.velog.io/images/uvictoli/post/8e88a6ec-f374-4124-be5a-eb50bdfecb76/%EC%8A%A4%ED%81%AC%EB%A6%B0%EC%83%B7%202021-05-16%20%EC%
내용 정리 및 복습
XOR과 Backpropagation
Vanishing Gradient Backpropagation에서 layer 수가 많아지면, Chain-rule과 Sigmoid에 의해 1보다 작은 값을 계속 곱하게 되어 최종 미분값이 0에 가까워짐 => 많은 layer를 이용해도 정확도가 높아지지 않음 Geoffe
More training dataReduce the number of featuresRegularization: weight에 너무 큰 값을 주자 말자 => λΣW^2 (regularization strength)Dropout : "randomly set some ne
: 합성곱 신경망start with an image(width \* hight \* depth): 이미지 입력받기Let's focus on a small area only: 하나의 이미지를 전체 입력으로 받지 않고, 이미지의 일부분만 우선 처리 => "filter
Convolution convolution : 이미지 위에서 stride 값만큼 filter를 이동시키면서 겹쳐지는 부분의 각 원소의 값을 곱해서 모두 더한 값을 출력으로 하는 연산 - stride : filter가 한 번에 얼마나 이동할 것인가 - p
MNIST CNN 학습 단계 1. 라이브러리 가져오기 (torch, torchvision, matplotlib 등 import) 2. GPU 사용 설정하고 random value를 위한 seed 설정하기 3. 학습에 사용되는 parameter 설정
env = 'main' : 한 번에 모든 창을 끌 때 사용 가능 (써도 되고 안써도 됨) image 띄우기 : RGB 값을 random으로 주고 vis.image() image 여러개를 띄울 땐 vis.images()
1\. 폴더(origin data) 하나를 생성해서 그 안에 구분할 수 있는 이름(gray,red 등)을 지어 폴더를 넣고 각 폴더에 사진(data) 담기1\. 수행하기 전, dataset의 위치 확인하기 !ls : 실행하면 하위 폴더가 보이고 그 중 아까 만들어둔
stride 1, padding 1로 설정된 3x3 convolution으로만 구성되어 있다.torchvision.models.vgg : vgg 11~19까지 만들 수 있음이때, 3x224x224 입력을 기준으로 만들도록 기본값이 설정되어있음 1\. import2\.
Advanced CNN - ResNet
Next Step of CNN
RNN : Recurrent Neural Network
pytorch에서 RNN을 구현하기 위해서는 rnn = torch.nn.RNN(inputsize , hiddensize) : 셀 A를 선언하는 과정 outputs, status = rnn(inputdata) : input X를 셀 A에 집어넣고 결과물 h를 반환받는 과정 inputdata : 3개의 차원을 가지는 tensor로 정의되는데, b...
'hihello' example : 'hihello'라는 문자열을 예측하는 모델 만들기 one-hot encoding character들을 컴퓨터 상에 표현하기 위한 가장 쉬운 방법 : character의 index를 표현하는 것 => index의 숫자의 크기에 따라 categorical한 데이터의 경우, 'one-hot encoding'을 사용함 ![]...
그동안 hihello, charseq에서는 문장 전체를 하나의 sample로 사용해왔음 Long Sequence : 아주 긴 문자열을 특정한 사이즈로 잘라 사용해보기 ![](https://images.velog.io/images/uvictoli/post/9f
Time Series Time Series Data (=시계열 데이터) : 일정한 시간 간격으로 배치된 데이터 ex) 주가 데이터 Example 7일간의 데이터를 입력받아 8일째의 데이터 예측하기 ![](https://images.velog
Seq2Seq Seq2Seq : sequence를 입력 받고 sequence를 출력함 대표적인 예시로 챗봇이 있음 Q. RNN은 이미 sequential data를 다루기 위해 만들어진 것인데 seq2seq 모델은 일반적인 RNN과 무슨 차이가 있는가?
Packed Sequence 길이가 각각 다른 sequence 데이터를 하나의 batch로 묶기 위해 sequence 데이터의 예시 : text, audio 등 방법 1. padding padding : 가장 긴 sequence의 길이에