Convolution 연산: 커널(kernel)을 입력벡터 상에서 움직여가면서 선형모델과 합성함수가 적용되는 구조출력 크기 계산 가능why 26x26? → 28 - 3 + 1 = 26채널이 여러개인 2차원 입력의 경우, 2차원 Convolution을 채널 개수만큼 적용
SymPy library를 사용하여 간단한 이차함수의 최소값을 gradient descent 방법으로 찾는 문제처음에 line 18에 \_ , fun = func(val) 을 설정하고 실행했더니, TypeError가 떴다. Problem문제에서 fun = func 이란
🚩 Pandas 🍏 Groupby <img src="https://velog.velcdn.com/images/hyebinnn/post/d9add9e5-bbf8-4287-8aeb-4dac0e173ca9/image.png" width
🚩 Pytorch numpy의 np.array와 torch의 tensor는 비슷하다. numpy의 문법이 pytorch에서 그대로 적용된다. pytorch의 tensor는 GPU에 올려서 사용 가능 x_data.device : 현재 데이터가 어디에 올라와있는지 확인
🚩
학습의 결과를 저장하기 위한 함수구글 colab에서 모델을 학습하다보면 8시간 뒤에 런타임 연결이 끊겨 학습 결과가 날아간다.이를 방지하기 위해, pytorch는 학습 결과를 저장하는 함수를 지원한다.모델 형태(architecture)와 파라미터를 저장한다.모델 학습
🚩 딥러닝 기본 loss function > - Classification Task 출력값 y는 원-핫 벡터로 표현된다. 내가 찾고 싶은 label이 10개면 10차원의 벡터로 나오게 된다. 만약 출력값이 강아지를 뜻하는데 강아지의 차원이 2라면 0,1,0,0,0
RGB (3 channel) Image Convolution5x5 크기의 3채널을 가진 1개의 filter와 곱하게 되면, 28x28x1 피처가 나온다.4개의 필터를 곱하게 되면, 동일하게 4개의 피처가 출력된다.(size size input_channel \* o
🚩 Word Embedding 🟨 Bag-of-Words Representation > Constructing the vocabulary containing unique words (중복 제거) { "John really really loves this movie"
🚩 RNN 현재 시점의 입력 벡터 $xt$와 이전 시점의 히든 벡터 $h{t-1}$ 를 입력으로 받아서, RNN의 $W$ 파라미터 함수($fw$)에 적용 ---> 출력: 현재 시점 히든 벡터 $ht$ 특정 시점의 output 벡터 $y_t$는 문장의 감정 분석을 하
RNN의 time step 길이가 길어질수록 발생하는 gradient vanishing 등의 long term dependency 문제를 해결할 수 있는 LSTM단기 기억을 길게 기억할 수 있도록 개발한 모델RNN과 달리 cell state $Ct$가 다음 time s
in_features = input parameter numsout_features = output parameter nunms: 2개의 batch, sequence의 길이 20, 각각의 dimension이 28negative dimension : dim = -1맨
RNN 구조에서 many to many와 같음입력, 출력 둘 다 sequence (입력 sequence를 받은 후, 출력 시퀀스 생성)입력 문장을 받는 encoder, 출력 단어를 하나씩 생성하는 decoderStart of Sentence <SoS>, End o
🚩 Bi-Directional RNNs > 🟨 Attention Module 동작 방식 첫번째 I 단어의 입력 벡터가 $W^Q$를 만나 $q_1$ 쿼리 벡터로 변환된다. > > I, go, home 3개의 입력 벡터가 각각의 $W^K, W^V$를 만나 3개의 k