# LSTM

Attention Mechanism
Keywords seq2seq Attention Function (Query, Key, Value) Attention Score / Attention Weight / Attention Value Transformer MultiModal Attention Mechani

LSTM과 Seq2Seq
Keywords Lagging, 단층 LSTM, Deep RNN, Univariate, Multivariate, 차분, 선후관계/ Spread, Seq2Seq LSTM Lagging Issue Univariate Multivariate Univariate v

[Project] Natural Language Processing with Disaster Tweets - Kaggle
| 머리말 | 전공과목인 데이터마이닝 수업의 2달 여정의 프로젝트로 저는 LSTM을 이용한 재난관련 트윗 분류문제를 선정했습니다. 지난학기에는 타이타닉 분류예측 문제를 했었는데 교수님께서 이번에는 LSTM을 이용하여 정확도를 높여보라고 하셔서 어떤 주제를 할지 캐글을
[TIL] 03.08(화)
varnilla RNNgradient exploding/vanishingLSTM(Long Short-Term Memory)GRUpytorch를 이용한 RNN의 구체적 구현방법tensor를 다루는 방법

[김기현의 자연어 처리 딥러닝 캠프] 7장. 시퀀스 모델링 -RNN, LSTM, GRU (2022/02/02, 2022/03/15)
김기현의 자연어 처리 딥러닝 캠프 파이토치 편 - 7장. 시퀀스 모델링 복습단어들의 순차적 조합문장은 단어의 순서 정보(시간 개념)가 포함된 시퀀셜 데이터Ex) 문장 내 단어들은 앞뒤 위치에 따라 서로 영향을 주고 받는다.1️⃣ 가변 길이의 데이터2️⃣ time-ste

[D&A 운영진 딥러닝 스터디] 4주차 2차시
연속된 데이터의 정보 처리단어가 나올 확률은 이전 단어나 주변 단어에 따라 결정(연속적 관계)언어적 약속 ex) 먹고 싶습니다 요소 앞에는 먹을 것이 오며 단어에 받침이 있을 경우에는 이가 조사로 붙어야 함.Probability Language Model: 문장이 나타

[밑바닥부터 시작하는 딥러닝2] 06. 언어 모델
피드포워드 신경망(FeedForward Network) 흐름이 단방향인 신경망 시계열 데이터를 다루지 못함 순환신경망(RNN; Recurrent Neural Network) 등장 W2V: $w{t-1}$, $w{t+1}$로 $w{t}$ 예측 $\rarr L=

[논문리뷰] From Show to Tell: A Survey on Deep Learning-based Image Captioning(2)(Language Model을 중심으로)
Paper review for "From Show to Tell: A Survey on Deep Learning-based Image Captioning"(Language Model을 중심으로)

[논문리뷰] From Show to Tell: A Survey on Deep Learning-based Image Captioning(1)(Visual Encoder Part를 중심으로 )
Paper:From Show to Tell: A Survey on Deep Learning-based Image Captioning
삼성전자 주식 예측
import numpy as npimport pandas as pdfrom sklearn.preprocessing import LabelEncoder, MinMaxScaler, StandardScaler, RobustScaler, MaxAbsScaler, OneHotE