# GRU

32개의 포스트
post-thumbnail

Sequence-to-sequence with attention

boost course의 자연어 처리의 모든 것 강의를 보고 복습차원에서 작성하였습니다.앞선 내용들 까지는 RNN의 구조와 문제점, lstm, gru에 대해서 살펴보았습니다. 이번에서는 이러한 모델들을 가지고 Sequence-to-sequence model을 만들고

2023년 2월 6일
·
0개의 댓글
·
post-thumbnail

Module 3.1 RNN 기반 시계열 데이터 회귀

해당 포스트는 LG Aimers 활동 중 고려대학교 강필성 교수님의 강의자료를 기반으로 작성된 글입니다. 학습 정리용으로 작성하였으며, 잘못되었거나 수정해야 할 내용이 있을 수 있습니다. 해당 내용이 있다면 이메일이나 댓글로 알려주세요. 감사합니다.

2023년 1월 27일
·
0개의 댓글
·
post-thumbnail

[토치의 호흡] 06 NLP Basic Classification with GRU

INTRO 1) 오늘은 Text Classification을 할 예정. 2) RNN 계열 모델 중 GRU로 진행할 예정인데, 특별한 이유는 없다. 3) 성능은 장담하지 않는다. (시계열 데이터 전처리 및 도메인 지식 부재) DACON Basic "쇼핑몰 리뷰 평점

2023년 1월 11일
·
0개의 댓글
·
post-thumbnail

[토치의 호흡] 04 RNN and his firends PART 02

: 지난 시간에 이어서 시계열 데이터 예측을 다른 모델과 다른 방법으로 진행해보려 한다.: RNN에 대한 기본적인 개념과 지식은 어느 정도 알고 있다고 가정하고 시작하겠다.Kaggle에 Bitcoin Historical Data 라는 데이터셋을 사용한다. EDA, PR

2023년 1월 8일
·
0개의 댓글
·
post-thumbnail

[NLP] GRU, Gated Recurrent Unit

지난 히든스테이트와 이번 시점의 후보스테이트와 비중을 고려해서 ht를 만들었다는게 GRU 의 핵심이다.Weight 갯수가 중간 단계다 Vanlia RNN < GRU < LSTM 웨이트 순이다딥러닝 치트키인 웨이트 구하기로 이해해보자.W_reset : (nu

2022년 12월 21일
·
0개의 댓글
·
post-thumbnail

RNN 순환 신경망

: Recurrent Neural NetworkRNN이 기존 신경망과의 차이점 : 결과값을 출력층 방향으로 보내면서, 다시 은닉층 노드의 다음 계산의 입력으로 보내는 특징다양한 길이의 입력 시퀀스를 처리할 수 있는 인공신경망텍스트 분류나 기계 번역과 같은 다양한 자연어

2022년 12월 15일
·
0개의 댓글
·
post-thumbnail

[혼자 공부하는 머신러닝+딥러닝] - CH.9-3 LSTM & GRU cell

LSTM 셀: 타임스텝이 긴 데이터를 효과적으로 학습하기 위해 고안된 순환층, '입력 게이트, 삭제 게이트, 출력 게이트' 역할을 하는 작은셀이 포함되어 있음LSTM 셀은 은닉 상태(Hidden state) 외에 셀 상태를 출력함, 셀 상태는 다음 층으로 전달되지 않으

2022년 11월 16일
·
0개의 댓글
·

부스트캠프 3주차

CNN, RNN, Transformer, Generative models 정리

2022년 10월 9일
·
0개의 댓글
·

Deep Learning(기초) - 5. RNN

Sequetial Model을 다루기 위한 RNN구조의 모델들

2022년 10월 5일
·
0개의 댓글
·

딥러닝 텐서플로 교과서 - 7장

7장 시계열 분석

2022년 10월 3일
·
0개의 댓글
·
post-thumbnail

인공지능 놓치기쉬운 기본개념 총정리

인공지능 분야를 공부하다보면 선형대수학, 신경망, 데이터 전후처리 등등 알아야할 사항이 너무나도 많다. 작업을 하다보면 제대로 알지못하면서 그냥 넘어가는 부분이 많았던 것 같다.'기본이지만 쉽게 넘어갈법한, 그리고 중요한' 개념들에 대해 포스팅해본다. 중간중간 계속 수

2022년 9월 28일
·
0개의 댓글
·
post-thumbnail

[NLP] Gate를 활용해 RNN의 단점을 극복한 모델: LSTM, GRU

RNN이 지닌 Short-term Memeory의 단점을 극복한 LSTM, GRU에 대해 알아보고 여러 gate 구조를 배운다.

2022년 7월 20일
·
0개의 댓글
·
post-thumbnail

양방향 LSTM/GRU로 주가 예측하기

bidirectional LSTM & GRU

2022년 6월 23일
·
0개의 댓글
·
post-thumbnail

pytorch로 GRU 구현하기

GRU with pytorch

2022년 6월 22일
·
0개의 댓글
·
post-thumbnail

LSTM, GRU를 이용한 주가 예측

LSTM, GRU로 주가 예측하기(시계열 분석)

2022년 6월 15일
·
1개의 댓글
·

Deep Learning: Sequence Modeling

딥러닝에는 크게 두 분야가 있다. 바로 이미지를 다루는 Computer Vision과 자연어를 다루는 NLP(Natural language processing)이다. 그 동안 이미지 처리를 다루는 computer vision에 관해 학습했고, 앞으로는 자연어를 다루는

2022년 5월 22일
·
0개의 댓글
·
post-thumbnail

[DL] LSTM&GRU

LSTM, GRU

2022년 3월 12일
·
0개의 댓글
·

[TIL] 03.08(화)

varnilla RNNgradient exploding/vanishingLSTM(Long Short-Term Memory)GRUpytorch를 이용한 RNN의 구체적 구현방법tensor를 다루는 방법

2022년 3월 10일
·
1개의 댓글
·

RNN, LSTM

RNN, LSTM

2022년 3월 4일
·
0개의 댓글
·