# Seq2Seq

41개의 포스트
post-thumbnail

Seq2Seq learning

RNN을 활용한 Seq2Seq

3일 전
·
0개의 댓글
·
post-thumbnail

네이버 부스트캠프 5기 18일차

Seq2Seq에 대한 논문 리뷰입니다. 다만 PDF파일이라 첨부가 불가하여 Github링크를 첨부했습니다.

4일 전
·
0개의 댓글
·
post-thumbnail

Transformer Paper Review

오늘은 Transformer Paper Review와 덧붙여 관련 얘기를 해볼 것이다. 우선 Transformer는 자연어 처리에 더욱 적합하게 탄생한 모델인 것 같다는 내 생각을 밝히면서 시작하겠다 논문에 Introduction에서 언어모델과 관련된 얘기를 하는 것으

2023년 3월 1일
·
0개의 댓글
·
post-thumbnail

[혁펜하임의 AI DEEP DIVE] 체험단 후기

안녕하세요 양콩공입니다 !!!!!!!! 인사를 드린 포스팅은 처음인 것 같아요😊 저는 작년에 빅데이터 개발자 과정 국비를 수강하면서 마지막에 추천 시스템 딥러닝 공모전에 참여하게 되었습니다! 🤞그때 딥러닝 관련 기초 개념들에 대해 국비 교육으로 이해하기에는 한계가

2023년 2월 7일
·
0개의 댓글
·
post-thumbnail

Sequence-to-sequence with attention

boost course의 자연어 처리의 모든 것 강의를 보고 복습차원에서 작성하였습니다.앞선 내용들 까지는 RNN의 구조와 문제점, lstm, gru에 대해서 살펴보았습니다. 이번에서는 이러한 모델들을 가지고 Sequence-to-sequence model을 만들고

2023년 2월 6일
·
0개의 댓글
·
post-thumbnail

[LGaimers] 딥러닝 - (4) seq2seq

: Recurrent Neural Networks\-> sequence data 에 특화된 neural network, 재귀호출하는 알고리즘\-> 전단계의 출력 결과와 현재 단계의 새로운 입력값에 각각 fully connected layer를 거치고 합산해서 seque

2023년 1월 24일
·
0개의 댓글
·
post-thumbnail

트랜스포머(Transformer)

개념주의 메커니즘만을 사용한 Seq2Seq 모형(like 번역기, 챗봇)문장 내, 문장 간 주의 메커니즘 적용모델 구조 Query-Key-Value하나의 입력값을 Query, Key, Value 세 가지 값으로 변환사전 검색과 비슷Query(질의, 검색어)와 비슷한

2023년 1월 23일
·
0개의 댓글
·
post-thumbnail

[Paper] Attention is All You Need 논문 리뷰

본 글은 Google Brain에서 2017 NIPS에 발표한 Attention is All You Need 논문에 대한 리뷰입니다. RNN 모델의 장기 의존성 문제(long-term dependency)를 극복하기 위해 제안된 Transformer는 BERT나 GPT

2022년 12월 28일
·
0개의 댓글
·

[논문 리뷰] Seq2Seq

실제 구현 코드를 참고하며..! 동빈나님의 seq2seq code기존 DNN은 sequence와 sequence를 매핑하는데 사용할 수 없다는 한계점이 있다. 본 논문에서는 문장 구조에 대한 최소한의 가정만 하는 sequence learning에 관한 end-to-en

2022년 12월 2일
·
0개의 댓글
·
post-thumbnail

Attention

Attention의 컨셉은 각 시점별로 (같은 가중치가 아닌) 더 중요하게 관찰하겠다는 것이다

2022년 11월 23일
·
0개의 댓글
·

앞으로 다룰 것들

현재 한글 텍스트 데이터 기반의 자연어 처리 과제 (특히 요약문 생성과 클래스 분류등을 위한)를 진행중이다. 앞으로 교재와 논문을 레퍼런스로 삼아 진행하며 그 과정을 기록하려 한다.자연어 처리를 위한 트랜스포머https://jalammar.github.io/i

2022년 11월 16일
·
0개의 댓글
·

[CS224n #4] Sequence to Sequence Learning with Neural Networks (NeurIPS, 2014)

0. Summary Background : DNN으로 아직 sequences to sequence 다룬 적 없음 Goal : end-to-end approach to sequence learning Method : LSTM encoder-decoder Experimen

2022년 10월 26일
·
0개의 댓글
·

밑바닥부터 시작하는 딥러닝 2 - 7장

7장 RNN을 사용한 문장 생성

2022년 9월 30일
·
0개의 댓글
·
post-thumbnail

[NLP] Encoder∙Decoder 구조와 Seq2Seq, Seq2Seq with Attention

Encoder∙Decoder 구조를 활용해 sequence를 처리하고 sequence를 출력으로 내보내는 Seq2Seq 구조에 대해 알아보고 Seq2Seq에 Attention을 적용한 Seq2Seq with Attention에 대해 배운다.

2022년 7월 20일
·
0개의 댓글
·
post-thumbnail

seq2seq로 기계 번역 구현하기

seq2seq(sequence to sequence)로 기계 번역 구현

2022년 7월 4일
·
0개의 댓글
·
post-thumbnail

UL2, Unifying Language Learning Paradigms

현재까지의 언어모델들은 특정한 유형에 맞춰져 있다. 하지만 어떤 구조가 가장 적합한지, 어떤 세팅이 되어야 하는지 아직 정해진 것들이나 업계 전반에 합의된 것은 없다. 이 논문에서 pretraining을 위한 통합된 프레임워크를 보이고자 한다.

2022년 6월 6일
·
0개의 댓글
·
post-thumbnail

Sequence to Sequence

NLP 구조의 바탕이 되는 Encoder-Decoder 의 Sequence to Sequence란 무엇일까? 해당논문을 바탕으로 정리해보았다. Architectrue DNN은 고정된 input, output의 차원을 지정해야 해야 하기 때문에 음성이나 자연어 시계열

2022년 5월 28일
·
0개의 댓글
·