# Seq2Seq

Transformer Paper Review
오늘은 Transformer Paper Review와 덧붙여 관련 얘기를 해볼 것이다. 우선 Transformer는 자연어 처리에 더욱 적합하게 탄생한 모델인 것 같다는 내 생각을 밝히면서 시작하겠다 논문에 Introduction에서 언어모델과 관련된 얘기를 하는 것으

[혁펜하임의 AI DEEP DIVE] 체험단 후기
안녕하세요 양콩공입니다 !!!!!!!! 인사를 드린 포스팅은 처음인 것 같아요😊 저는 작년에 빅데이터 개발자 과정 국비를 수강하면서 마지막에 추천 시스템 딥러닝 공모전에 참여하게 되었습니다! 🤞그때 딥러닝 관련 기초 개념들에 대해 국비 교육으로 이해하기에는 한계가

Sequence-to-sequence with attention
boost course의 자연어 처리의 모든 것 강의를 보고 복습차원에서 작성하였습니다.앞선 내용들 까지는 RNN의 구조와 문제점, lstm, gru에 대해서 살펴보았습니다. 이번에서는 이러한 모델들을 가지고 Sequence-to-sequence model을 만들고

[LGaimers] 딥러닝 - (4) seq2seq
: Recurrent Neural Networks\-> sequence data 에 특화된 neural network, 재귀호출하는 알고리즘\-> 전단계의 출력 결과와 현재 단계의 새로운 입력값에 각각 fully connected layer를 거치고 합산해서 seque

트랜스포머(Transformer)
개념주의 메커니즘만을 사용한 Seq2Seq 모형(like 번역기, 챗봇)문장 내, 문장 간 주의 메커니즘 적용모델 구조 Query-Key-Value하나의 입력값을 Query, Key, Value 세 가지 값으로 변환사전 검색과 비슷Query(질의, 검색어)와 비슷한

[Paper] Attention is All You Need 논문 리뷰
본 글은 Google Brain에서 2017 NIPS에 발표한 Attention is All You Need 논문에 대한 리뷰입니다. RNN 모델의 장기 의존성 문제(long-term dependency)를 극복하기 위해 제안된 Transformer는 BERT나 GPT
[논문 리뷰] Seq2Seq
실제 구현 코드를 참고하며..! 동빈나님의 seq2seq code기존 DNN은 sequence와 sequence를 매핑하는데 사용할 수 없다는 한계점이 있다. 본 논문에서는 문장 구조에 대한 최소한의 가정만 하는 sequence learning에 관한 end-to-en
앞으로 다룰 것들
현재 한글 텍스트 데이터 기반의 자연어 처리 과제 (특히 요약문 생성과 클래스 분류등을 위한)를 진행중이다. 앞으로 교재와 논문을 레퍼런스로 삼아 진행하며 그 과정을 기록하려 한다.자연어 처리를 위한 트랜스포머https://jalammar.github.io/i
[CS224n #4] Sequence to Sequence Learning with Neural Networks (NeurIPS, 2014)
0. Summary Background : DNN으로 아직 sequences to sequence 다룬 적 없음 Goal : end-to-end approach to sequence learning Method : LSTM encoder-decoder Experimen

[NLP] Encoder∙Decoder 구조와 Seq2Seq, Seq2Seq with Attention
Encoder∙Decoder 구조를 활용해 sequence를 처리하고 sequence를 출력으로 내보내는 Seq2Seq 구조에 대해 알아보고 Seq2Seq에 Attention을 적용한 Seq2Seq with Attention에 대해 배운다.

UL2, Unifying Language Learning Paradigms
현재까지의 언어모델들은 특정한 유형에 맞춰져 있다. 하지만 어떤 구조가 가장 적합한지, 어떤 세팅이 되어야 하는지 아직 정해진 것들이나 업계 전반에 합의된 것은 없다. 이 논문에서 pretraining을 위한 통합된 프레임워크를 보이고자 한다.

Sequence to Sequence
NLP 구조의 바탕이 되는 Encoder-Decoder 의 Sequence to Sequence란 무엇일까? 해당논문을 바탕으로 정리해보았다. Architectrue DNN은 고정된 input, output의 차원을 지정해야 해야 하기 때문에 음성이나 자연어 시계열