Transformer는 CNN, RNN 계열의 신경망 구조를 탈피한 Attention 메커니즘만으로 구현한 딥러닝 모델이다.
💡 기존 2-Stage Learning의 한계를 완화한 패러다임 제안
Extractive Summarization as Text Matching 논문 리뷰
Fast Abstractive Summarization with Reinforce-Selected Sentence Rewriting 논문 리뷰
Abstract meaning representation for sembanking 논문 리뷰
Microsoft의 소셜 챗봇 XiaoIce의 프레임워크를 소개한 논문 리뷰
가이드를 활용하기 위해 확장된 텍스트 요약 프레임워크, GSum 논문 리뷰
Facebook의 Poly-Encoder 논문 리뷰
Microsoft의 DeBERTa 논문 리뷰
Google의 FLAN 논문 리뷰 (Under review in ICLR 2022)
DeepMind의 Perceiver IO 논문 리뷰 (ICLR 2022)
SimCLS: A Simple Framework for Contrastive Learning of Abstractive Summarization 논문 리뷰
Google의 SLiC 논문 리뷰 (preprint, 2022)
Multitask Prompted Training Enables Zero-Shot Task Generalization 논문 리뷰