# summarization
[NLP] Improving Faithfulness in Abstractive Summarization with Contrast Candidate Generation and Selection (NAACL, 2022)
1) Faithfulness <=> Hallucination2) Abstractive summarization <=> Extract summarization원문에 제시된 정보와 일치하는 요약 생성하는거 어려움. 성능은 높아졌지만, hallucination 있

[논문 분석] News Summarization and Evaluation in the Era of GPT-3 (GPT-3 시대의 뉴스 요약 및 평가)
자연어처리 2023 뉴스 요약의 혁신: 제로 샷 및 특수 작업에서 GPT의 성능 살펴보기 (Revolutionizing News Summarization: Exploring the Power of GPT in Zero-Shot and Specialized Tasks)

Improving Faithfulness in Abstractive Summarization with Contrast Candidate Generation and Selection (NACCL, 2022)
Improving Faithfulness in Abstractive Summarization
[NLP #8] How Far are We from Robust Long Abstractive Summarization? (EMNLP, 2022)
goal: abstractive summarization system의 수행결과를 human annotation 결과랑 비교해서 long document에 대해 얼마나 잘했는지 평가해본다. result: 비교해보니까 ROUGE result에서는 굿이었음. 그러니까 re
[NLP #5] Mutual Information Alleviates Hallucinations in Abstractive Summarization (EMNLP, 2022)
paper: https://aclanthology.org/2022.emnlp-main.399.pdfcode: https://github.com/VanderpoelLiam/CPMIBackground: hallucinate: 요약한게 source docu
LSTM with Attention 을 이용한 뉴스 데이터 요약
[LG-CNS 실습과정] Attention 모델 활용을 위해 작성한 내용 및 코드.

Pointer - Generator
이번에 다뤄볼 논문은 pointer generator라고 불리는 논문이다. arxiv 게재 기준으로 2017년에 나온 꽤 오래된 논문이지만(2017년 논문을 오래됐다고 할 때마다 이게 맞나 싶다...) summarization 분야나 연구실에서 하고 싶은 DST(Dia
HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text Extractive Summarization
Abstract 요약 테스크에 대한 논문 의미 그래프를 담기 위해서 GNN을 주로 사용했음 긴 텍스트에서 사용하기 위한 좀 더 효율적인 모델 적은 메모리와 파라미터로 Rouge, F1 좋은 점수를 냈다. HETFORMER on Summarization 토큰, 문장,

[논문정리] Survey : Survey papers for Clincal NLP(for 6 papers)
Medical NLP 서베이를 서베이

[Paper Review] PEGASUS:Pre-training with Extracted Gap-sentences for Abstractive Summarization
Intro최근 NLP의 downstream tasks 중 하나인 Summarization분야에 "PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization"이라는 새로운 논문(멋진 이
HIBERT: Document Level Pre-training of Hierarchical Bidirectional Transformers for Document Summarization
HIBERT 논문 공부