# summarization

11개의 포스트

[NLP] Improving Faithfulness in Abstractive Summarization with Contrast Candidate Generation and Selection (NAACL, 2022)

1) Faithfulness <=> Hallucination2) Abstractive summarization <=> Extract summarization원문에 제시된 정보와 일치하는 요약 생성하는거 어려움. 성능은 높아졌지만, hallucination 있

3일 전
·
0개의 댓글
·
post-thumbnail

[논문 분석] News Summarization and Evaluation in the Era of GPT-3 (GPT-3 시대의 뉴스 요약 및 평가)

자연어처리 2023 뉴스 요약의 혁신: 제로 샷 및 특수 작업에서 GPT의 성능 살펴보기 (Revolutionizing News Summarization: Exploring the Power of GPT in Zero-Shot and Specialized Tasks)

4일 전
·
0개의 댓글
·

[NLP #8] How Far are We from Robust Long Abstractive Summarization? (EMNLP, 2022)

goal: abstractive summarization system의 수행결과를 human annotation 결과랑 비교해서 long document에 대해 얼마나 잘했는지 평가해본다. result: 비교해보니까 ROUGE result에서는 굿이었음. 그러니까 re

2023년 5월 3일
·
0개의 댓글
·

[NLP #5] Mutual Information Alleviates Hallucinations in Abstractive Summarization (EMNLP, 2022)

paper: https://aclanthology.org/2022.emnlp-main.399.pdfcode: https://github.com/VanderpoelLiam/CPMIBackground: hallucinate: 요약한게 source docu

2023년 3월 29일
·
0개의 댓글
·
post-thumbnail

LSTM with Attention 을 이용한 뉴스 데이터 요약

[LG-CNS 실습과정] Attention 모델 활용을 위해 작성한 내용 및 코드.

2022년 9월 12일
·
0개의 댓글
·
post-thumbnail

Pointer - Generator

이번에 다뤄볼 논문은 pointer generator라고 불리는 논문이다. arxiv 게재 기준으로 2017년에 나온 꽤 오래된 논문이지만(2017년 논문을 오래됐다고 할 때마다 이게 맞나 싶다...) summarization 분야나 연구실에서 하고 싶은 DST(Dia

2022년 2월 9일
·
0개의 댓글
·

HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text Extractive Summarization

Abstract 요약 테스크에 대한 논문 의미 그래프를 담기 위해서 GNN을 주로 사용했음 긴 텍스트에서 사용하기 위한 좀 더 효율적인 모델 적은 메모리와 파라미터로 Rouge, F1 좋은 점수를 냈다. HETFORMER on Summarization 토큰, 문장,

2022년 1월 19일
·
0개의 댓글
·
post-thumbnail

[Paper Review] PEGASUS:Pre-training with Extracted Gap-sentences for Abstractive Summarization

Intro최근 NLP의 downstream tasks 중 하나인 Summarization분야에 "PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization"이라는 새로운 논문(멋진 이

2021년 7월 18일
·
0개의 댓글
·