1 Introduction & Summary Challenge seq2seq 모델인 mT5는 cross-lingual task에서 괄목할만한 성능 보여줌 MT5가 이미 성능이 좋은데, 어떻게 하면 tranlation data 사용해서 MT5를 뛰어넘을 수 있을까
Summary Background: Neural Machine Translation (NMT) task에서는 training 데이터 수에 따라서 generaliation performance가 달라진다. 그래서 training data를 늘리기 위해 Augmen
한줄 요약: unlabeled or labeled data 모두에서 setence embedding 뽑을 수 있다? Paper: https://aclanthology.org/2021.emnlp-main.552/Code: https://github.co
Paper: https://aclanthology.org/2020.acl-main.703/ > Code: > - Ko-BART : https://github.com/SKT-AI/KoBART
paper: https://aclanthology.org/2022.emnlp-main.399.pdfcode: https://github.com/VanderpoelLiam/CPMIBackground: hallucinate: 요약한게 source docu
Goal: 1600가지 언어 데이터셋을 활용해서 기존의 PMM 모델들 performance 검증Challenge: 1) 소량 2) narrow domainResult: XLM-R good
goal: abstractive summarization system의 수행결과를 human annotation 결과랑 비교해서 long document에 대해 얼마나 잘했는지 평가해본다. result: 비교해보니까 ROUGE result에서는 굿이었음. 그러니까 re
paper: https://aclanthology.org/2022.naacl-main.290/ > velog: https://velog.io/@zvezda/On-Transferability-of-Prompt-Tuning-for-Natural-Language-Proces
Dialogue systemopen-domain dialogue system : 대화주제 자유롭게task oriented dialogue (TOD) system: 특정 task 수행TODsingle domain TOD: 하나의 작업만 수행Multi domain TOD:
GPT-2 Review
Challenge : Pretraine language model 등의 발전으로 controllable text genration이 각광받고 있다. 하지만 story-specific controllability를 잘하기 위해선 아직 부족하다!
InversionPermutationTransliterationSyntaxBilingual ModelMonolingual Model
paper: https://proceedings.neurips.cc/paper_files/paper/2022/file/b1efde53be364a73914f58805a001731-Paper-Conference.pdfBackground: LM 모델을 더 크게 만든