Incremental Few-shot Text Classification with Multi-round New Classes: Formulation, Dataset & System

jihyelee·2023년 1월 27일
0

continual-learning

목록 보기
5/16

Incremental Few-shot Text Classification with Multi-round New Classes: Formulation, Dataset & System
NAACL 2021

분야 및 배경지식

Continual Learning, Few-shot Learning

  • Using Textual Entailment for Text Classification: DNNC는 클러스터링을 기반으로 한 분류기로, discriminative nearest neighbor classification의 약자. 두 예시가 같은 클래스에 있는지 아닌지 여부를 비교

문제점

  • 제한적인 수의 labeled data만 존재할 경우에도 모델은 원하는 태스크를 잘 수행해야 함
  • 새로운 클래스를 지속적으로 학습할 때, 1) 이전 클래스의 예시들을 재학습하지 않아야 하며, 2) 이전 클래스들에 대한 지식을 잊지 않으면서도 3) 동시에 새로운 클래스에 대해서 성능을 보여야 함

해결책

ENTAILMENT and HYBRID

  • Text Classification into Textual Entailment (ENTAILMENT)
    • 인풋 x를 premise로, class y를 hypothesis로 변경
    • 거대한 규모의 entailment dataset이 가진 간접적인 supervision 활용 가능하여 few-shot setting에 도움 (base class 학습 전 사전학습 시 entailment dataset 이용 가능)
    • few-shot 예시뿐만 아니라 class name의 정보까지도 학습에 사용할 수 있음 (class name도 유용한 정보 포함)
    • entailment pair x, y(positive, negative)를 RoBERTa를 이용해 학습
  • HYBRID: ENTAILMENT와 DNNC(Zhang et al. 2020)로부터 나온 쌍(pairs)들을 활용
  • base 학습에는 충분한 labeled data 사용(base class), 새로운 클래스를 학습할 때에는 오직 k개의 예시만을 사용(few-shot class), 테스트 시에는 base class, few-shot class와 더불어 학습 시 사용되지 않았던 OOD(out-of-distribution) class 사용

평가

  • 태스크: text classifiation (binary)
    • intent detection: 사용자 쿼리의 의도를 이해
    • relation classification: 주어진 문장에서 두 개체 사이의 올바른 관계를 파악
  • dataset
    • 사전학습(pretrain): MNLI dataset을 활용
    • finetuning: IFS-INENT (converted from BANKING77 which is single domain intent detection), IFS-RELATION (converted from FewRel)

한계

  • 두 개의 클래스에 대해 분류하는 binary classification 대상으로, 확장성이 아쉬움
  • 기존에 연구되었던 DNNC 대비 엄청난 성능 향상이 이루어졌다고 보기 어려움

의의

  • Better Performance: HYBRID가 IFS-INTENT에 대해 최고의 성능을 내며, 전반적으로 평균 성능의 감소 정도를 개선. 학습한 클래스들에 대해 ENTAILMENT와 HYBRID가 가장 좋은 성능을 냄
  • Entailment가 전체 학습 클래스들의 평균 정확도에 있어서 가장 좋은 성능을 내고, DNNC는 더욱 안정적이고 더욱 낮은 성능 감소율을 보이며, 둘을 결합한 HYBRID는 두 모델의 장점을 갖고 있다는 사실을 보임
profile
Graduate student at Seoul National University, majoring in Artificial Intelligence (NLP). Currently AI Researcher at LG CNS AI Lab

0개의 댓글