modesta.log
로그인
modesta.log
로그인
MetaPrompting: Learning to Learn Better Prompts
jihyelee
·
2023년 5월 16일
팔로우
0
prompt
논문리뷰
0
prompt-engineering
목록 보기
9/18
MetaPrompting: Learning to Learn Better Prompts
COLING 2022
분야 및 배경지식
meta-learning
직접 학습하는 것이 아니라 한 단계 더 높은 차원(=meta)에서의 학습을 이용하는 방법
굉장히 다양한 연구 분야를 포괄하는 용어이나, 해당 논문의 경우 다양한 태스크에 대해 학습한 이후 학습하지 않은(=unseen) 태스크에 대해 적응하는 단계를 거침
metric-based
유사한 샘플들은 모으고 다른 샘플들은 분리하는 metric space를 학습
model-based
모델의 예측을 지원하기 위해 추가적인 meta learner를 사용
optimization-based
모델의 최적화를 개선시키는 방법을 학습
prompt
hard prompt
사람이 이해할 수 있는 자연어로 만들어진 프롬프트로, discrete prompt라고도 불림
soft prompt 대비 search space가 한정적
soft prompt
학습가능한 벡터로 구성된 프롬프트로, continuous prompt라고도 불림
문제
soft prompt를 활용한 방법들은 효과를 보기 위해 좋은 시작점(initialization)에 크게 의존
좋은 시작점은 일반적으로 새로운 태스크에 따라 새롭게 학습되어야 하며, 또한 쉽게 찾을 수 없음 (task-bounded)
해결책
MetaPrompting
새로운 프롬프트 태스크에 빠르게 적응할 수 있는 좋은 프롬프트 초기점(initialization)을 자동으로 찾는 알고리즘
soft prompt embedding과 MLM(Masked Language Model) 파라미터를 학습
optimization 기반의 meta-learning 이용
meta-train 태스크와 meta-test 태스크는 동일한 데이터셋 내의 다른 도메인으로부터 샘플링
second-order gradient
L_D^query 부분은 meta loss, L_D^support 부분은 adapt loss
H는 Hessian matrix를 의미
평가
모델
BERT (bert-base-uncased)
P-tuning과 유사하게 transformation layer를 추가 (soft prompting model)
2 layer biLSTM
2 layer MLP
데이터셋
HuffPost headlines, Amazon product data, 20 Newsgroups, Reuters
의의
최적화 기반의 meta-learning을 프롬프트에 사용한 최초의 사례
한계
동일한 데이터셋 내의 다른 도메인 태스크를 이용해 meta-train을 진행
out-of-domain 태스크에 대해 meta-train을 수행하였을 때는 그다지 큰 성능 향상이 일어나지 않음
동일한 데이터셋 내의 다른 도메인 태스크를 이용한 것이 진정한 meta-learning이라고 볼 수 있을지 의문
도메인이 달라도 같은 데이터셋인만큼 데이터셋의 distribution이 유사할 것임
jihyelee
Graduate student at Seoul National University, majoring in Artificial Intelligence (NLP). Currently AI Researcher at LG CNS AI Lab
팔로우
이전 포스트
Generative Prompt Tuning for Relation Classification
다음 포스트
RLPROMPT: Optimizing Discrete Text Prompts with Reinforcement Learning
0개의 댓글
댓글 작성