Ask Me Anything: A simple strategy for prompting language models

jihyelee·2023년 5월 2일
0

prompt-engineering

목록 보기
14/18

Ask Me Anything: A simple strategy for prompting language models
ICLR 2023 notable top 25%

분야 및 배경지식

  • in-context learning
    • 사용자가 제공한 태스크에 대한 자연어 설명 혹은 프롬프트를 활용하여 언어모델로부터 원하는 결과를 도출하는 방식
  • prompt aggregation (프롬프트 종합)
    • 여러 개의 프롬프트를 결합하여 사용함으로써 성능을 높이고자 하는 방법. 어떤 종류의 프롬프트를 선택하느냐에 따라 다른 결과를 야기
  • weak supervision (약지도)
    • 노이즈가 존재하는 여러 데이터로부터 정확도와 상관관계를 학습하고 이를 결합하여 학습 데이터를 위한 약한 레이블(정답)을 생성하는 방식

문제

  • 프롬프트의 작은 변화가 성능에 큰 영향을 미침 (huge performance variation)
  • 각 태스크에 대한 완벽한 프롬프트를 만든다는 것은 굉장히 어려움 (not task-agnostic)
  • 또한 언어모델의 종류나 모델 크기에 따라 프롬프트의 성능이 달라짐 (not model-agnostic)

해결책

AMA (Ask Me Anything Prompting)

  • 여러 개의 불완전한(imperfect) 프롬프트를 이용해 신뢰성을 높일 수 있는 방향으로 프롬프트의 결과를 종합하는 프롬프팅 방식

1. 효과적인 프롬프트 (effectiveness)

  • 프롬프트의 다양한 형태 중 모델의 결과를 특정한 토큰으로 제한하지 않고 열린 정답을 가능하게 하는 프롬프트가 더욱 효과적
    • e.g. "존은 공원에 갔다. 사실인가 아닌가?" <<< "존이 어디에 갔는가?"
    • 이는 실제 사전학습 데이터에서 open-ended 형태가 restrictive보다 더 자주 등장하며 (약 1000배), 사전학습 시 존재한 클래스 사이의 불균형으로 인한 생긴 편견(bias) 때문인 것으로 보임
  • 특별한 아웃풋 클래스(e.g. 선다형 분류)를 가진 경우 정답을 매핑해주면 더욱 효과적

2. 확장 가능한 수집 (scalability)

  • 언어모델을 활용하여 데이터셋을 효과적인 프롬프트 형태로 재구성
  • question(), answer()로 이루어진 prompt()-chain을 이용해 생성

3. 프롬프트 종합 (aggregation)

  • 기존의 MV(majority vote; 다수결)와 같은 단순한 방식은 효과적이지 않음
  • 약한 지도(weak supervision)를 활용하여 프롬프트들 사이의 의존성을 고려해 프롬프트로부터 얻은 예측결과를 결합
    • H(y|y_hat)은 y_hat이 y와 연관성있는 정보를 갖고 있을 때 낮음
    • 왼쪽 그래프를 통해 볼 수 있듯 AMA는 개별 프롬프트에서 k-shot 베이스라인의 성능을 뛰어넘음
    • 오른쪽 그래프를 통해서 볼 수 있듯 AMA가 MV 대비 종합 시 정보손실을 감소시킴

평가

  • 데이터셋
    • 20개 데이터셋 (NLU, NLI, Classification, Question Answering)
  • 모델
    • Neo, BLOOM, OPT, T0 계열에서 14개의 다양한 크기, 종류의 모델

의의

  • 약 30배 정도 적은 파라미터를 가진 모델로 하여금 GPT3-175B few-shot의 성능과 필적하거나 뛰어넘도록 함
    • 20개중 15개의 벤치마크에서 6B 파라미터를 가진 모델이 GPT3-175B 모델의 few-shot 성능을 뛰어넘음

한계

  • 필요한 지식이 태스크 인풋에 제공될 때 더 높은 성능 향상을 보이나, 그렇지 않은 경우와 태스크가 잠재 지식에 의존할 수 없을 때 (e.g. temporal knowledge or domain knowledge) 한계 존재
profile
Graduate student at Seoul National University, majoring in Artificial Intelligence (NLP). Currently AI Researcher at LG CNS AI Lab

0개의 댓글

관련 채용 정보