Large Language Model Augmented Narrative Driven Recommendations (RecSys 2023)

박상우·2024년 2월 22일
0

Paper Review

목록 보기
41/51
post-thumbnail

INTRODUCTION

  • RS는 매우 유용한 tool
  • Interaction base recommendation은 효과적이나, 모호한 idea, 혹은 desire 하는 item이 특정 context에 한정 된 경우 이는 효과적이지 않음
  • 이러한 맥락에서, user는 dialogue의 형태로 추천을 요청하는 경우가 많음, 그릭도 현재의 추천 시스템에서 이는 limitation이 존재
  • 이러한 complex NDR(narrative driven recommendation)은 필수적이며, LLM은 이를 효과적으로 해결할 수 있음
  • 본 연구는 기존 user-interaction dataset을 augmentation하여 NDR에 사용하려 함
  • InstructGPT를 기반으로 synthetic query를 생성한 뒤, 유저 리뷰 기반 likelihood를 통해 적절한 query를 선택 및 이를 통해 fine tuning하는 것
  • 이는 NDR dataset에 비해 기존 classic dataset의 규모가 훨씬 크다는 것에서 착안

METHOD

Problem Setup

  • 우리는 NDR을 ranking task로 정의

Proposed Method

  • 우리의 모델 MINT는 LLM을 통해 generation된 synthetic dataset을 사용해 LLM을 fine-tuning하는 것

Narrative Queries from LLMs.

  • 우리는 InstructGPT를 우리의 query generation model QGEN으로 사용
  • 3 개의 few shot example을 통해 사용자를 선정하여 query를 generate

Filtering Items Synthetic Queries.

  • 합성 query는 관심사의 일부분 만을 포착할 것 이기에, PLM을 사용하여 likelihood를 계산 해 높은 우도의 아이템 만을 synthetic data로 사용
  • 이는 실험적으로 효과적인 query generation 방법론임이 입증 됨

Training Retrieval Models

  • 이후 bert의 아키텍쳐와 유사한 MPnet을 사용하여 training (이는 search 에서 흔히 사용되는 모델)
  • Bi-Encoder를 통해 embedding을 생성한 후 cross-encoder를 통해 query와 item의 ranking을 측정
  • Triplet loss, CE loss로 각각 Bi-encoder와 cross-encoder를 학습

EXPERIMENTS AND RESULTS

  • MINT를 publicly available testset을 통해 evaluate 및 ablation

Results

  • ours가 baseline을 outperform

Ablations

  • 총 3가지 ablation
    • No item filtering: filtering이 없어 더 large하고 noisy
    • 6B LLM for QGEN: InstructGPT모델 사이즈를 175B에서 6B로
    • 6B LLM for Item Queries: 더 적은 파라미터의 LLM
profile
세상아 덤벼라

0개의 댓글