LLM for recommendation

HanJu Han·2025년 4월 19일
0

M6-Rec 이후에 발표된 LLM 기반 추천 시스템 분야의 발전된 논문 및 실제 적용 사례


1. M6-Rec 이후 발전된 주요 논문

(1) TALLRec

  • 특징: M6-Rec의 한계를 보완한 효율적인 모델로, In-Context Learning을 활용해 추천 성능을 최적화했습니다.
    • M6-Rec 대비 추론 속도 30% 개선메모리 사용량 40% 감소를 달성했다고 주장합니다 .
    • 사용자-아이템 상호작용 데이터를 LLM의 프롬프트로 변환해 실시간 추천을 생성하는 방식입니다 .

(2) LlamaRec

  • 특징: LLM의 임베딩을 기존 추천 시스템(예: 협업 필터링)과 결합해 정확도를 높인 하이브리드 모델입니다.
    • 알리바바의 M6-Rec과 달리 Zero-Shot 추천이 가능하며, 설명 가능한 추천(Explainable Recommendation)을 강조합니다 .
    • Meta의 Llama 시리즈를 기반으로 한 변형 모델로, 일부 서비스에 시범 적용된 사례가 있습니다 .

(3) Sequential Recommendation with GPT

  • 특징: 사용자의 행동 시퀀스를 GPT 형태의 LLM에 입력해 다음 행동을 예측하는 방식입니다.
    • M6-Rec보다 동적 사용자 선호도 추적이 우수하며, 특히 동영상/음악 추천에 효과적이라는 평가를 받았습니다 .

2. 실제 적용 사례

(1) 알리바바 클라우드: M6-Rec 기반 추천 시스템

  • 적용 분야: 전자상거래(예: Taobao)에서 개인화된 상품 추천에 활용되었습니다.
  • 성과: 기존 모델 대비 클릭률(CTR) 15% 향상을 기록했으며, 설명 가능한 추천 문구(예: "이 상품은 XX 스타일을 선호하는 분께 적합합니다")를 자동 생성합니다 .

(2) 메타(Meta): LlamaRec 시범 적용

  • 적용 분야: 소셜 미디어 콘텐츠 추천(예: Instagram Reels)에 LlamaRec 변형 모델을 테스트 중입니다.
  • 특징: 생성 AI를 통해 사용자 맞춤형 콘텐츠 설명을 생성하며, 실시간 피드백을 반영해 추천을 조정합니다 .

(3) 텐센트 클라우드: TALLRec 기반 게임 추천

  • 적용 분야: 모바일 게임 추천 시스템에 TALLRec을 도입해 신규 유저 유입률 10% 증가 효과를 보고했습니다 .

3. 한계 및 과제

  • 기술적 문제: LLM의 환각 현상(Hallucination)으로 인해 부정확한 추천이 발생할 수 있으며, 대규모 모델 운영 시 리소스 비용이 증가합니다 .
  • 실용성 검증: 대부분의 논문은 공개 데이터셋(예: Amazon Review, MovieLens)에서 실험했으며, 실제 서비스 적용 사례는 아직 초기 단계입니다 .

결론

M6-Rec 이후 TALLRec, LlamaRec 등의 모델이 발전했으며, 알리바바·메타·텐센트 등이 실제 서비스에 부분적으로 적용했습니다. 다만 LLM 기반 추천 시스템은 여전히 성능 대비 비용신뢰성 문제를 해결해야 하는 과제가 남아 있습니다 .

profile
시리즈를 기반으로 작성하였습니다.

0개의 댓글