<논문 리뷰> Unbiased Recommender Learning from Missing-Not-At-Random Implicit Feedback (WSDM 2020)

Mute_All·2024년 11월 26일

논문 리뷰

목록 보기
1/7
post-thumbnail

Positive-Unlabeled 문제와 기존 연구의 한계

Positive-Unlabeled 문제는 클릭되지 않은 데이터가 "Negative"인지 "Unlabeled"인지 명확히 구분할 수 없는 문제를 말합니다.

이전 연구들은 이 문제를 해결하기 위해 다음과 같은 방법을 사용하였습니다:

  1. 클릭된 데이터(Positive)에 더 큰 가중치를 부여함으로써 클릭되지 않은 데이터(Unlabeled)로 인해 발생하는 왜곡을 줄입니다.
  2. EM 알고리즘을 사용하여 데이터가 클릭될 확률을 추정하고, 긍정적 피드백의 신뢰도를 높이는 방법을 적용합니다.

하지만:

  • 클릭 데이터를 균일하게 강조하더라도, 클릭 여부는 노출 확률과 연관되기 때문에 인기 아이템이 과대평가되는 경향이 지속됩니다.
  • EM 알고리즘은 노출 확률에 관계 없이 데이터를 모두 균일하게 처리하는 경향으로 인해 MNAR 문제를 완전히 해결하지 못합니다.

결론적으로, 노출 확률과 관련성(Relevance)을 독립적으로 추정할 수 있는 새로운 방식이 필요합니다.


ABSTRACT

이 논문은 추천 시스템에서 발생하는 Missing-Not-At-Random(MNAR) 문제를 해결하기 위해 편향 없는 추정기(unbiased estimator)를 제안합니다.
기존 방법들이 인기 아이템에 치우쳐 드문 아이템을 과소 평가하는 한계를 극복하기 위해, 이상적 손실 함수(ideal loss function)를 정의하고 이를 최적화하는 새로운 추정기를 설계했습니다.
특히, Inverse Propensity Score (IPS) 기법을 확장해 높은 분산 문제를 해결하는 클리핑(clipping) 기법을 추가로 도입하였습니다.

실험 결과:

  • 제안된 모델은 드문 아이템에서의 성능을 크게 개선하였으며, 기존 모델(WMF, ExpoMF)을 전반적으로 능가하는 성능을 보였습니다.
  • 이 논문은 추천 시스템의 공정성과 정확성을 동시에 개선할 수 있는 가능성을 제시합니다.

Keywords

  • Implicit Feedback
    사용자의 명시적 평가 대신 행동 데이터(예: 클릭, 조회)를 기반으로 학습하는 피드백 유형

  • Missing-Not-At-Random (MNAR)
    데이터가 무작위로 누락되지 않았음을 나타내며, 인기 아이템이 과대평가되고 드문 아이템이 과소평가되는 문제

  • Inverse Propensity Weighting (IPS)
    데이터의 노출 확률(Propensity)을 역으로 가중하여 편향을 제거하는 방법

  • Positive-Unlabeled Learning
    긍정적 피드백과 비라벨 데이터를 기반으로 학습하는 방법론

  • Matrix Factorization
    협업 필터링에서 자주 사용되는 기법으로, 사용자와 아이템 간의 잠재 요인을 학습하는 데 사용


1. Introduction

사용자가 관심을 가질만한 아이템을 예측하여 사용자 경험을 개선하기 위해 추천 시스템을 활용합니다.
사용자가 진정으로 관심을 가지는 아이템을 추천할 수 있기 위해서는, 아이템과의 관련성(Relevance)을 잘 판단해야 합니다.

관련성을 예측하기 위한 기존 방법:

  1. 가중치 행렬 분해(Weighted Matrix Factorization, WMF):
    클릭되지 않은 아이템에 더 낮은 가중치를 부여하여, 클릭되지 않은 아이템이 클릭된 아이템에 비해 예측의 신뢰도가 낮음을 반영.

  2. 노출 행렬 분해(Exposure Matrix Factorization, ExpoMF):
    클릭의 확률을 노출 확률과 관련성 수준의 확률의 곱으로 나타내어, 노출 확률이 높은 데이터의 손실에 더 높은 가중치를 부여.

그러나, 이러한 방법들은 MNAR(Missing-Not-At-Random) 문제를 해결하지 못합니다.

본 연구의 목표와 접근 방법:

  1. 이상적 손실 함수(ideal loss function)의 정의:

    • 관련성을 극대화하기 위해 최적화할 수 있는 손실 함수를 설계.
    • 기존 방법(WMF, ExpoMF)이 이상적 손실 함수에 대해 편향을 가지고 있음을 이론적으로 증명.
  2. 편향 없는 추정기(unbiased estimator)의 제안:

    • 인과 추론(causal inference) 기법에서 영감을 받아 Positive-Unlabeled 문제MNAR 문제를 동시에 해결.
    • 관찰 가능한 피드백만으로 이상적 손실을 추정.
  3. 분산 감소와 클리핑(clipping):

    • 편향 없는 추정기의 분산(variance)을 분석하고, 편향-분산 균형(bias-variance trade-off)을 개선.
    • 클리핑 기법을 추가로 도입하여 이론적 특성을 조사.
  4. 실험적 검증:

    • 반합성 데이터(semi-synthetic data)와 실제 데이터(real-world data)를 사용한 실험을 통해 제안된 방법의 효과를 검증.

연구의 기여점:

  1. 관련성을 극대화하기 위한 최적화된 이상적 손실 함수를 정의하고, 이에 대한 편향 없는 추정기를 제안.
  2. 추천 환경에서 추정기의 분산이 클 수 있음을 지적하고, 이를 해결하기 위해 분산 감소 추정기(variance reduction estimator)를 사용.
  3. 반합성 데이터와 실제 데이터를 사용하여 실험을 수행:
    • 순위 측정(ranking metrics)을 크게 향상.
    • 드문 아이템의 성능을 개선.

2. NOTATION AND PROBLEM FORMULATION

2.1 Notation

Notation

  • uUu \in \mathcal{U} : 사용자
  • U=m|\mathcal{U}| = m : 사용자 수
  • iIi \in \mathcal{I} : 아이템
  • I=n|\mathcal{I}| = n : 아이템 수
  • D=U×I\mathcal{D} = \mathcal{U} \times \mathcal{I} : 사용자-아이템 쌍의 집합
  • Y{0,1}m×nY \in \{0, 1\}^{m \times n} : 클릭 행렬(click matrix), 각 항목 Yu,iY_{u,i}는 클릭 여부
    • Yu,i=1Y_{u,i} = 1 : 클릭된 경우
    • Yu,i=0Y_{u,i} = 0 : 클릭되지 않은 경우 (부정적 피드백 or 라벨이 없는 긍정적 피드백)

추가 행렬 정의

  1. 관련성 행렬 (Relevance Matrix):

    • R{0,1}m×nR \in \{0, 1\}^{m \times n}: 각 항목 Ru,iR_{u,i}는 사용자 uu와 아이템 ii 간의 관련성(relevance)을 나타내는 베르누이 확률 변수
      • Ru,i=1R_{u,i} = 1: uuii가 관련이 있음을 의미
      • Ru,i=0R_{u,i} = 0: uuii가 관련이 없음을 의미
  2. 노출 행렬 (Exposure Matrix):

    • O{0,1}m×nO \in \{0, 1\}^{m \times n}: 각 항목 Ou,iO_{u,i}는 사용자 uu가 아이템 ii에 노출되었는지를 나타내는 확률 변수
      • Ou,i=1O_{u,i} = 1: iiuu에게 노출됨을 의미
      • Ou,i=0O_{u,i} = 0: iiuu에게 노출되지 않음을 의미

확률 모델 정의

Yu,i=Ou,iRu,i(1)Y_{u,i} = O_{u,i} \cdot R_{u,i} \tag{1}
P(Yu,i=1)=θu,iγu,i(2)P(Y_{u,i} = 1) = \theta_{u,i} \cdot \gamma_{u,i} \tag{2}
  • θu,i=P(Ou,i=1)\theta_{u,i} = P(O_{u,i} = 1): 노출 확률 (Exposure Parameter)
  • γu,i=P(Ru,i=1)\gamma_{u,i} = P(R_{u,i} = 1): 관련성 확률 (Relevance Parameter)

식 (1) : 클릭 조건

  • 식 (1)은 아이템 ii가 사용자 uu에 의해 클릭되려면, iiuu에게 노출되었고 (Ou,i=1)(O_{u,i} = 1), 동시에 관련성이 있어야 (Ru,i=1)(R_{u,i} = 1) 함을 나타냅니다.
Yu,i=1    Ou,i=1Ru,i=1Y_{u,i} = 1 \iff O_{u,i} = 1 \land R_{u,i} = 1
  • 이 식은 암묵적 피드백에서 클릭이 반드시 관련성을 의미하지는 않는다는 점을 명확히 나타냅니다.
  • Unbiased Learning-to-Rank의 위치 기반 모델과 동일한 가정(클릭 데이터가 단순히 아이템과 사용자의 관련성만을 반영하는 것이 아니라 노출 위치의 영향을 받는다)을 따릅니다.

식 (2) : 클릭 확률

  • 식 (2)는 클릭 확률을 노출 확률 θu,i\theta_{u,i}관련성 수준 γu,i\gamma_{u,i}로 분해하는 가정을 나타냅니다.
P(Yu,i=1)=θu,iγu,iP(Y_{u,i} = 1) = \theta_{u,i} \cdot \gamma_{u,i}
  • 이 가정을 통해:
    • 사용자-아이템 쌍마다 다른 노출 확률 θu,i\theta_{u,i} 값을 가질 수 있음을 반영합니다.
    • 클릭 확률과 관련성 수준이 비례하지 않을 수 있는 MNAR (Missing-Not-At-Random) 환경을 모델링할 수 있습니다.

2.2 True Performance Metric

기존 메트릭의 한계

클릭 기반 메트릭의 정의:

Rclick(Z^)=1UuUiIP(Yu,i=1)c(Z^u,i)(3)R_\text{click}(\hat{Z}) = \frac{1}{|U|} \sum_{u \in U} \sum_{i \in I} P(Y_{u,i} = 1) \cdot c(\hat{Z}_{u,i}) \tag{3}
  • c(Z^u,i)c(\hat{Z}_{u,i}) : 순위 기반 가중치 (예: DCG, NDCG 등에서 사용되는 가중치)

  • Z^u,i\hat{Z}_{u,i} : 추천 시스템이 예측한 순위

문제점:

  • MNAR 문제
  • 노출 빈도에 의한 편향 : 인기 아이템이 과대평가되고, 드문 아이템은 과소평가되는 문제가 발생합니다.

True Performance Metric 의 정의

관련성 기반 메트릭:

Rrel(Z^)=1UuUiIP(Ru,i=1)c(Z^u,i)(4)R_\text{rel}(\hat{Z}) = \frac{1}{|U|} \sum_{u \in U} \sum_{i \in I} P(R_{u,i} = 1) \cdot c(\hat{Z}_{u,i}) \tag{4}
  • 클릭 확률에서 노출 확률의 영향을 제거하고 오직 사용자와 아이템 간의 관련성 확률만 사용

  • 기존의 클릭 데이터를 사용하는 메트릭이 노출 편향(MNAR 문제)에 영향을 받는 것과는 대조적으로, 더 공정하고 이상적인 성능 평가를 가능하게 합니다.

장점:

  • 클릭 데이터의 편향 제거: 노출 확률 θu,i\theta_{u,i}의 영향을 배제하고, 사용자와 아이템 간의 실제 관련성만으로 평가합니다.

이상적 손실 함수 (Ideal Loss Function)

True Performance Metric을 최적화하기 위해, 이상적 손실 함수가 정의됩니다 :

Lideal(R^)=1D(u,i)D[γu,iδ(1)(R^u,i)+(1γu,i)δ(0)(R^u,i)](5)L_\text{ideal}(\hat{R}) = \frac{1}{|D|} \sum_{(u, i) \in D} \big[\gamma_{u,i} \delta^{(1)}(\hat{R}_{u,i}) + (1 - \gamma_{u,i}) \delta^{(0)}(\hat{R}_{u,i})\big] \tag{5}
  • δ(1)\delta^{(1)}: 관련성이 있는 경우의 손실(예: 로지스틱 손실)
  • δ(0)\delta^{(0)}: 관련성이 없는 경우의 손실

의미:

  • 관련성 확률 γu,i\gamma_{u,i}를 기반으로 한 최적화로, 사용자 경험을 더 잘 반영하는 모델 설계가 가능
  • 모델이 관련성이 잘 예측하면 δ(1)\delta^{(1)}가 작아지고, 손실이 감소
  • 모델이 비관련성을 잘 예측하면 δ(0)\delta^{(0)}가 작아지고, 손실이 감소
  • 기존의 WMF, ExpoMF와 같은 메트릭이 이상적 손실에 대해 편향되어 있음을 이론적으로 증명

결론

이상적 손실을 최소화하는 예측 행렬 R^\hat{R}은 Top_N 추천 메트릭에서 원하는 값을 도출할 것으로 기대된다.


3. ANALYSIS ON EXISTING BASELINES

이 섹션에서는 기존의 기준선 모델들을 설명하고, 이 모델들에서 사용된 손실 함수에 대해 이론적으로 분석합니다. 특히, 이 손실 함수들이 이상적 손실(ideal loss)에 대해 편향(bias)을 가지고 있음을 증명합니다.

3.1 Weighted Matrix Factorization

WMF 모델의 손실 함수

L^WMF(R^)=1D(u,i)D[cYu,iδu,i(1)+(1Yu,i)δu,i(0)]\hat{L}_{WMF}(\hat{R}) = \frac{1}{|\mathcal{D}|} \sum_{(u,i) \in \mathcal{D}} \left[cY_{u,i}\delta_{u,i}^{(1)} + (1 - Y_{u,i})\delta_{u,i}^{(0)}\right]
  • c>1c > 1: 클릭된 데이터(positive feedback)에 더 높은 가중치를 부여하는 하이퍼파라미터.

WMF 모델의 편향

이상적 손실 함수 Lideal(R^)L_{ideal}(\hat{R})와 WMF 손실 함수의 차이를 편향으로 정의:

E[L^WMF(R^)]Lideal(R^)\mathbb{E}[\hat{L}_{WMF}(\hat{R})] - L_{ideal}(\hat{R})

이를 계산하면 WMF의 편향이 다음과 같이 나타납니다:

E[L^WMF(R^)]Lideal(R^)=1D(u,i)D[(cθu,i1)Yu,iδu,i(1)+Yu,i(1θu,i)δu,i(0)]\mathbb{E}[\hat{L}_{WMF}(\hat{R})] - L_{ideal}(\hat{R}) = \frac{1}{|\mathcal{D}|} \sum_{(u,i) \in \mathcal{D}} \left[ (c\theta_{u,i} - 1)Y_{u,i}\delta_{u,i}^{(1)} + Y_{u,i}(1 - \theta_{u,i})\delta_{u,i}^{(0)} \right]

(증명과정 생략)


편향 분석

WMF가 이상적 손실과 편향을 가지는 이유는 다음과 같습니다.

  1. 노출 확률(θu,i\theta_{u,i})에 의존:

    • 클릭 확률 P(Yu,i=1)=θu,iγu,iP(Y_{u,i} = 1) = \theta_{u,i} \cdot \gamma_{u,i}에서 노출 확률 θu,i\theta_{u,i}의 영향을 제거하지 못해, 인기 있는 아이템이 과대평가됩니다.
  2. 가중치 cc의 영향:

    • cθu,i1c\theta_{u,i} - 1와 같은 항이 포함되어 있어, θu,i1c\theta_{u,i} \neq \frac{1}{c}인 경우 편향이 발생합니다.
  3. MNAR 문제


한계

따라서, 이상적 손실을 정확히 최적화하려면 WMF 모델의 한계를 극복할 수 있는 편향 없는 추정기(Unbiased Estimator)가 필요합니다.


3.2 Exposure Matrix Factorization

모델 구조

1. 잠재 요인(Latent Factors)

  • 사용자 잠재 벡터: UN(0,λU1IK)U \sim \mathcal{N}(0, \lambda_U^{-1} I_K)
  • 아이템 잠재 벡터: VN(0,λV1IK)V \sim \mathcal{N}(0, \lambda_V^{-1} I_K)
  • 사용자 uu와 아이템 ii는 각각 UuU_uViV_i라는 잠재 벡터로 표현됩니다.

2. 확률적 모델링

노출 확률 모델:

  • Ou,iBern(μu,i),μu,i=σ(UuVi)O_{u,i} \sim \text{Bern}(\mu_{u,i}), \quad \mu_{u,i} = \sigma(U_u^\top V_i)
  • 여기서 σ\sigma는 시그모이드 함수입니다.
  • Ou,iO_{u,i}는 사용자 uu가 아이템 ii를 본 여부를 나타내는 베르누이 변수.

클릭 확률 모델:

  • Yu,iOu,i=1N(UuVi,λY1)Y_{u,i} | O_{u,i} = 1 \sim \mathcal{N}(U_u^\top V_i, \lambda_Y^{-1})
  • Yu,iY_{u,i}는 노출된 경우에만 클릭 확률을 계산합니다.

3. The log-likelihood to derive the parameters

logP(O,YU,V)=(u,i)DlogBern(Ou,iμu,i)+Ou,ilogN(Yu,iUuVi,λY1)\log P(O, Y | U, V) = \sum_{(u,i) \in \mathcal{D}} \log \text{Bern}(O_{u,i} | \mu_{u,i}) + O_{u,i} \log \mathcal{N}(Y_{u,i} | U_u^\top V_i, \lambda_Y^{-1})
  • 첫 번째 항: 노출 데이터 Ou,iO_{u,i}를 설명하는 로그 우도
  • 두 번째 항: 클릭 데이터 Yu,iY_{u,i}를 설명하는 로그 우도

ExpoMF 모델의 손실 함수

  • 로그 가능도 함수에서 Ou,iO_{u,i}Yu,iY_{u,i}의 상태에 따라 손실이 계산됩니다.
  • 이를 구체적으로 나타내기 위해 (a)를 정의하여 상황별 가중치를 설정합니다.
a={δ(1)(UuTVi)if yu,i=1,ou,i=1δ(0)(UuTVi)if yu,i=0,ou,i=10if ou,i=0a = \begin{cases} \delta^{(1)}(U_u^T V_i) & \text{if } y_{u,i} = 1, \, o_{u,i} = 1 \\ \delta^{(0)}(U_u^T V_i) & \text{if } y_{u,i} = 0, \, o_{u,i} = 1 \\ 0 & \text{if } o_{u,i} = 0 \end{cases}

따라서, 손실함수는 다음과 같이 정의됩니다.

L^ExpoMF(R^)=1D(u,i)Dθu,i[Yu,iδu,i(1)+(1Yu,i)δu,i(0)]\hat{L}_{ExpoMF}(\hat{R}) = \frac{1}{|\mathcal{D}|} \sum_{(u,i) \in \mathcal{D}} \theta'_{u,i} \left[ Y_{u,i} \delta^{(1)}_{u,i} + (1 - Y_{u,i}) \delta^{(0)}_{u,i} \right]
  • θu,i=E[Ou,iYu,i]\theta'_{u,i} = \mathbb{E}[O_{u,i} | Y_{u,i}]: Posterior Exposure Probability, 즉 클릭 데이터 Yu,iY_{u,i}가 주어졌을 때의 노출 확률.

ExpoMF 모델의 편향

이상적 손실 함수 Lideal(R^)L_{ideal}(\hat{R})와 ExpoMF 손실 함수의 차이를 편향으로 정의:

E[L^ExpoMF(R^)Lideal(R^)]\left|\mathbb{E}\left[\hat{L}_{\text{ExpoMF}}(\hat{R}) - L_{\text{ideal}}(\hat{R})\right]\right|
=1D(u,i)Dγu,i(θu,iθu,i1)δu,i(1)+(θu,i1γu,i(θu,iθu,i1))δu,i(0)= \frac{1}{|\mathcal{D}|} \Bigg| \sum_{(u,i) \in \mathcal{D}} \gamma_{u,i} \big(\theta'_{u,i} \theta_{u,i} - 1\big) \delta^{(1)}_{u,i} + \Big(\theta'_{u,i} - 1 - \gamma_{u,i} \big(\theta'_{u,i} \theta_{u,i} - 1\big)\Big) \delta^{(0)}_{u,i} \Bigg|

편향 분석

ExpoMF가 이상적 손실 함수와 편향을 가지는 주요 원인은 다음과 같습니다:

  1. 노출 확률의 추정치(θu,i\theta'_{u,i}) 오차:

    • θu,i\theta'_{u,i}는 노출 확률을 클릭 데이터 Yu,iY_{u,i}를 기반으로 추정하지만, 모든 사용자-아이템 쌍에 대해 동일한 값이 아니므로 편향이 발생합니다.
  2. 로컬 손실 강조:

    • ExpoMF는 노출 확률이 높은 데이터에 더 큰 가중치를 부여하기 때문에, 노출 확률이 낮은 드문 아이템(Tail Items)의 예측 성능이 저하됩니다.

3. ExpoMF와 이상적 손실 함수의 차이

ExpoMF의 손실 함수는 로그 우도 기반으로 모델을 학습하지만, 이상적 손실 함수는 사용자와 아이템 간의 실제 관련성을 최대화하려는 목표를 가지고 있습니다. 이러한 차이는 다음과 같은 문제를 초래합니다:

  • 노출 확률 기반의 편향: 클릭 데이터가 노출 확률에 의존하기 때문에, 관련성 수준이 아닌 노출 확률이 높은 아이템이 과대평가됩니다.
  • 드문 아이템(Tail Items)에서의 성능 저하: 노출 확률이 낮은 드문 아이템은 충분히 고려되지 않기 때문에 추천 품질이 저하됩니다.

한계

  • 이론적 편향 문제: ExpoMF는 노출 확률을 가중치로 사용하는 접근 방식을 통해 WMF의 한계를 일부 극복했으나, 여전히 이상적 손실 함수와의 편향이 존재합니다.
  • 성능 저하: 특히 노출 확률이 낮은 경우, 관련성이 있는 아이템이 충분히 평가되지 못합니다.

4. Proposed Method

본 섹션에서는 이전 섹션에서 설명한 한계를 극복하기 위해 이상적 손실(Ideal Loss)을 위한 편향 없는 추정기(Unbiased Estimator)를 제안합니다.
제안된 편향 없는 추정기는 인과 추론(Causal Inference)Inverse Propensity Score (IPS)Positive-Unlabeled Learning에서 사용되는 추정기를 확장한 것입니다.

  • IPS 기반 노출 확률 보정
    : 관찰된 노출 데이터를 통해 노출 확률 θu,i\theta_{u,i}를 추정하고, 이를 통해 클릭 데이터의 편향을 제거.

  • Positive-Unlabeled Learning
    : 클릭 데이터의 관련성을 추정하여, 클릭되지 않은 데이터도 학습에 활용.

4.1 Unbiased Estimator

편향 없는 추정기(Unbiased Estimator)의 정의

기존의 WMF와 ExpoMF 모델이 노출 확률에 의존하여 이상적 손실 함수와 편향을 가지는 문제를 해결하기 위해 편향 없는 추정기를 제안합니다.

손실 함수 정의 :

L^Unbiased(R^)=1D(u,i)DYu,iθu,iδ(1)(R^u,i)+(1Yu,iθu,i)δ(0)(R^u,i)\hat{L}_{\text{Unbiased}}(\hat{R}) = \frac{1}{|\mathcal{D}|} \sum_{(u,i) \in \mathcal{D}} \frac{Y_{u,i}}{\theta_{u,i}} \delta^{(1)}(\hat{R}_{u,i}) + \big(1 - \frac{Y_{u,i}}{\theta_{u,i}}\big) \delta^{(0)}(\hat{R}_{u,i})
  • Yu,iY_{u,i}: 클릭 데이터 (1이면 클릭, 0이면 클릭되지 않음).
  • θu,i\theta_{u,i}: 노출 확률 (Exposure Probability).
  • δ(1)\delta^{(1)}δ(0)\delta^{(0)}: 각각 클릭 및 비클릭 데이터에 대한 손실.

편향 제거의 이론적 보장

이상적 손실 함수와의 관계 :

E[L^Unbiased(R^)]=Lideal(R^)\mathbb{E}[\hat{L}_{Unbiased}(\hat{R})] = L_{ideal}(\hat{R})

증명 :

  • E[Yu,i]=P(Yu,i=1)=θu,iγu,i\mathbb{E}[Y_{u,i}] = P(Y_{u,i} = 1) = \theta_{u,i} \cdot \gamma_{u,i}를 이용하여, Yu,iθu,i\frac{Y_{u,i}}{\theta_{u,i}}의 기대값이 γu,i\gamma_{u,i}와 동일함을 확인할 수 있습니다.
  • 따라서, L^Unbiased(R^)\hat{L}_{\text{Unbiased}}(\hat{R})의 기대값은 Lideal(R^)L_\text{ideal}(\hat{R})와 동일하며, 이는 편향이 없음을 보장합니다.

장점

  1. 노출 확률 보정:

    • 클릭 데이터의 노출 확률 θu,i\theta_{u,i}로 보정되므로, 노출 확률에 따른 편향이 제거됩니다.
  2. MNAR 문제 해결:

    • 클릭 데이터가 Missing-Not-At-Random(MNAR)으로 인해 발생하는 문제를 완화합니다.
  3. 이상적 손실 함수와의 일치:

    • 기대값 차원에서 이상적 손실 함수와 동일하므로, 관련성(Relevance) 기반 최적화가 가능합니다.

편향 없는 추정기의 분산 분석

Proposition 4.3

  • 노출 확률 가중치(propensity reweighting)를 사용하여 편향을 줄이는 방식은 MNAR 문제를 해결할 수 있음.
  • 하지만, 높은 분산(variance)을 가질 가능성이 있음.

Theorem 4.4 (Variance of the unbiased estimator)

  • 편향 없는 추정기의 분산은 아래와 같이 정의됨:

    V(L^unbiased(R^))=1D2(u,i)DYu,i(1θu,iYu,i)(δu,i(1)δu,i(0))2\mathbb{V}(\hat{L}_{unbiased}(\hat{R})) = \frac{1}{|\mathcal{D}|^2} \sum_{(u,i) \in \mathcal{D}} Y_{u,i} \left( \frac{1}{\theta_{u,i}} - Y_{u,i} \right) \left( \delta^{(1)}_{u,i} - \delta^{(0)}_{u,i} \right)^2
  • 분산은 노출 확률 θu,i\theta_{u,i}의 역수에 의존.

  • 노출 확률이 낮은 드문 아이템(Tail Items)에서 분산이 크게 증가할 수 있음.

  • 편향 없는 추정기를 설계할 때 분산 감소 기법이 필요함.


4.2 Variance Reduction Technique

문제점 : 높은 분산

  • Unbiased Estimator는 이상적 손실 함수와의 편향은 제거했지만, 노출 확률 θu,i\theta_{u,i}가 매우 작은 경우 분산이 매우 커지는 문제가 발생합니다.
  • 특히 드문 아이템(Tail Items)의 경우 θu,i\theta_{u,i}가 작아 역수 1θu,i\frac{1}{\theta_{u,i}}가 커져 안정적인 학습이 어렵습니다.

해결책 : 클리핑(Clipping) 기법

클리핑 적용:

  • θ~u,i=max(θu,i,M)\tilde{\theta}_{u,i} = \max(\theta_{u,i}, M)를 적용하여, 노출 확률 θu,i\theta_{u,i}가 매우 작을 경우 하한선을 설정합니다.
  • 여기서 MM은 하이퍼파라미터로, θu,i\theta_{u,i}MM보다 작을 경우 θu,i\theta_{u,i}MM으로 대체합니다.

수정된 손실 함수 :

L^Clipped(R^)=1D(u,i)DYu,iθ~u,iδ(1)(R^u,i)+(1Yu,iθ~u,i)δ(0)(R^u,i)\hat{L}_{\text{Clipped}}(\hat{R}) = \frac{1}{|\mathcal{D}|} \sum_{(u,i) \in \mathcal{D}} \frac{Y_{u,i}}{\tilde{\theta}_{u,i}} \delta^{(1)}(\hat{R}_{u,i}) + \big(1 - \frac{Y_{u,i}}{\tilde{\theta}_{u,i}}\big) \delta^{(0)}(\hat{R}_{u,i})
  • θ~u,i\tilde{\theta}_{u,i}: 클리핑된 노출 확률.

장점

  1. 분산 감소 :

    • θ~u,i\tilde{\theta}_{u,i}를 도입하여 1θu,i\frac{1}{\theta_{u,i}}가 과도하게 커지는 문제를 방지하고, 안정적인 학습을 보장합니다.
  2. 효율적인 학습 :

    • 드문 아이템(Tail Items)에서도 안정적인 학습이 가능해지고, 추천 품질이 향상됩니다.

이론적 보장

  • 클리핑을 적용한 추정기는 이상적 손실 함수와의 편향을 여전히 최소화하며, 높은 분산 문제를 완화하는 효과를 보입니다. 또한 안정적인 학습과 추천 품질 개선을 동시에 달성합니다.

5. Semi-Synthetic Experiment

이 섹션에서는 반합성 데이터셋을 사용하여 아래의 연구 질문(RQ)을 조사합니다:

  • RQ1. 노출 편향의 수준이 MF-Naive와 MF-Unbiased 모델의 성능에 어떤 영향을 미치는가?
  • RQ2. 이상적인 손실 함수를 최적화하는 것이 True Performance Metric을 개선하는 데 효과적인가?

5.1 Experimental Setup

1. Dataset

  • Semi-Synthetic Data:

    • MovieLens 100K 데이터셋을 사용하여 반합성 데이터를 생성
  • Generation Process:

    1. R^u,i[1,5]\hat{R}_{u,i} \in [1, 5]로 추정된 관련성 점수 기반으로 γu,i\gamma_{u,i} 생성
    2. θu,i\theta_{u,i}O^u,ip\hat{O}_{u,i}^p로 계산하여 노출 확률 분포를 제어(pp: 노출 편향 조절 파라미터)

2. Baselines

  • MF-Oracle:
    • 실제 관련성 정보를 사용해 학습한 모델. 이상적 성능을 제공
  • MF-Naive:
    • 클릭 데이터만을 기반으로 학습하는 모델
    • Proposition 3.1에 의해 편향을 가짐
  • MF-Unbiased:
    • 편향 없는 손실 함수를 사용하여 학습한 모델
    • Proposition 4.4에 따라 높은 분산 문제를 가질 수 있음

3. Evaluation Metrics

  • Log-Loss:
    • 테스트 셋에서 예측의 적합성을 평가.
  • Discounted Cumulative Gain (DCG@K):
    • 상위 KK개의 순위 추천 정확도를 평가.

5.2 Results & Discussions

그래프 분석


본 이미지는 'Unbiased Recommender Learning from Missing-Not-At-Random Implicit Feedback' 의 내용을 참조하여 사용되었습니다.

(1) Log-Loss 그래프

  • X축: θu,i\theta_{u,i}의 power 값(pp), 즉 노출 편향의 강도를 나타냄.
  • Y축: Relative Log-Loss (MF-Naive, MF-Unbiased 모델이 MF-Oracle 대비 얼마나 더 높은 손실을 보이는지 비교).

Naive (주황색 선)

  • Naive 모델:

    • 노출 확률을 고려하지 않아 높은 편향 문제를 가짐.

    • 노출 편향에 매우 취약하며, 성능 저하가 두드러짐.


Unbiased (녹색 선)

  • Unbiased 모델:

    • p 값 증가 시 로그 손실이 다소 증가하지만, Naive 모델보다 훨씬 안정적.

    • 노출 확률 보정을 통해 편향 문제를 완화하며, Naive 대비 성능이 우수함.


  • 결론:
    • Unbiased 모델은 Naive보다 훨씬 낮은 로그 손실을 기록하며, 특히 높은 노출 편향 환경에서도 보다 안정적인 성능을 보여줍니다.

(2) DCG@K 그래프

  • X축: KK 값 (추천 순위의 상위 KK 항목).
  • Y축: DCG@K (추천 품질 측정 지표).
  • 결과 :
    (1) p=0.5p = 0.5 :

    • MF-Unbiased는 MF-Naive보다 높은 성능을 보이며, MF-Oracle에 매우 근접
    • 낮은 노출 편향에서 이상적 손실 함수 최적화가 효과적임을 보여줌

    (2) p=2.0p = 2.0, p=4.0p = 4.0 :

    • MF-Unbiased는 여전히 MF-Naive의 성능을 능가함
    • 하지만 노출 편향이 증가할수록 MF-Oracle에서 멀어짐
    • 이는 높은 노출 편향 환경에서 분산 문제가 성능에 영향을 미쳤음을 나타냄
  • 결론:
    • MF-Unbiased는 MF-Naive보다 모든 pp 값에서 일관되게 우수한 성능을 보임
    • 높은 pp 환경에서는 성능 향상이 제한적일 수 있지만, 여전히 MF-Naive보다 추천 품질이 높음

6. Real-World Experiment

목표

  • 실제 데이터셋에서 Proposed Unbiased Estimator와 기존 모델들의 성능을 비교.
  • Research Question:
    • RQ3: 제안된 편향 없는 추정기가 기존 모델 대비 얼마나 효과적으로 동작하는가?

요약

  • Proposed 모델 (Rel-MF with clipping)은 DCG, Recall, MAP 모두에서 WMF와 ExpoMF를 능가
  • 제안된 모델은 Positive-Unlabeled 문제와 MNAR 문제를 효과적으로 해결하며, 특히 드문 아이템에서 높은 성능을 기록
  • 클리핑 기법을 통해 분산 문제를 완화하면서도 높은 추천 품질을 유지
  • 실제 데이터에서도 이상적 손실 함수 기반 접근 방식의 유효성을 입증

7. 결론 (Conclusion)

연구 요약

  • 본 연구에서는 추천 시스템에서 발생하는 Missing-Not-At-Random(MNAR) 문제를 해결하기 위해 편향 없는 추정기(Unbiased Estimator)를 제안하였습니다.
  • 이상적 손실 함수(Ideal Loss Function)를 정의하고, 기존 방법(WMF, ExpoMF)이 이상적 손실과의 편향을 가지는 이유를 이론적으로 분석하였습니다.
  • 또한, 클리핑 기법(Clipping)을 도입하여 편향-분산 균형(Bias-Variance Trade-off)을 개선하였습니다.

주요 기여

  1. 이상적 손실 함수 정의 및 편향 분석:

    • 이상적 손실 함수는 노출 확률과 관련성을 분리하여 관련성(Relevance)에 기반한 추천 품질을 최적화하도록 설계.
    • 기존 모델(WMF, ExpoMF)의 손실 함수가 노출 확률에 의해 편향된다는 점을 이론적으로 증명.
  2. 편향 없는 추정기(Unbiased Estimator) 설계:

    • 노출 확률과 관련성을 독립적으로 추정하여, MNAR 문제와 Positive-Unlabeled 문제를 동시에 해결.
    • 클리핑 기법을 도입해 분산 문제를 완화하고 드문 아이템(Tail Items)에서의 성능을 개선.
  3. 실험적 검증:

    • Coat 데이터셋 및 MovieLens 데이터셋에서 실험을 통해 제안된 추정기가 기존 모델보다 뛰어난 성능을 보임.
    • 특히, True Relevance Metric과 NDCG@K에서 높은 성능을 기록하며, 드문 아이템에서도 안정적인 추천 품질을 제공.

한계 및 향후 연구

  1. 한계:

    • 노출 확률 θu,i\theta_{u,i}의 정확한 추정이 모델 성능에 중요한 영향을 미침.
    • 대규모 데이터셋에서 계산 비용이 증가할 가능성이 있음.
  2. 향후 연구 방향:

    • 노출 확률 추정 정확도를 높이기 위한 새로운 방법론 개발.
    • 이상적 손실 함수의 최적화를 위한 더 효율적인 학습 알고리즘 설계.
    • 다양한 추천 환경(예: 시간 기반 데이터, 온라인 학습 등)에 제안된 모델을 적용하여 실용성을 평가.

결론

  • 제안된 편향 없는 추정기는 추천 시스템의 공정성(Fairness)과 정확성(Accuracy)을 동시에 개선할 수 있는 잠재력을 보여줍니다.
  • 이는 기존의 WMF 및 ExpoMF 모델이 가진 한계를 극복하며, 추천 시스템 연구와 실무 적용 모두에 중요한 기여를 합니다.
  • 본 연구는 추천 품질 향상을 위한 새로운 방향을 제시하며, 관련성 기반 추천 시스템 개발의 초석이 될 것입니다.

내가 생각한 향후 연구 방향

  • 분산 문제 해결의 확장 연구 :

    • 본 연구는 클리핑 기법을 통해 분산 문제를 완화했지만, 완전히 해결하지는 못했습니다. 특히, 노출 확률을 어느 수준에서 클리핑 값으로 제한할 것인지, 그리고 이 값을 어떻게 설정할 것인지는 중요한 연구 과제로 남아 있다고 생각합니다.
  • 노출 확률(Exposure Probability) 추정의 개선 :

    • 제안된 모델(Unbiased Estimator)은 노출 확률 θu,i\theta_{u,i}를 정확히 추정하는 것이 중요한데, 이 과정에서 발생하는 오차가 성능 크게 영향을 미친다고 생각합니다.
    • 더욱 정확한 노출 확률 추정 방법론에 대한 연구가 필요하다고 생각합니다.
  • 사용자 행동 데이터를 활용한 모델 개선 :

    • 클릭 데이터 외에도 체류 시간, 구매 이력 등 다양한 사용자 행동 데이터를 활용한 모델 확장이 가능할 것 같습니다.
    • 이러한 데이터를 고려하면 추천 품질을 더욱 높일 수 있을 것으로 예상됩니다.

논문을 읽으며 든 생각들

  • 편향이 없는 추정기를 정의할 뿐만 아니라, 높은 분산 문제를 클리핑 기법으로 완화시킨 점이 매우 흥미로웠습니다.

  • 이와 관련하여 분산-편향 트레이드 오프에서 보통은 분산과 편향이 모두 작은 최적의 위치를 찾는 것이 목표인데, 추천 시스템에서는 왜 편향이 없는 것이 더 중요한지에 대해 추가로 공부해보고 싶다는 생각이 들었습니다.

  • MNAR 문제WMFExpoMF에 대한 내용 또한 이번 논문을 통해 처음 알게 되었으며, 주요 내용 외에도 논문을 읽기 위해 필요한 많은 내용들(예: 인과추론, EM 알고리즘, 다양한 평가지표 등)을 이해하는데 시간이 많이 걸렸습니다. 관련 논문을 많이 읽다보면 이해하는 속도가 빨라질 것이라 생각합니다.

  • 이론적으로 정의된 내용을 실제 데이터에 적용해보는 프로젝트도 좋은 학습이 될 것이라고 생각합니다.

  • 혹시 설명이 잘못되었거나 잘못 이해한 부분이 있다면 피드백을 주면 감사하겠습니다.

논문 출처 : https://arxiv.org/abs/1909.03601

0개의 댓글