논문에서 소개한 EASE의 특징
Input : user가 상호작용한 item
output(모델의 목표) : user에게 추천할 가장 좋은 item을 예측하는 것.
함수가 analytic하다?
→ analytic한 해를 가진다는 것은 해 x를 x = ab + c와 같이 수식으로 표현할 수 있다는 의미
analytic한 해를 가진다는 것 → closed-form solution을 가진다는 것을 의미
즉, closed-form solution은 문제에 대한 해답을 식으로 명확하게 제시할 수 있다는 것을 의미
implicit feedback를 사용하는 많은 추천 논문과 마찬가지로, 입력 데이터 matrix인 는 User 와 item 이며, 를 만족한다.
X의 값은 (일반적으로 1) 사용자가 item과 상호작용했음을 나타내며, 값 0은 상호작용이 없을 의미한다.
데이터 설명
user 가 아이템 에 관심이 있을 확률을 구해하는 것이 목표.
→ 입력 데이터 에 학습 파라미터 를 곱한 값을 모델이 예측한 ranking 점수로 활용.
weight B를 학습하기 위해 convex objective를 사용
일반적인 딥러닝 모델이라면 를 파라미터로 지정해서 모델에 입력 데이터 가 들어왔을 때 목적함수이자 손실함수인 식의 계산 결과를 반환해고 역전파 알고리즘을 통해 loss를 최소화하는 gradient를 찾을 것이고, Optimizer를 통해 gradient 방향으로 파라미터 를 업데이트 해주면 된다. (단, 의 대각성분이 0이어야 한다는 조건을 만족해야하므로 목적함수 뒤에 대각성분이 0이 되지 않도록 반영된 항을 추가해줘야한다.)
EASE의 학습은 user-item 행렬 X가 아니라 대신 가 입력으로 들어가므로 의 크기 가 의 user-item 수보다 작으면 효율적.
item수가 user수보다 많다면 효율적이지 않을 수 있다.
수많은 논문에서 neighborhood-based 접근이 사용되지만, 논문에서 본 저자는 EASE의 closed-form solution에서 기존 neighborhood-base 접근이 잘못되었다고 주장한다.
또한, 다른 (높은 성능을 보이는)모델들과 비교하여 우수한 성능을 보이고 있는 EASE가 원칙적인 neighborhood approach라고 볼 수 있다고 말하고 있습니다.
[참고][https://velog.io/@whattsup_kim/Embarrassingly-Shallow-Autoencoders-for-Sparse-Data2019-논문-리뷰](https://velog.io/@whattsup_kim/Embarrassingly-Shallow-Autoencoders-for-Sparse-Data2019-%EB%85%BC%EB%AC%B8-%EB%A6%AC%EB%B7%B0)
는 item-to-item matrix이고, 와 같은 꼴을 Gram-matrix라고 한다.
→ 즉, 각 사용자에 대해 사용할 수 있는 소량의 데이터(즉, 데이터 희소성)만 있을 수 있다는 문제는 데이터 matrix 의 사용자 수가 충분히 큰 경우 를 추정하는 불확실성에 영향을 미치지 않는다.
⇒ EASE가 sparse한 데이터에 robust한 모델