parameterizing
knowledge intensive task
MIPS: maximum inner product search
query와 정보의 내적
PLM: 지식 학습은 잘하지만, 수정/확장은 아직 잘못함
기존: parametric memory(=PLM)과 non-parametric memory(=retrieval-based)로 나누어 대처
RAG는 크게 2가지 모델로 나누어짐
1. Retriever
question x와 유사한 document z를 retrieve p(z|x)
2. Seq2Seq Generator
Retriever가 반환한 x와 z를 encoder에 넣고 decoder가 answer y를 generate 하도록 훈련 p(y_i|x,z,y_1:i-1)
k개의 document를 어떤 식으로 concat할 건지?
1. RAG-Sequence Model
각 document와 x를 concat해 총 k개의 forwarding 진행한 후 가중평균(marginalize)
2. RAG-Token Model
매 time step마다 k개의 document가 각각 x와 concat해서 next token 예측한 후 가중평균(marginalize)