y= target sequence, z = retrieve text documents, x = input sequence



아래 generator는 어느 encoder-decoder 모델도 사용될 수 있음. 여기선 BART 사용

간단히 x와 z를 concat해서 generator BART에 넣어준다.
어떤 문서를 retrieved 해야하는지에 대한 직접적인 supervision 없이 Retriever와 Generator를 공동으로 train한다. input x와 y가 주어지면 아래의 objective를 최소화 하도록 학습한다.

를 학습하는 것은 document가 너무 많기 때문에 비용이 많이든다..
따라서 는 freeze 하고, 와 만 학습한다.
이때 주어진 input X에 대해 검색된 상위 K개의 문서 (z_1, z_2, ..., z_K)만을 고려하여 이 document 들을 바탕으로 답변을 생성하고, 이때의 예측된 답변과 실제 답변(Y) 사이의 Cross Entropy를 계산하여 모델을 학습한다.