기존 검색 방법인 Sparse embedding을 사용한 검색 방법인 TF- IDF 또는 BM25 처럼 Lexical한 방법이 아닌 Dense embedding을 사용한 Semantic한 방법 성능이 좋다.Dense embedding은 적은 수의 question and
BM는 검색을 위한 ranking function이다. 이는 TF-IDF 와 마찬가지로 lexical한 의미를 기반으로 점수를 매기는 방법이다.가장 대표적인 식은 다음과 같이 계산된다.$$score(D,Q) = \\sum^n\_{i=1}IDF(q_i)\\cdot \\f
아래 링크는 위 논문을 리뷰하며 공부하고 있는 내용입니다.https://acoustic-basin-638.notion.site/Learning-Dense-Representations-of-Phrases-at-Scale-e73e5b2ff6404f45ac270ad
아래 링크는 현재 공부하고 있는 논문 공부 링크입니다.https://acoustic-basin-638.notion.site/Densephrases-Too-740193fc663e450f90688988e46ee8ed?pvs=4
\*\*Densephrases에서의 Constrative Learning\*\*Constrative Learning은 대조 학습으로 데이터의 벡터 공간에서 positive data는 가깝게, negative data는 멀리 위치시키는 것입니다.Densephrases의