
1. 컨퍼런스 스터디 진행
➡️ [팀네이버 컨퍼런스 DAN 23] - CUE : 생성형 AI 기반 차세대 검색 서비스
2. Hallucination에 대하여
3. Evidence Selector에 대하여

이번 컨퍼런스 스터디는 팀네이버 컨퍼런스 DAN23 중, 'CUE : 생성형 AI 기반 차세대 검색 서비스' 이다. 지난번에는 '초개인화 경험으로 연결된 생성형 AI 기반 광고' 라는 세션을 들었는데, 그때 CUE를 활용한 시연을 보며 CUE에 대해 궁금증이 커졌다. 그래서 이번 스터디에서는 CUE에 대해서 알아보고자 한다.
이번 세션에서는 검색에 특화된 생성형 AI 서비스인 CUE:에 대해 소개한다. CUE:를 통해 제공되는 새로운 검색 경험에 대해 이야기하고, 핵심 기술인 Multi-step-reasoning과 신뢰성 있는 답변 생성을 위해 개발된 기술들을 소개한다.신뢰성 있는 답변이 참 중요한 문제라고 생각하는데, 신뢰성을 위해 어떤 기술들이 사용되었는지 너무 궁금해졌다.
이번 세션은 네이버에서 생성형 AI 기술 기반 검색 서비스인 CUE:를 총괄해서 개발하시는 김용범 Search US AI 기술 총괄님과 2021년부터 AI 검색 AiRSearch 리더로서 스마트 블록 등 새로운 네이버 검색을 위한 개발 업무를 총괄하고 계시는 최재호 책임 리더님께서 맡아주셨다.

Reasoning(추론) ➡️ Searching(검색) ➡️ Cheaking Factual Consistency(사실적 일관성의 확인) ➡️ Generating(답변 생성)
여기서 가장 중요한 과정은 바로 '검색'이다. 이것은 CUE:가 기존의 LLM과 달리, 학습 데이터에 의존한 것이 아니라 검색 결과에 그라운딩되어 답변을 생성하는 것을 의미한다. 그래서 네이버에서는 CUE:를 검색 목적 달성을 돕는 advisor라고 정의한다.

사실 이번 네이버 컨퍼런스 DAN 23은 생성형AI 관련 세션이 많다. 디자인을 다루는 컨퍼런스는 아니다. 그렇지만 디자이너가 되고 싶다고 디자인 컨퍼런스만 들어야 하는 것도 아니라고 생각한다. 왜냐하면 위의 이미지에서 보다시피 장표 내의 디자인적인 요소들을 보며 많이 배울 수 있기 때문이다. 위의 장표도 보면 각각 다른 느낌으로 표현해서 시각적으로 아름답게 보여진다. 그리고 색상의 조합도 좋다고 생각한다. 그냥 검정색 배경이나 원에 키워드를 넣어서 표현하는걸 많이 봐왔는데 배경에 저런 효과를 주니 색달라보였다.


생성AI 모델은 어떤 질문이라도 답변을 생성하기 때문에 Hallucination(환각)이 발생할 수 있다. 하지만 CUE에서는 크게 3가지 기술을 이용해 Hallucination(환각)을 최소화하고 신뢰성 있는 답변을 생성한다.
Reasoning을 통해 질문의 의도를 깊이 있게 이해한다. 팀네이버는 모든 질문에 대한 대답은 네이버 검색 속에 있다고 믿고 있다. 때문에 올바른 답변을 하기 위해서는 정답이 포함된 검색 결과를 가져오는 것이 가장 중요하다.
하지만 검색된 결과에는 정답 뿐만 아니라 답변에 필요한 정보도 많이 포함되어 있다. 따라서 CUE:는 selector를 이용해서 답변에 필요한 꼭 필요한 출처만을 사용한다.
Factually Consistent Generation 과정을 통해 다시 한번 Hallucination(환각)을 최소화한다.
나는 여기서 Hallucination(환각)에 대해 자세히 알고싶어졌다. 그래서 추가로 한번 서칭을 해보았다.

생성AI 모델에서 말하는 "hallucination"은 AI가 실제로 존재하지 않거나 정확하지 않은 정보를 생성하는 현상을 의미한다. 이는 마치 사람이 환각을 경험하는 것처럼, AI도 잘못된 정보를 "환각"하여 답변에 포함시키는 것과 유사하다.
예를 들자면, Chat GPT(Copiliot)에게 '농담곰 사건에 대해서 설명해줘' 라고 질문을 한다면 AI는 이러한 데이터로 학습을 한 적이 없기 때문에 (애초에 존재하지 않았던 사건) 환각하여 잘못된 정보를 알려주는 것이다.


(농담곰 둥절)
1. 정보 환각 (Factual Hallucination):
2. 논리적 환각 (Logical Hallucination):
3. 망상 환각 (Semantic Hallucination):
1. 훈련 데이터의 한계:
2. 모델의 일반화 능력:
3. 정보의 부족:
4. 언어 모델의 본질:

먼저 사용자 질문이 입력되면 (Q. 기후 변화에 대해 알려줘) Reasoning(추론)을 한다. 신뢰성있는 답변을 생성하는데 있어 가장 중요한 단계이다. 해당 질문에 대해서는 기후변화의 원인과 문제점을 추론하고 관련 최신 정보 검색을 위해 Search Planning을 수행한다.

위의 세 가지 질의들을 활용해 반복적인 검색을 수행함에 따라 답변 생성에 충분한 문서들을 먼저 확보할 수 있다. 여기에 확보된 문서들은 뉴스, 지식베이스, 지식백과 등등 정말 다양하다.

Evidence Selector는 수집된 문서들 중 정답이 포함된 문서들을 선택한다. ➡️ 나는 이 부분에서 '그런데 여기서 '정답이 포함된 문서'라는 것을 어떻게 인식하는거지?' 라는 궁금증이 생겼다.
뭔가 A라는 질의에서 핵심 키워드와 내용을 보고 판별하는건가? 무슨 근거로 정답이라고 판별할 수 있나? 나무위키는 사실 개인이 정보를 수정할 수 있기에 정답이 포함된 문서라고 해도 되는걸까? 라는 의문이 들었다. 그래서 찾아보았다.

생성형 AI에서 "Evidence Selector"는 모델이 더 정확하고 신뢰할 수 있는 답변을 생성할 수 있도록 관련 정보를 선택하고 필터링하는 역할을 한다.
1. 질문 분석:
2. 관련 정보 검색:
3. 정보 필터링 및 선택:
4. 정보 통합:
5. 검증 및 최종 답변 생성:
1. 정확성 향상:
2. 신뢰성 증가:
3. 응답 품질 개선:
Evidence Selector는 다양한 기술과 알고리즘을 통해 구현될 수 있다.
1. 정보 검색 기술:
2. 기계 학습 알고리즘:
3. 정보 통합 및 요약:

1. User Query (사용자 질의):
2. Document Repository (문서 저장소):
3. Evidence Selector (증거 선택기):
4. Relevant Documents (관련 문서):
5. Filtered Evidence (필터링된 증거):
6. Final Answer (최종 답변):
Evidence Selector가 없는 경우, AI는 부정확하거나 신뢰할 수 없는 정보를 바탕으로 잘못된 답변을 생성할 수 있다.
이미지는 빨간색 화살표로 표시된 환각이 발생하는 경로를 보여준다.