[20240530] Hallucination, Evidence Selector에 대하여

김바덕·2024년 5월 30일

UXUI

목록 보기
28/41
post-thumbnail

💻 20240530 진행내용

1. 컨퍼런스 스터디 진행 
➡️ [팀네이버 컨퍼런스 DAN 23] - CUE : 생성형 AI 기반 차세대 검색 서비스
2. Hallucination에 대하여 
3. Evidence Selector에 대하여 

팀네이버 컨퍼런스 DAN23 - CUE : 생성형 AI 기반 차세대 검색 서비스

이번 컨퍼런스 스터디는 팀네이버 컨퍼런스 DAN23 중, 'CUE : 생성형 AI 기반 차세대 검색 서비스' 이다. 지난번에는 '초개인화 경험으로 연결된 생성형 AI 기반 광고' 라는 세션을 들었는데, 그때 CUE를 활용한 시연을 보며 CUE에 대해 궁금증이 커졌다. 그래서 이번 스터디에서는 CUE에 대해서 알아보고자 한다.

이번 세션에서는 검색에 특화된 생성형 AI 서비스인 CUE:에 대해 소개한다. CUE:를 통해 제공되는 새로운 검색 경험에 대해 이야기하고, 핵심 기술인 Multi-step-reasoning과 신뢰성 있는 답변 생성을 위해 개발된 기술들을 소개한다.신뢰성 있는 답변이 참 중요한 문제라고 생각하는데, 신뢰성을 위해 어떤 기술들이 사용되었는지 너무 궁금해졌다.

이번 세션은 네이버에서 생성형 AI 기술 기반 검색 서비스인 CUE:를 총괄해서 개발하시는 김용범 Search US AI 기술 총괄님과 2021년부터 AI 검색 AiRSearch 리더로서 스마트 블록 등 새로운 네이버 검색을 위한 개발 업무를 총괄하고 계시는 최재호 책임 리더님께서 맡아주셨다.


CUE가 답변을 생성하는 핵심 과정

Reasoning(추론) ➡️ Searching(검색) ➡️ Cheaking Factual Consistency(사실적 일관성의 확인) ➡️ Generating(답변 생성)

여기서 가장 중요한 과정은 바로 '검색'이다. 이것은 CUE:가 기존의 LLM과 달리, 학습 데이터에 의존한 것이 아니라 검색 결과에 그라운딩되어 답변을 생성하는 것을 의미한다. 그래서 네이버에서는 CUE:를 검색 목적 달성을 돕는 advisor라고 정의한다.


사실 이번 네이버 컨퍼런스 DAN 23은 생성형AI 관련 세션이 많다. 디자인을 다루는 컨퍼런스는 아니다. 그렇지만 디자이너가 되고 싶다고 디자인 컨퍼런스만 들어야 하는 것도 아니라고 생각한다. 왜냐하면 위의 이미지에서 보다시피 장표 내의 디자인적인 요소들을 보며 많이 배울 수 있기 때문이다. 위의 장표도 보면 각각 다른 느낌으로 표현해서 시각적으로 아름답게 보여진다. 그리고 색상의 조합도 좋다고 생각한다. 그냥 검정색 배경이나 원에 키워드를 넣어서 표현하는걸 많이 봐왔는데 배경에 저런 효과를 주니 색달라보였다.

CUE의 장점 중 하나, Trustworthy

생성AI 모델은 어떤 질문이라도 답변을 생성하기 때문에 Hallucination(환각)이 발생할 수 있다. 하지만 CUE에서는 크게 3가지 기술을 이용해 Hallucination(환각)을 최소화하고 신뢰성 있는 답변을 생성한다.

1) Reasoning : 정답이 포함된 검색 결과를 가져오기

Reasoning을 통해 질문의 의도를 깊이 있게 이해한다. 팀네이버는 모든 질문에 대한 대답은 네이버 검색 속에 있다고 믿고 있다. 때문에 올바른 답변을 하기 위해서는 정답이 포함된 검색 결과를 가져오는 것이 가장 중요하다.

2) Evidence Selector : 답변에 필요한 출처만 사용

하지만 검색된 결과에는 정답 뿐만 아니라 답변에 필요한 정보도 많이 포함되어 있다. 따라서 CUE:는 selector를 이용해서 답변에 필요한 꼭 필요한 출처만을 사용한다.

3) Factually Consistent Generation

Factually Consistent Generation 과정을 통해 다시 한번 Hallucination(환각)을 최소화한다.

나는 여기서 Hallucination(환각)에 대해 자세히 알고싶어졌다. 그래서 추가로 한번 서칭을 해보았다.


Hallucination 이란 ?

생성AI 모델에서 말하는 "hallucination"은 AI가 실제로 존재하지 않거나 정확하지 않은 정보를 생성하는 현상을 의미한다. 이는 마치 사람이 환각을 경험하는 것처럼, AI도 잘못된 정보를 "환각"하여 답변에 포함시키는 것과 유사하다.

예를 들자면, Chat GPT(Copiliot)에게 '농담곰 사건에 대해서 설명해줘' 라고 질문을 한다면 AI는 이러한 데이터로 학습을 한 적이 없기 때문에 (애초에 존재하지 않았던 사건) 환각하여 잘못된 정보를 알려주는 것이다.


(농담곰 둥절)


Hallucination의 종류

1. 정보 환각 (Factual Hallucination):

  • AI가 질문에 대한 답변으로 잘못된 사실이나 허구의 정보를 제공하는 경우. 예를 들어, 실제로 존재하지 않는 사건이나 인물에 대해 이야기할 때 발생할 수 있다.

2. 논리적 환각 (Logical Hallucination):

  • AI가 문법적으로는 맞지만 논리적으로는 맞지 않는 정보를 생성하는 경우. 예를 들어, "서울은 일본의 수도입니다"와 같은 문장을 생성하는 것

3. 망상 환각 (Semantic Hallucination):

  • AI가 주제와 관련 없는 정보를 생성하거나 문맥에 맞지 않는 답변을 제공하는 경우. 예를 들어, 역사적인 사건에 대한 질문에 대해 날씨 정보를 제공하는 경우

Hallucination이 발생하는 이유

1. 훈련 데이터의 한계:

  • AI 모델은 방대한 데이터셋을 기반으로 학습하지만, 이 데이터셋에 잘못된 정보나 편향된 정보가 포함되어 있을 수 있다.

2. 모델의 일반화 능력:

  • AI 모델은 특정 패턴을 일반화하여 새로운 질문에 답변을 생성한다. 이 과정에서 일반화가 잘못되면 실제로 존재하지 않는 정보를 생성할 수 있다.

3. 정보의 부족:

  • 질문에 대해 충분한 정보가 훈련 데이터에 없을 때, AI는 제한된 정보를 바탕으로 답변을 추론하게 된다. 이 과정에서 오류가 발생할 수 있다.

4. 언어 모델의 본질:

  • 언어 모델은 문맥에 맞는 문장을 생성하는 데 초점을 맞추기 때문에, 문법적으로 맞는 문장을 생성하지만 내용적으로는 맞지 않는 답변을 할 수 있다.

CUE: 에게 기후변화와 관련된 질문을 해보았다.

1) Reasoning

먼저 사용자 질문이 입력되면 (Q. 기후 변화에 대해 알려줘) Reasoning(추론)을 한다. 신뢰성있는 답변을 생성하는데 있어 가장 중요한 단계이다. 해당 질문에 대해서는 기후변화의 원인과 문제점을 추론하고 관련 최신 정보 검색을 위해 Search Planning을 수행한다.

2) Searching

위의 세 가지 질의들을 활용해 반복적인 검색을 수행함에 따라 답변 생성에 충분한 문서들을 먼저 확보할 수 있다. 여기에 확보된 문서들은 뉴스, 지식베이스, 지식백과 등등 정말 다양하다.

3) Evidence Selector

Evidence Selector는 수집된 문서들 중 정답이 포함된 문서들을 선택한다. ➡️ 나는 이 부분에서 '그런데 여기서 '정답이 포함된 문서'라는 것을 어떻게 인식하는거지?' 라는 궁금증이 생겼다.

뭔가 A라는 질의에서 핵심 키워드와 내용을 보고 판별하는건가? 무슨 근거로 정답이라고 판별할 수 있나? 나무위키는 사실 개인이 정보를 수정할 수 있기에 정답이 포함된 문서라고 해도 되는걸까? 라는 의문이 들었다. 그래서 찾아보았다.


Evidence Selector

생성형 AI에서 "Evidence Selector"는 모델이 더 정확하고 신뢰할 수 있는 답변을 생성할 수 있도록 관련 정보를 선택하고 필터링하는 역할을 한다.

Evidence Selector의 역할과 과정

1. 질문 분석:

  • 사용자가 제시한 질문을 분석하여, 질문의 주제와 의도를 파악한다.

2. 관련 정보 검색:

  • 질문과 관련된 정보나 데이터를 검색한다. 이 정보는 외부 데이터베이스, 문서, 웹 페이지 등에서 가져올 수 있다.
    예를 들어, 특정 역사적 사건에 대한 질문이 있다면, 관련된 문서를 찾고 이를 분석한다.

3. 정보 필터링 및 선택:

  • 검색된 정보 중에서 가장 관련성이 높고 신뢰할 수 있는 증거를 선택한다. 이 단계에서는 정보의 출처, 정확성, 최신성 등을 고려하여 필터링한다.

4. 정보 통합:

  • 선택된 증거를 바탕으로 종합적인 답변을 생성한다. 이 과정에서는 중복된 정보를 제거하고, 중요한 내용을 요약하여 답변에 포함시킨다.

5. 검증 및 최종 답변 생성:

  • 선택된 증거와 통합된 정보를 바탕으로 최종 답변을 생성한다. 필요에 따라 추가적인 검증 과정을 거쳐 답변의 정확성을 높인다.

Evidence Selector의 중요성

1. 정확성 향상:

  • 관련성과 신뢰성을 가진 정보를 선택하여 답변의 정확성을 높인다. 이는 잘못된 정보나 환각(hallucination)을 줄이는 데 도움이 된다.

2. 신뢰성 증가:

  • 신뢰할 수 있는 출처에서 정보를 가져오기 때문에, 사용자에게 제공되는 답변의 신뢰성이 증가한다.

3. 응답 품질 개선:

  • 관련성이 높고 중요한 정보를 바탕으로 답변을 구성하므로, 사용자는 더 만족스러운 답변을 얻을 수 있다.

Evidence Selector의 기술적 구현

Evidence Selector는 다양한 기술과 알고리즘을 통해 구현될 수 있다.

1. 정보 검색 기술:

  • 자연어 처리(NLP)를 사용하여 질문을 이해하고 관련 문서를 검색한다.
  • 키워드 기반 검색, 시맨틱 검색 등이 사용될 수 있다.

2. 기계 학습 알고리즘:

  • 정보의 관련성과 신뢰성을 평가하기 위해 기계 학습 알고리즘이 사용될 수 있다.
  • 예를 들어, 랭킹 알고리즘을 통해 가장 관련성이 높은 문서를 선택하는 것

3. 정보 통합 및 요약:

  • 여러 출처에서 가져온 정보를 통합하고 요약하는 기술이 필요하다.
  • 이 과정에서는 텍스트 요약 알고리즘이 사용될 수 있다.

Evidence Selector가 생성형 AI에서 환각(hallucination)을 줄이는 방법

1. User Query (사용자 질의):

  • 사용자가 질문을 입력

2. Document Repository (문서 저장소):

  • AI가 질문에 대한 답변을 찾기 위해 관련 문서를 탐색

3. Evidence Selector (증거 선택기):

  • 관련 문서들 중에서 신뢰할 수 있는 정보를 선택

4. Relevant Documents (관련 문서):

  • 선택된 문서들. 이 문서들은 질문에 대한 답변을 형성하는 데 사용됨

5. Filtered Evidence (필터링된 증거):

  • 중요한 정보를 필터링

6. Final Answer (최종 답변):

  • 필터링된 정보를 바탕으로 최종 답변을 생성

Hallucination의 관계

Hallucination (환각):

  • Evidence Selector가 없는 경우, AI는 부정확하거나 신뢰할 수 없는 정보를 바탕으로 잘못된 답변을 생성할 수 있다.

  • 이미지는 빨간색 화살표로 표시된 환각이 발생하는 경로를 보여준다.

profile
UXUI Designer

0개의 댓글