[GPT-4를 활용한 인공지능 앱 개발] GPT-4와 챗GPT의 핵심 요소 ①

아현·2025년 1월 27일
1

AI

목록 보기
12/18

출처: GPT-4를 활용한 인공지능 앱 개발 | 올리비에 케일린

1. LLM 소개


언어 모델과 NLP 기초


  • GPT-4는 머신러닝(Machine Learning, ML)과 AI의 하위 분야인 NLP 분야에서 도출된 최신 유형의 모델인 LLM입니다.

  • AI에 대한 정의는 다양하지만 어느 정도 합의된 정의 중 하나는 '사람의 지능이 필요한 작업을 수행하는 컴퓨터 시스템'입니다.

    • 이 정의에 따르면 많은 알고리즘이 AI의 범주에 속합니다.

    • 예를 들어, GPS 애플리케이션에서 교통량을 예측하는 작업이나 전략 비디오 게임에서 사용하는 규칙 기반 시스템을 생각해보면 이러한 작업을 수행하려면 기계에 사람과 같은 지능이 필요합니다.

      지능(智能) 또는 인텔리전스(Intelligence)는 인간의 지적 능력을 말한다. 지능은 심리학적으로 새로운 대상이나 상황에 부딪혀 그 의미를 이해하고 합리적인 적응 방법을 알아내는 지적 활동의 능력으로 정의할 수 있다.

  • ML은 AI의 한 분야입니다. ML에서는 AI 시스템이 스스로 학습해 모델을 만들어냅니다.

    • ML의 한 분야인 딥러닝(Deep Learning, DL)두뇌 구조에서 영감을 받은 알고리즘에 초점을 맞춥니다.

      • 이러한 알고리즘을 인공 신경망(Artificial Neural Network)이라고 합니다.
    • 대량의 데이터를 처리할 수 있으며 이미지 및 음성인식, NLP와 같은 작업에서 매우 우수한 성능을 보입니다.

  • 챗GPT와 그 기반이 되는 GPT 모델은 트랜스포머(Transformer) 딥러닝 알고리즘을 활용합니다.

    • 트랜스포머는 독서하는 기계처럼 글을 읽고 학습하며, 문장과 그 주변에 주의(attention)를 기울여 문맥을 이해한 다음 일관성 있는 답변을 작성합니다. 또한 문장 내 단어의 순서와 문맥을 이해합니다.

    • 이 모델은 언어 번역, 질의응답, 텍스트 생성 드의 작업에 매우 효과적입니다.

  • 자연어 처리(Natural Language Processing, NLP)컴퓨터가 사람의 자연어를 처리, 해석, 생성하도록 하는 데 초점을 맞춘 AI의 세부 분야입니다.

    • NLP는 다양한 ML 알고리즘을 활용하여 다음 작업을 포함합니다.

      1. 텍스트 분류

      2. 자동 번역

      3. 질의 응답

      4. 텍스트 생성

  • LLM텍스트 생성 작업 등을 할 수 있는 ML 모델입니다.

    • LLM은 컴퓨터가 사람의 언어를 처리, 해석, 생성하도록 지원해 사람과 기계 간의 커뮤니케이션이 더 효과적으로 이뤄지도록 합니다. 이를 위해 방대한 텍스트 데이터를 분석하거나 학습해 문장 내 단어 간의 패턴과 관계를 학습합니다.

    • 데이터로는 다양한 데이터 소스를 사용할 수 있으며, 입력 텍스트가 주어지면 LLM은 학습 프로세스를 통해 다음 단어가 될 가능성이 가장 큰 단어를 예측해 입력 텍스트에 관한 의미 있는 응답을 생성합니다.

      • GPT 모델은 텍스트 생성 작업에 탁월한 최신 LLM입니다.
  • LLM 개발은 몇해 전으로 거슬러 올라갑니다. 문장에서 이전 단어를 기반으로 다음 단어를 예측하는 엔그램(n-gram)과 같은 가장 간단한 언어 모델에서 시작됐습니다.

    • 엔그램 모델은 빈도를 활용합니다.

    • 학습을 통해 이전 단어 다음에 가장 빈번하게 사용되는 다음 단어를 예측합니다.

      • 하지만, 일관성 없는 텍스트를 생성하는 현상이 있어 문맥과 문법을 이해하는 데 개선이 필요했습니다.
    • 엔그램 모델의 성능을 개선하기 위해 순환 신경망(Recurrent Neural Network, RNN)장단기 기억(Long Short-Term Memory,LSTM) 신경망 등 개선된 알고리즘이 등장했습니다.

      • 이러한 모델들은 긴 시퀀스를 학습할 수 있고 컨텍스트를 엔그램보다 더 잘 분석했지만 대량의 데이터를 효율적으로 처리하는 능력은 여전히 개선이 필요했습니다.



트랜스포머 아키텍처와 LLM에서의 역할


  • 트랜스포머 아키텍처는 NLP에 혁명을 일으켰습니다.

    • RNN과 같은 이전 NLP 모델은 긴 텍스트 시퀀스를 처리하면서 컨텍스트를 유지하는 데 한계가 있습니다.

    • 즉 RNN은 긴 시퀀스에서 컨텍스트를 잊어버리는 경향이 있었지만(파괴적 망각, Catastrophic Forgetting) 트랜스포머는 컨텍스트를 효과적으로 처리하고 인코딩하는 기능을 갖췄습니다.

  • 이를 실현한 것은 어텐션 매커니즘(Attention Mechanism)입니다.

    • 이 모델은 시퀀스에 포함된 모든 단어를 똑같이 중요하게 취급하지 않고, 작업의 각 단계에서 가장 관련성이 큰 부분에 '주의(attention)'를 기울입니다.

    • LLM에도 활용되는 교차 어텐션과 셀프 어텐션 메커니즘 기반의 아키텍처입니다.

    • 트랜스포머 아키텍처는 교차 어텐션과 셀프어텐션 블록을 광범위하게 활용합니다.

  • 교차 어텐션(Cross-Attention)입력 텍스트 내 여러 부분 간의 관련성을 판단해 모델이 출력 텍스트의 다음 단어를 정확히 예측하게 합니다.

    • 마치 스포트라이트처럼 텍스트 중에서 덜 중요한 세부 사항은 무시하고 다음 단어를 예측하는 데 필요한 관련 정보에 집중합니다.
  • 셀프 어텐션(Self-Attention)은 모델이 입력 텍스트 내 여러 부분에 집중하도록 합니다.

    • 이 접근 방식은 문장 내 각 단어의 중요도를 다른 단어와 함께 평가할 수 잇습니다.

    • 이를 통해 단어 간의 관계를 더 잘이해하고 모델이 입력 텍스트에 포함된 여러 단어를 통해 새로운 개념을 구축하도록 합니다.

  • 트랜스포머는 순환 아키텍처와 달리 쉽게 병렬화할 수 있다는 장점이 있습니다.

    • 즉, 트랜스포머 아키텍처는 입력 텍스트 내 여러 부분을 순차적으로 처리하지 않고 동시에 처리할 수 있습니다.

      • 순차적 처리가 필요한 순환 아키텍처와 달리 모델의 여러 부분이 이전 단계가 완료될 때까지 기다리지 않고 병렬로 작업하면서 더 빠르게 계산하고 학습합니다.
    • 트랜스포머 모델의 병렬 처리 기능은 여러 계산을 동시에 처리하도록 설계된 그래픽 처리 장치(GPU)의 아키텍처와 완벽하게 맞습니다.

    • GPU는 병렬 처리 구조와 뛰어난 연산 능력을 갖춘 덕분에 트랜스포머 모델을 훈련하고 실행하는 데 이상적입니다.

      • 이러한 발전 덕분에 데이터 과학자들이 이전보다 훨씬 더 큰 데이터셋으로 모델을 훈련할 수 있게 됐으며 LLM을 개발할 수 있는 기반이 마련됐습니다.

2017년, 구글의 바스와니(Vaswani) 등이 「Attention Is All You Need」 라는 논문에서 소개한 트랜스포머 아키텍처는 원래 기계 번역과 같은 시퀀스 간 작업용으로 개발됐습니다.

  • 표준 트랜스포머는 인코더와 디코더라는 두 가지 주요 구성 요소로 구성되며 두 요소 모두 어텐션 매커니즘에 의존합니다.
    • 인코더의 임무는 입력 텍스트를 처리하고, 중요한 특징을 식별하고, 해당 텍스트이 의미 있는 표현(임베팅)을 생성하는 일입니다.
    • 디코더는 이 임베딩을 사용해 번역문이나 요약문 같은 출력을 생성합니다.
      • 이 출력은 인코딩된 정보를 효과적으로 해석합니다.
  • GPT(Generative Pre-trained Transformer)는 트랜스포머 아키텍처 기반으로, 그 중 디코더 부분을 활용하는 모델입니다.

    • GPT에는 인코더가 없으므로 인코더에서 생성된 임베딩을 통합하기 위한 교차 어텐션이 필요하지 않습니다.

    • 따라서 GPT는 디코더 내의 센프 어텐션 메커니즘에만 의존해 컨텍스트를 인식하고 예측을 생성합니다.

      • 반대로 BERT(Bidirectional Encoder Represetations from Transformers)와 같은 모델은 인코더 기반



GPT 모델의 토큰화 및 예측 단계


  • GPT 등의 LLM은 프롬프트 입력에 대한 응답으로 텍스트를 생성합니다. 이 프로세스를 텍스트 완성(Text Completion)이라고 합니다.

    • 예를 들어, 프롬프트가 'The weather is nice today, so I decided to'라면 모델 출력은 'go for a walk'일 수 있습니다.
  • 프롬프트가 LLM으로 전송되면 먼저 입력 내용을 토큰(token)이라고 하는 작은 조각으로 나눕니다.

    • 이때 단일 단어, 단어의 일부, 공백, 구두점 등을 모두 토큰으로 나타냅니다.

      • 예를 들어, 앞의 프롬프트는 다음과 같이 토큰화 할 수 있습니다.

        • ["The", "Wea", "ther", "is", "nice", "today", ",", "so", "I", "de", "ci", "ded", "to"]
      • 각 언어 모델에는 자체 토큰화 도구가 함께 제공됩니다.

        • 영어를 기준으로 하면 일반적으로 토큰 100개가 단어 약 75개와 같습니다. 이를 알아두면 토큰 길이를 이해하는 데 도움이 됩니다.
  • LLM은 앞서 소개한 트랜스포머 아키텍처와 어텐션으로 토큰을 처리하고 토큰 간의관계와 프롬프트의 전반적인 의미를 해석합니다.

    • 또한 텍스트 내에서 중요한 정보와 컨텍스트를 효율적으로 식별할 수 있습니다.
  • LLM은 새 문장을 생성할 때 프롬프트이 컨텍스트에 따라 다음에 나올 확률이 가장 높은 토큰을 예측합니다.

    • 오픈AI의 GPT-4 모델에는 두 가지 버전이 있는데, 각각 8,192개 토큰과 32,768개 토큰의 컨텍스트 창(context window)이 있습니다.

    • 긴 입력 시퀀스를 처리하기 어려웠던 순환 모델과달리 어텐션 메커니즘을 갖춘 트랜스포머 아키텍처는 LLM이 컨텍스트를 전체적으로 고려하도록 합니다.

      • 모델은 컨텍스트에 다라 각 잠재적 후속 토큰에 확률값을 할당합니다.

      • 그런 다음 가장 확률이 높은 토큰을 시퀀스에서 다음 토큰으로 선택합니다.

        • 예시 문장 'The weather is nice today, so I decided to' 다음에 나올 가장 좋은 토큰은 'go'가 될 수 있습니다.

        • 이제 컨텍스트는 The weather is nice today, so I decided to go'가 됩니다.

        • 예측된 토큰으로 'go'가 추가됐는데, 모델이 이어서 예측할 수 있는 두번째 토큰은 'for'일 수 있습니다.

        • 이 과전은 'go for a walk'라는 완전한 문장이 만들어질 때까지 반복됩니다.

      • 이 프로세스는 방대한 텍스트 데이터에서 다음에 나올 확률이 높은 단어를 학습하는 LLM의 기능에 의존합니다.

  • 텍스트 완성 프로세스

    1. 프롬프트 받기

    2. 입력을 토큰으로 분리하기

    3. 트랜스포머 아키텍처로 토큰 처리하기

    4. 컨텍스트를 기반으로 다음 토큰 예측하기

    5. 확률값을 기반으로 단어 선택하기



2. GPT 모델의 역사


GPT(Generative Pre-trained Transformer) 모델은 2018년에 처음 등장한 이후 해마다 꾸준히 발전해 왔습니다.

GPT-1 (2018년)


  • 출시: 2018년 6월

  • 특징

    • GPT-1은 첫 번째 GPT 모델로, 1.17억 개의 매개변수를 사용합니다.

    • 대규모 텍스트 데이터(corpus)를 사용하여 사전 학습(unsupervised pre-training)한 후, 특정 작업에 대해 추가 학습(supervised fine-tuning)을 진행합니다.

    • 트랜스포머(Transformer) 아키텍처를 사용하여, 기존의 순환 신경망(RNN)보다 자연어 처리 성능이 뛰어났습니다.

  • 한계

    • 모델 크기가 작아, 복잡한 작업에서의 성능이 제한적입니다.



GPT-2 (2019년)


  • 출시: 2019년 2월

  • 특징

    • 15억 개의 매개변수를 가진 GPT-2는 GPT-1보다 훨씬 더 큰 모델입니다.

    • 더 다양한 자연어 처리 작업에서 우수한 성능을 발휘합니다.

    • 모델이 생성하는 텍스트가 인간이 작성한 것처럼 자연스러워졌습니다.

  • 논란

    • 모델의 악용 가능성 때문에 초기에는 제한적으로 공개되었으나, 이후 전면 공개되었습니다.
  • 한계

    • 여전히 긴 문장이나 복잡한 구조를 처리하는 데 한계가 있습니다.



GPT-3 (2020년)


  • 출시: 2020년 6월

  • 특징

    • 1,750억 개의 매개변수를 가진 GPT-3는 GPT-2보다 훨씬 더 큰 초대형 모델입니다.

    • 미세 조정 없이도 다양한 자연어 처리 작업에서 뛰어난 성능을 발휘합니다.

    • 질문 답변, 번역, 요약, 창의적 글쓰기 등 거의 모든 자연어 처리 작업을 수행할 수 있습니다.

  • 한계

    • 대규모 모델로 인한 높은 계산 비용 및 환경적 영향이 있습니다.

    • 생성된 텍스트의 정확성 및 편향 문제가 여전히 존재합니다.



GPT-3.5 (2022년)


  • 출시: 2022년

  • 특징

    • GPT-3.5는 GPT-3와 GPT-4 사이의 중간 단계 모델로, 1,750억 개 이상의 매개변수를 가지고 있습니다.

    • GPT-3의 한계를 개선하고 성능을 향상시킨 버전으로, 긴 문장의 문맥을 더 잘 이해하고 처리합니다.

    • 모델의 구조와 학습 방법이 개선되어, 더 빠른 응답 속도와 높은 효율성을 제공합니다.

    • 편향(bias)을 줄이고 윤리적으로 더 책임감 있게 설계되었습니다.

    • 질문 답변, 번역, 요약, 창의적 글쓰기 등 다양한 자연어 처리 작업에서 더 나은 성능을 발휘합니다.

    • 챗GPT(ChatGPT)에 사용된 첫 번째 모델로, 실시간 상호작용에서 중요한 요소들을 반영하여 설계되었습니다.

  • 한계

    • 여전히 높은 계산 비용 및 환경적 영향이 존재합니다.

    • 편향성과 생성된 텍스트의 정확성 문제를 완전히 해결하지는 못했습니다.



GPT-4 (2023년)


  • 출시: 2023년 3월

  • 특징

    • GPT-3보다 더 향상된 성능과 기능을 제공합니다.

    • 멀티모달 기능을 갖추고 있어 텍스트뿐만 아니라 이미지를 동시에 이해하고 생성할 수 있습니다.

    • 더 높은 수준의 일관성, 창의성, 추론 능력을 자랑합니다.

    • 사용자 입력(prompt)에 대해 더욱 정교하고 관련성 높은 응답을 생성합니다.

  • 기술적 발전

    • 트랜스포머 아키텍처의 개선과 더 큰 학습 데이터셋을 사용하여 다양한 언어 작업에서 더욱 뛰어난 성능을 발휘합니다.



GPT-4o (2024년)


  • 출시: 2024년

  • 특징

    • GPT-4o는 GPT-4의 확장 모델로, 멀티모달 기능을 더욱 강화한 버전입니다.

    • 텍스트뿐만 아니라 음성, 영상, 이미지 등 다양한 형태의 데이터를 동시에 처리할 수 있습니다.

    • 강화된 멀티모달 학습으로 다양한 입력 형태를 이해하고 종합적인 응답을 제공하는 능력이 향상되었습니다.

    • 연구 및 실생활 응용에서 더욱 광범위한 사용 가능성을 제공합니다.

  • 기술적 발전

    • 멀티모달 처리 능력의 향상으로, 음성 인식 및 영상 처리와 같은 복잡한 작업에서 뛰어난 성능을 발휘합니다.

    • GPT-4의 강력한 자연어 처리 능력을 기반으로, 다양한 입력 형태를 종합적으로 이해하고 처리할 수 있습니다.



3. InstructGPT → ChatGPT




ChatGPT에 적용된 RLHF(인간 피드백 기반 강화학습)의 원리

  • ChatGPT는 주제에 상관없는 대화(개방형 도메인 대화)가 가능한 모델를 위해 특별히 설계된 GPT-3.5(InstructGPT)를 기반한 모델이다.

  • OpenAI는 ChatGPT를 생성하기 위해 2022년 초반에 학습된 GPT-3.5를 Fine-Tuning하였으며, InstructGPT와 동일한 방법을 사용하였지만 데이터 수집 설정이 달랐다고 설명한다. (OpenAI는 데이터 수집 설정에 대해서는 미공개함)

    • 파인튜닝(Fine-Tuning)

      • 사전 학습된 모델을 특정 작업이나 도메인에 맞춰 추가로 학습시킵니다.

      • 이 과정에서는 일반적인 지식을 가진 모델이 특정한 데이터에 맞게 조정됩니다.

        • 예) 사전 학습된 언어 모델을 고객 서비스 대화 데이터셋에 맞춰 파인튜닝하여 고객 문의에 대한답변을 더 정확하게 생성할 수 있도록 합니다.



InstrcutGPT의 RLHF(Reinforcement Learning from Human Feedback)


  1. Supervised Fine-Tuning(SFT)

    • 인간이 의도하는 정책을 학습시키기 위해 인간 Labeler(or trainer)가 선별한 적은 양의 샘플 데이터셋으로 Pre-trained LM을 Fine-Tuning함.
  2. Reward Model (Mimic Human Preferences)

    • 인간 Labeler는 1.SFT 단계에서 Fine-Tuning된 SFT 모델이 생성한 여러 답변 후보들 중, 인간 labeler 들이 무엇이 더 좋은 답변인지 랭킹을 매겨 점수화한 데이터셋을 수집함.

    • 이 데이터셋을 이용하여 새로운 Reward Model을 학습

  3. PPO(Proximal Policy Optimization)를 이용한 SFT 모델 강화학습

    • SFT 모델에 여러 사용자들의 입력을 주고, Reward Model과 함께 상호 작용하면서 강화학습을 시킴.

      • Step-3의 목표는 Step-2에서 학습한 Reward Model이 제공하는 보상을 사용하여 SFT 모델을 fine-tuning 시키는 것이다. Step-3 부터는 학습 loop에서 더 이상 사람이 필요하지 않다.
    • PPO(Proximal Policy Optimization) 알고리즘

      추가 자료ㅣ https://velog.io/@syoon369/Secret-of-RLHF-in-Large-Language-Models-Part-I-PPO

      • PPO는 다음과 같은 과정을 통해 Loss를 계산하여 trainable SFT 모델의 weight를 업데이트한다.

        1) 초기화를 위해 intial probs(initial output text probabilities)를 new probs(new output text probabilities)와 동일하게 만듬

        2) New probs와 initial probs간 ratio을 계산함

        3)아래 공식에 따라 loss를 계산함.

        • loss=min(ratioR,clip(ratio,0.8,1.2)R)loss = -min(ratio * R, clip(ratio, 0.8, 1.2) * R)
        • R = reward + KL (or 0.8reward + 0.2KL와 같은 weighted average)
        • clip(ratio, 0.8, 1.2) → 0.8 ≤ ratio ≤ 1.2

        4) Loss를 backpropagating하여 SFT Model의 weight를 업데이트함

        • 역전파(backpropagation)인공 신경망을 훈련시키는 데 사용되는 기본 알고리즘입니다. 이는 지도 학습 기법으로, 예측된 출력과 실제 목표 출력 간의 오류를 최소화하기 위해 네트워크의 가중치를 조정하는 과정을 포함합니다.

        • 역전파의 작동 방식에 대한 개요

          • 순방향 전파 (Forward Pass):입력 데이터가 신경망에 주입됩니다. 데이터는 각 뉴런이 입력에 활성화 함수를 적용하여 출력을 생성하는 방식으로 네트워크를 층층이 통과합니다. 네트워크의 최종 출력은 목표 출력과 비교되어 오류(손실)를 계산합니다.

          • 손실 계산: 손실 함수(예: 회귀 작업의 경우 평균 제곱 오차, 분류 작업의 경우 교차 엔트로피 손실)를 사용하여 예측된 출력과 실제 목표 간의 차이를 정량화합니다.

          • 역방향 전파 (Backward Pass, Backpropagation): 오류가 네트워크를 거꾸로 전파합니다. 체인 룰을 사용하여 각 가중치에 대한 손실 함수의 기울기(미분값)를 계산합니다. 이는 네트워크의 각 가중치에 대한 손실의 미분을 계산하는 과정을 포함합니다. 기울기는 각 가중치가 총 오류에 얼마나 기여하는지를 나타냅니다.

          • 가중치 업데이트: 확률적 경사 하강법(SGD), Adam, RMSprop과 같은 최적화 알고리즘을 사용하여 가중치를 업데이트합니다. 업데이트 규칙은 일반적으로 현재 가중치에서 기울기의 일부(학습률로 조정된)를 빼는 것을 포함합니다. 이 단계는 미래의 반복에서 오류를 줄이기 위한 것입니다.

          • 반복 과정: 네트워크의 성능이 만족스러울 때까지, 즉 손실이 허용 가능한 수준으로 최소화될 때까지 1-4단계를 여러 번 반복합니다. 역전파는 신경망이 데이터의 복잡한 패턴을 학습할 수 있도록 필요한 기울기를 효율적으로 계산하기 때문에 딥러닝 모델을 훈련시키는 데 필수적입니다. 그러나 학습률과 같은 하이퍼파라미터의 신중한 조정이 필요하며, 특히 매우 깊은 네트워크의 경우 계산 비용이 많이 들 수 있습니다.

        5) 새롭게 업데이트된 SFT 모델로 new probs를 계산함

        6) 2번부터 6번을 N 번 반복함

1단계는 한번만 수행되는 반면, 2단계와 3단계는 지속적으로 반복될 수 있다.



4. AI 할루시네이션(Hallucination)


  1. LLMs와 할루시네이션의 정의

    • LLMs에서 할루시네이션은 모델이 사실이 아닌 내용을 마치 진실인 양 생성하는 현상을 의미합니다.

    • LLMs는 방대한 텍스트 데이터로 학습한 거대한 인공지능 모델입니다.

      • 수백억 개의 매개변수를 사용해 인간의 언어를 이해하고 생성하죠.

      • 챗GPT가 대표적인 예인데, 우리가 질문을 던지면 마치 사람처럼 자연스럽고 그럴듯한 답변을 해줍니다.

    • 많은 경우 믿기 어려울 정도로 정확하고 통찰력 있는 대답을 하지만, 때로는 황당한 말도 서슴지 않아요. 마치 환각(Hallucination)을 보는 것처럼 말이죠.

  1. 할루시네이션의 원인: 언어 모델의 한계

    • 그렇다면 LLMs는 왜 할루시네이션을 보이는 걸까요? 그 해답은 언어 모델의 학습 방식과 본질적 한계에 있습니다.

      • 먼저 LLMs는 엄청난 양의 텍스트를 바탕으로 단어 간의 통계적 패턴과 확률을 학습해요. 쉽게 말해 특정 단어 다음에 어떤 단어가 나올 가능성이 높은지를 파악하는 거죠.

      • 학습이 완료된 모델은 주어진 프롬프트(질문이나 지시)에 대해 가장 그럴듯한 응답을 생성합니다. 하지만 이는 어디까지나 확률에 기반한 것이지, 실제 지식이나 추론 능력에 기반한 건 아니에요.

    • 여기서 핵심은 LLMs가 세상사에 대한 진정한 '이해'를 하지 못한다는 점입니다.

      • 인간은 언어를 배울 때 단어와 문장의 의미를 깨우치고, 그것이 실제 세계와 어떻게 연결되는지를 터득하죠.

      • 반면 LLMs는 방대한 데이터에서 통계적 상관관계는 학습하지만, 인과 관계나 기반이 되는 지식을 진정으로 이해하지는 못해요. 결국 형태는 그럴듯하지만 내용은 빈약하거나 비어있는 일종의 '언어적 환각'을 만들어내는 셈이죠.

  1. 데이터 품질과 편향성의 영향

    • 할루시네이션의 또 다른 원인은 학습 데이터의 품질과 관련이 있어요.

    • LLMs는 웹 크롤링 등을 통해 수집된 방대한 텍스트로 학습하는데, 여기에는 부정확하거나 편향된 정보, 노이즈 등이 포함되어 있을 수밖에 없죠.

      • 가짜 뉴스, 유언비어, 주관적 의견 등이 마치 객관적 사실인 것처럼 학습될 수 있어요. 또한 데이터의 불균형으로 인해 특정 주제나 관점에 치우친 내용을 생성할 가능성도 있습니다.
  1. 언어의 모호성과 문맥 의존성

    • 인간의 언어는 본질적으로 모호하고 문맥에 의존적이에요.

    • 같은 단어나 문장이라도 상황에 따라 다른 의미를 갖죠. 반어법이나 비유 같은 표현은 말 그대로 해석하면 오히려 본뜻을 벗어나기도 하고요.

    • 이런 언어의 특성 때문에 LLMs는 문맥을 제대로 파악하지 못하고 엉뚱한 방향으로 이해하거나 생성하는 오류를 범할 수 있어요.

      • 즉, 할루시네이션은 언어 자체의 복잡성에서 비롯된 면도 있는 거죠.
  1. 평가와 보정의 어려움

    • 할루시네이션을 완전히 제거하기 어려운 이유 중 하나는 그것을 정량적으로 평가하고 보정하기 까다롭기 때문이에요.

    • 모델이 생성한 수많은 문장들을 일일이 검토하고 사실 여부를 판단하는 건 너무 많은 비용이 들죠. 그렇다고 명확한 자동화된 기준을 세우기도 모호해요. 결국 진실과 거짓을 완벽히 구분하는 보편적 알고리즘을 만드는 건, 인공지능에 인간 수준의 상식과 추론 능력을 부여하는 것만큼이나 난해한 과제라고 할 수 있겠습니다.

  1. 연구 동향과 해결 노력

    • LLMs의 할루시네이션 문제를 해결하기 위한 다양한 시도가 이뤄지고 있어요. 학습 데이터의 품질을 높이고 편향성을 제거하려는 노력, 프롬프트 엔지니어링을 통해 보다 명확하고 일관된 응답을 유도하는 기법 등이 연구되고 있습니다.

      • 또한 사후 처리 과정에서 생성된 결과를 검증하고 필터링하는 방법, 외부 지식 베이스와 연계해 사실성을 높이는 시도도 진행 중입니다.

      • 장기적으로는 인과 관계와 상식 추론 능력을 LLMs에 내재화하려는 노력도 이어질 것입니다.

    • 이처럼 LLMs는 놀라운 잠재력에도 불구하고 만능은 아닙니다. 특히 할루시네이션의 위험이 있는 만큼 중요한 의사결정이나 전문 분야에 적용할 때는 신중할 필요가 있습니다.

      • LLMs가 생성한 정보를 그대로 받아들이기보다는 사람이 검토하고 다른 자료와 비교하는 과정이 필요합니다.

      • 아울러 LLMs가 학습한 데이터의 한계를 인지하고, 특정 관점에 경도될 수 있음을 염두에 둬야 합니다.

      • 현 단계에서 LLMs는 창의적 아이디어를 제공하고 업무를 보조하는 유용한 도구이지만 그 결과를 100% 신뢰할 순 없다는 사실을 기억해야 할 것입니다.



profile
For the sake of someone who studies computer science

0개의 댓글

관련 채용 정보