241117 TIL PrivateGPT, HuggingFaceHub vs HuggingFaceEndpoint

윤수용·2024년 11월 17일
0

TIL

목록 보기
56/89

8.0 Introduction

PrivateGPT

  • 사용자가 로컬에서 AI 모델을 실행하여 데이터를 처리하는 방식
  • 데이터의 프라이버시를 보장하는 것이 핵심
    - 일반적인 GPT 모델은 클라우드 서버에서 동작하므로, 데이터가 외부 서버로 전송됨
    - PrivateGPT는 모든 연산이 사용자의 로컬 환경에서 실행되기 때문에, 민감한 데이터가 외부로 유출되지 않음

PrivateGPT를 만드는 방법

  1. 로컬 환경 준비
    • 로컬 머신에 필요한 AI 모델을 다운로드
    • AI 모델 실행을 위한 라이브러리 설치 (transformers, langchain 등)
  2. 지원되는 AI 모델 선택
    • GPT4All, LLaMA, Mistral 등의 오픈소스 AI 모델 사용 가능
  3. PrivateGPT 구현
    • 모델 파일과 데이터를 로컬에 배치한 후 PrivateGPT를 실행
  4. 로컬 데이터 인덱싱
    • PDF, 텍스트 파일 등 로컬 데이터에 대해 AI 모델이 학습할 수 있도록 인덱싱 작업

8.1 HuggingFaceEndpoint

HuggingFace Hub

  1. 개념
    • 모델, 데이터셋, 토크나이저 등을 저장하고 공유하는 플랫폼
    • 머신러닝 모델 및 리소스를 업로드하거나 다운로드하여 사용할 수 있는 저장소 역할
  2. 주요 특징
    • 모델 저장 및 공유
      • 머신러닝 모델을 저장하고, 다른 사용자와 공유 가능
      • 오픈소스 모델뿐만 아니라 비공개 모델도 관리 가능
    • 커뮤니티
      • 모델 페이지에는 사용 설명서, 데모, 관련 코드, 토론 섹션이 포함되어 있어 사용자들이 협업 가능
    • Hub에 연결된 라이브러리
      • transformers, datasets, accelerate 등의 라이브러리와 직접 통합되어 사용이 간편

HuggingFace Endpoint

  1. 개념
    • Hugging Face Inference API를 통해 모델을 직접 호출하여 사용할 수 있는 기능
    • 로컬에서 모델을 실행할 필요 없이, 클라우드에서 호스팅된 모델을 통해 추론을 수행
  2. 주요 특징
    • Inference API
      • Hugging Face에서 제공하는 REST API를 통해 모델을 호출
      • 클라우드 상에서 실행되므로, 로컬 머신에 모델을 다운로드하거나 환경을 설정할 필요가 없음
    • 자동 확장성
      • Hugging Face Endpoint는 클라우드 인프라를 기반으로 하며, 대규모 요청 처리 시 자동으로 확장
    • 사용의 편리함
      • EST API를 통해 쉽게 통합 가능하며, Python, JavaScript 등 다양한 언어에서 호출 가능

주요 차이

특징Hugging Face HubHugging Face Endpoint
역할모델/데이터셋/코드 저장소모델을 API로 호출하여 추론 수행
호스팅로컬 또는 클라우드 환경에서 모델 다운로드 후 실행 필요Hugging Face의 클라우드 인프라에서 바로 실행
추론 방식사용자가 모델을 로컬로 로드하여 실행REST API를 통해 클라우드에서 추론 결과 제공
사용 목적모델 개발 및 연구빠르고 간편한 모델 추론 및 API 통합
확장성모델 실행은 사용자의 리소스에 의존클라우드 기반으로 자동 확장 지원
요금제무료/유료 모델 혼합, 로컬에서 실행 시 추가 요금 없음API 호출량에 따라 사용 요금 부과
profile
잘 먹고 잘 살자

0개의 댓글