LLM 대규모 언어 모델. 대량의 텍스트 데이터를 학습하여 자연어 처리 작업을 수행. 주로 딥러닝 기법인 트랜스포머(Transformer) 아키텍처를 사용하여 구축됨. 텍스트 생성, 기계 번역, 감정 분석, 질문에 대한 답변 제공 등 다양한 언어 관련 작업 처리
GPT는 GPT-4 기준 Size가 1.76T로써 ChatGPT, Microsoft, Copilot, Duolingo에 사용중.LLaMA는 LLaMa2 기준 Size가 7B, 13B, 70B 이고 오픈소스Gemini는 Nano는 1.8B, 3.25B인데 Pro와 Ult

GPT-3 부터 LLMChatGPT 출시 2일만에 1억명의 사용자를 모음.GPT-1(2018.6) , 176M, 다음 단어 예측 기반GPT-2(2019.2) , 1.5B, 1에 비해 규모가 커져서 더 자연스러운 문장, 요약, 번역GPT-3(2020.5) , 175B,
Large Language Model Meta AI의 줄임말오픈소스라 공개된 학습가능한 데이터로만 학습2023년 2월에 1 공개 - 7B, 13B, 33B, 65B2023년 7월에 2 공개 - 7B, 13B, 34B, 70B2는 1과 다르게 Grouped-Query A
Bard는 2월 Gemini로 리브랜딩되었다.. Bard Good Bye..구글에서 발표한 LLM List이름 / 날짜 / 파라미터 / 데이터 학습량GLaM/2021.12/1.2T/1.6TGopher/2021.12/280B/300BLaMDA/2022.1/137B/168
BooksCommonCrawlReddit LinksWikipedia(한국은 나무위키)Code허깅페이스에서 개발transformers을 사용해서 모델 개발수천개의 사전학습 모델 제공마이크로소프트에서 개발딥러닝 최적화 라이브러리LLM 학습을 위해 NVIDIA에서 개발마이크
원하는 차량을 알려줄 때는 GPT 기반으로 알려주면 될듯그래서 RAG Web 검색 기반으로 알려주면 될 것 같음.원하는 차량에 대한 정보는 자세하고 현재에 민감함.그래서 얘도 Web 검색 기반으로 알려줘야함.사용자 요청 의도 파악을 해야함. 사용자가 원하는 상품을 찾을

Retrieval Augmented Generation - 검색 증강 생성데이터(Source)를 로드(Load)한다.변환(Transform)한다. => 분할임베드(Embed)한다.저장(Store)한다.검색(Retrieve)한다.양질의 데이터를 넣는다.저장할 때 캐싱작업

사용자가 입력한 텍스트 데이터가 LLM의 첫 번째 입력으로 들어갑니다.입력된 텍스트는 토큰화 과정을 거쳐 개별 단어 또는 문장 부호로 분리됩니다.예시: "Hello, world!" → "Hello", ",", "world", "!"토큰화된 단어들은 임베딩 벡터로 변환됩
n-샷 프롬프트를 사용하여 컨텍스트 학습을 강화하기.사고의 연쇄(Chain-of-Thought, CoT): 모델이 답변을 내기 전에 사고 과정을 설명하게 하기.관련 자료 제공: Retrieval-Augmented Generation (RAG)을 사용하여 모델의 응답을