zero - shot
프롬프트에 추가적인 설명 예제없이 바로 문제를 해결하려는 세팅
one - shot
추가적인 설명 예제 1개와 함께 문제를 해결하려는 세팅
Few - shot
예제 n개와 함께 문제 해결하려는 세팅
큰 llm 모델 학습 과정에서 특정 임계치 (파라미터 수)를 넘으면 기존 작은 llm 에서 발생하지 않았던 새로운 능력이 발현
( 상태가 변함)
예측 불가능한 현상
시스템의 양적 변화가 행동의 질적 변화롤 이어질 때 발생
언어 모델의 규모를 늘리는 것이 다양한 하위 NLP 작업에서 더나은 성능으로 이어질 수 있다
few- shot promt
: 업데이트 없이 성능 극대화
예측은 단어 집합에 softmax regression값
( 층수 자리에 p로 나눈다)
→ 작을 경우 예측확률 증폭 → 그럴 듯한 토큰 뽑힐 확률 증가
→ 클경우 : 모든 토큰의 확률값이 평평 → 더욱 다양성있는 텍스트 생성 확률 증가
중간단위
close - book
llm을 테스트하기 위해
질문을하면 받는 모델을 찾아 비교
제로 샷 퓨샷 설정 어쩌구
제너레이션 모델을 파인튜닝해서 소스로 변환
llms의 능력은 트랜스포터머는 자기 지도 데이터의 광범위한 말몽치에 사전 학습되며, 인간의 선호와 맞추기위해 강화학습과 인간 피드백
높은 연산요구(리소스)
-페쇄된 제품 llms는 인간의 선호에 맞게 크게 세밀하게 조정되어 있어, 그들의 사용성과 안정성 크게 향상
70B 700억 파라미터 규모로 사전 훈련된 및 세밀하게 조정된 llms, Llama 2 계열을 개발하고 공개
lamma1 ▶ lamma2 (사전 훈련 말뭉치의 크기 40% 증가)
SentencePiece
fine tuning
SFT (Supervised Fine-Tuning)
파인튜닝 세분화
프로프트와 답변 세그먼트를 구분하기 위해 특별한 토큰 사용
-사용자 프롬프트 토큰에서 손실을 0 → 답변 토큰에만 역전파
RLHF
-다양성을 최대화하기 위해 주로 이진 비교 프로토콜 선택
모델응답
1. 선호하는 응답이 안전하고 다른 응답은 그렇지 않음
2. 두 응답 모두 안전함
3. 두 응답 모두 안전하지 않음
Reward modeling
irerative fine - tuning
human evaluation
Llama 1 7B 모델을 지시어 튜닝
사전훈련된 베이스 모델과 고품질명령수행 데이터 필요 (첫번째 도전과제 해결)
self instruct눈문 어쩌구
(PEFT)

W_q : query layer 를 뜻한다. (차원은 d x k 이다.)
W_k : key layer 를 뜻한다. (차원은 d x k 이다.)
W_v : value layer 를 뜻한다. (차원 은 d x k 이다.)
W_o : self-attention layer 를 뜻한다. (차원은 k x d 이다.)
훈련죽 W_0가 고정되어 경사 업데이트를 받지 않으면, a와 b는 훈련가능한 매개변수를 포함
-추가추론지연시간 없음
랭체인
언어모델로 구동되는 애플리케이션 개발 프레임워크
라이브러리
llm에 학습과정에 포함되지 않은 지식을 주입하는 방법(할루시네이션 방지)
파인튜닝 : 새로운 지식에 관한 텍스트 데이터 소스를 이용해 파라미터를 파인튜닝
peft : 일부 갱신
retrieval- augmented generation(RAG)
새로운 지식에 관한 텍스트 소스를 embedding 해서 vectior stores에 저장하고, 프롬프트 구성을 진행할 때 외부데이터 소스로 부터 가져온 텍스트 데이터를 이용해 프롬프트를 구성한뒤 llm에서 답변을 얻는다.
외부텍스트소스와 주어진 질문을 결합해서 답변 생성
Large Language Models are Zero-Shot Reasoners
https://velog.io/@nochesita/%EB%85%BC%EB%AC%B8-%EB%A6%AC%EB%B7%B0-Large-Language-Models-are-Zero-Shot-Reasoners
TAKE A STEP BACK:
https://velog.io/@ingeol/TAKE-A-STEP-BACK-EVOKING-REASONING-VIA-ABSTRACTION-IN-LARGE-LANGUAGE-MODELS
👉 word2vec 연산 체험 사이트
https://word2vec.kr/search/
embedding
사칙연산
tSNE 이용 2개의 차원으로
openai 활용
검색
클러스터링
추천
이상탐지
다양성 측정
분류