LLM 모델 용량 계산
70B 70 1000000000 2(Byte)=16bit / 1000 / 1000 / 1000 = 140GB
70B 70 1000000000 4(Byte)=32bit / 1000 / 1000 / 1000 = 280GB
적정 GPU
35GB 모델을 쓰려면 VRAM이 40GB는 필요하다.
추론시 모델 크기 * 1.5배의 메모리 필요
FLOPs(Floating Point Operations Per second) - 초당 연산 속도
PEFT(Parameter-Efficient Fine-Tuning)
LLM 평가지표
BLUE Score (BiLingual Evaluation Understudy)
RODGE Score (Recall-Oriented Understudy for Gisting Evaluation)
Perplexity