oLoRA, Trans-LoRA, VeLoRA, LoRA+

Taixi·2025년 1월 16일
0

개인공부

목록 보기
9/14

Parameter-Efficient Fine-Tuning (PEFT)은 모델의 모든 파라미터를 조정하지 않고, 특정 파라미터 집합만을 업데이트하여 모델을 튜닝하는 방법

oLoRA

  • OLoRA는 QR 분해를 통해 직교 행렬(orthonormal matrix)을 초기화하여 모델 학습의 수렴 속도를 크게 향상
  • OLoRA는 LoRA의 효율성(학습 가능한 매개변수 수 및 GPU 메모리 사용량)을 유지하면서도, LLM 학습의 수렴을 가속화하고 성능을 향상

Trans-LoRA

  • Trans-LoRA. LoRA 모듈을 기본 모델 간에 손실 없이, 거의 데이터 없이 전이할 수 있는 새로운 방법

프로세스 단계

원본 모델(Source Model)

  • LoRA 훈련: 원본 모델에서 초기 LoRA를 훈련
  • 합성 데이터 생성: 원본 모델을 활용해 합성 데이터를 생성, 이를 기반으로 이후 단계를 수행
  • LoRA 판별기(Discriminator) 훈련: 생성된 합성 데이터를 사용하여 LoRA 판별기를 훈련, 판별기는 데이터의 품질을 평가하고, 전이에 적합한 데이터를 필터링하는 역할을 수행

대상 모델(Target Model)

  • 합성 데이터 생성 및 필터링: 대상 모델에서 데이터를 생성하고, 판별기를 통해 필터링하여 전이 품질을 보장
  • 대상 LoRA 훈련: 원본 LoRA를 교사 모델(teacher)로 사용하여 대상 모델의 LoRA를 학습

VeLoRA

과정

  • 입력 토큰을 서브 토큰(sub-tokens)으로 분할
  • 서브 토큰을 고정된 1차원(rank-1) 하위 공간으로 투영하여 압축
  • 역전파(backward pass) 시 압축된 데이터를 복원해 그래디언트 계산에 사용

LoRA+

  • 어댑터 행렬𝐴와𝐵에 고정된 비율의 서로 다른 학습률을 적용
  • 학습률 차이를 도입하는 단순한 변화로, LoRA의 한계를 극복하며 대규모 모델에서 더 빠르고 효율적인 학습을 가능

참고자료

profile
개발자를 위한 첫시작

0개의 댓글

관련 채용 정보