
Full fine-tuning과 PEFT(경량 파인 튜닝) 모두 이미 학습된 대형 언어 모델이나 신경망을 특정 작업이나 데이터셋에 맞게 조정하는 방법이다. 하지만 이 두개는 접근 방식과 효율성 면에서 다르다.
Full Fine-Tuning은 이미 학습된 모델의 모든 파라미터를 업데이트하여 완전히 조정하는 방식이다. 이 방법은 모델의 모든 부분을 재학습하기 때문에 성능을 크게 향상시킬 수 있다.
하지만 이는 계산 자원이 많이 필요하며, 모델의 크기가 클수록 업데이트하는 파라미터 수도 많아져서 계산 비용이 증가한다는 단점이 있다.
PEFT는 Parameter-Efficient Fine-Tuning의 약자로 이미 학습된 모델의 일부 파라미터만 업데이트하여 조정하는 방식이다.
이 방법은 모델의 일부만 업데이트하기 때문에 계산 자원을 절약할 수 있으며, 모델의 일반적인 성능을 유지하면서 특정 작업의 성능을 향상시킬 수 있다는 장점이 있다.
Full fine-tuning과 PEFT의 가장 큰 차이점은 업데이트하는 파라미터의 수와 계산 자원의 사용량에 있다.
Full fine-tuning은 모든 파라미터를 업데이트하여 모델의 성능을 크게 향상시키지만, 많은 계산 자원이 필요하다.
반면, PEFT는 일부 파라미터만 업데이트하여 계산 자원을 절약하면서 모델의 성능을 일정 수준 이상으로 유지할 수 있다.