Abstract
Instruction Finetuning이란?
모델을 다양한 데이터셋(명령어 형식으로 작성된 데이터)으로 미세 조정하는 방법으로, 이를 통해 모델의 성능과 새로운 작업에 대한 일반화 능력을 향상시킬 수 있음.
Fine-tuning : 이미 학습된 모델을 가져와서 추가 데이터를 사용하여 다시 학습 시키는 과정. 모델은 기존에 학습한 지식을 활용하면서도, 특정 작업에 더욱 적합한 성능을 발휘한다
Prompt-learning : 모델에게 특정한 프롬프트를 제공하여 학습 시키는 방법. 프롬프트는 모델이 생성해야 하는 결과의 방향성을 제시함으로써, 특정한 작업에 대한 지식을 빠르게 습득할 수 있도록 돕는다
Instruction-tuning : 모델에게 특정한 지시사항을 제공하여 학습. 이 방법은 모델이 그간 마주치지 못했던 작업에도 지시사항을 따라 답 추론이 가능
INTRODUCTION
Instruction Finetuning(명령어 미세 조정)을 통해 언어 모델의 성능과 일반화 능력을 개선한 내용을 다룸.
Flan Finetuning
기존 연구에 따르면, 명령어를 사용한 미세 조정에서 작업 수를 늘리면 보지 못한 작업에 대한 일반화 성능이 향상된다는 것이 입증
다양한 미세 조정 데이터 형식을 사용, 예시는 포함하거나 포함하지 않은 경우, Chain-of-Thought(CoT)는 포함하거나 포함하지 않은 경우를 조합하여 실험
미세 조정 데이터 혼합(추론 관련)은 CoT 주석을 활용하며, 이를 통해 CoT 주석을 사용한 미세 조정이 보지 못한 추론 작업에서 성능을 향상시키는지 탐구
** 전문가의 88%와 비슷하게 정확하게 맞추고 있음
Scaling to 540B parameters and 1.8K tasks
미세 조정을 통해 모든 모델 크기에서 큰 성능 향상을 달성했으며, 성능 향상 폭은 9.4%~15.5%에 이름
작업 수를 늘릴수록 성능이 개선되었지만, 282개 작업까지만 대부분의 성능 향상이 이루어짐.
282개를 초과하는 작업은 다양성이 부족하거나, 모델이 이미 알고 있는 지식을 더 잘 표현하는 데 추가적으로 크게 기여하지 못했습니다.
모델 크기를 확장하면 미세 조정 여부와 관계없이 성능이 크게 향상됨.
작은 모델(8B)은 절대적 성능 향상이 더 컸지만, 큰 모델(540B)은 상대적 오류율 감소가 더 컸습니다.
모델 크기를 더 확장하면 상당한 성능 향상이 예상되며, 작업 수 확장은 점진적인 성능 개선을 가져올 가능성이 높습니다.
Finetuning with chain-of-thought annotations
Flan 미세 조정의 목표는 기존 NLP 작업뿐만 아니라 다단계 추론 능력을 포함한 다양한 평가에서 성능을 개선하는 체크포인트를 만드는 것, 현재 섹션에서는 Instruction Finetuning 데이터 혼합물에 CoT 데이터를 포함하는 효과를 연구
🖍️Flan-PaLM은 CoT 데이터와 Self-Consistency를 결합하여 다단계 추론 및 다국어 작업에서 뛰어난 성능을 발휘했으며, 특히 기존 모델들에 비해 큰 개선을 이룸
** 작업을 늘일수록 성능이 좋아진걸 볼수 있음.
nstruction Finetuning을 통해 Flan-PaLM은 Zero-shot 설정에서도 CoT 추론을 수행할 수 있으며, 이는 미세 조정을 거치지 않은 PaLM과 비교했을 때 큰 성능 차이를 보여줌.
결론
https://velog.io/@heomollang/LLaMA-%EB%85%BC%EB%AC%B8-%EB%A6%AC%EB%B7%B0-1-LLaMA-Open-and-Efficient-Foundation-Language-Models
https://velog.io/@nellcome/Instruction-Tuning%EC%9D%B4%EB%9E%80 (Instruction Tuning이란?)
https://devocean.sk.com/blog/techBoardDetail.do?ID=165806&boardType=techBlog (Instruction tuning : LLM이 사람 말을 알아 듣는 방법)
https://zoeoz-ai.tistory.com/5
https://velog.io/@sobit/Instruction-Tuning%ED%94%84%EB%A1%AC%ED%94%84%ED%8A%B8-%EC%97%94%EC%A7%80%EB%8B%88%EC%96%B4%EB%A7%81-%ED%8C%8C%EC%9D%B8%ED%8A%9C%EB%8B%9D%EA%B3%BC%EC%9D%98-%EC%B0%A8%EC%9D%B4-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%85%8B-%EC%98%88%EC%A0%9C-%EC%BD%94%EB%93%9C
https://velog.io/@k106419/Scaling-Instruction-Finetuned-Language-Models-%EB%85%BC%EB%AC%B8-%EB%A6%AC%EB%B7%B0 (관련논문리뷰)
https://rfriend.tistory.com/843