SFT(Supervised Fine-tuning)는 LLM이 인간의 지시를 따르고 (alignment), 다양한 downstream task의 성능을 높이는 방법 중 하나

SFT을 할 때 training dataset이 많으면 많을 수록 대부분 downstream-task에 대한 성능을 증가 시킴, 그러나 이는 이미 LLM이 가지고 있는 world knowledge를 잊게 함
따라서 이 논문에서는 LoRAMoE라는 프레임워크 제안



아직 정확히 이해가 가지 않음...
Expert을 balance있게 사용하기 위한 기술로, 두가지로 Expert를 나눠서 유형의 작업에 집중할 수 있도록

중요도 행렬의 평균과 분산을 활용해서 loss 계산
행렬을 통해서 training sample과 expert 사이의 상호 작용을 정량화해서 진행됨.
