TrainingArguments 파라미터 설명아래는 TrainingArguments의 각 파라미터에 대한 설명입니다. 이 클래스는 Hugging Face의 Trainer 객체에 전달되어 모델 훈련과 평가 설정을 담당합니다.
training_args = TrainingArguments(
output_dir='out',
learning_rate=7e-4,
do_train=True,
do_eval=False,
num_train_epochs=100,
per_device_train_batch_size=4,
use_cpu=True,
save_strategy="no"
)
output_dir='out''out' 경로에 훈련된 모델이 저장됩니다.learning_rate=7e-47e-4는 (7 \times 10^{-4}) 또는 0.0007입니다.do_train=TrueFalseTrue이면 훈련이 수행됩니다.do_eval=FalseFalseFalse이므로 훈련 중에 평가가 수행되지 않습니다.num_train_epochs=100per_device_train_batch_size=4use_cpu=TrueTrue이면 CPU에서 훈련이 수행됩니다. GPU가 없거나 작은 모델일 때 유용합니다.save_strategy="no"설명: 모델 가중치를 저장할 전략을 설정합니다.
"no": 훈련 중 모델을 저장하지 않습니다."epoch": 각 에포크가 끝날 때마다 저장합니다."steps": 일정한 스텝 간격으로 저장합니다.예시: "no"이므로 훈련 중 모델이 저장되지 않습니다.
from transformers import Trainer
trainer = Trainer(
model=model, # 훈련할 모델
args=training_args, # 훈련 설정
train_dataset=train_dataset # 훈련 데이터셋
)
# 모델 훈련 시작
trainer.train()
output_dir='out': 훈련이 완료된 후 결과가 'out' 폴더에 저장됩니다.num_train_epochs=100: 100번 반복해서 데이터셋을 학습합니다.use_cpu=True: CPU를 사용해 훈련이 수행됩니다.learning_rate=7e-4: 각 스텝마다 파라미터가 0.0007의 학습률로 업데이트됩니다.do_eval=False: 평가 없이 훈련만 수행됩니다.save_strategy="no": 훈련 중에는 모델이 저장되지 않습니다.TrainingArguments는 훈련 설정을 담당합니다.use_cpu=True로 CPU에서 훈련할 수 있습니다.이제 각 파라미터의 역할이 이해되셨나요? 추가적인 질문이 있으면 언제든지 말씀해 주세요!