
LLM의 트랜스포머 아키텍처에 대해서 간단히 알아보자.

PyTorch의 간단한 사용법을 알아보자.

LLM을 위한 입력 데이터를 "준비"하기 위한 데이터 준비 및 샘플링에 대해 다뤄보자.

LLM의 엔진인 attention mechanisms에 대해 다뤄보자.

GPT 같은 LLM 아키텍처를 구현해보자.

훈련 루프와 코드를 구현하여 LLM을 사전 훈련해보고, 실제 GPT의 가중치를 모델에 load해보자.

일반적인 pretraining과 finetuning에도 사용되는 고급 기능을 훈련 함수에 추가해보자.

text 분류를 하는 LLM을 finetuning 해보자.

LoRA에 대해서 배우고 GPT-2의 Linear Layer를 LoRA Layer로 대체해서 finetuning해보자.

instruction-finetuning을 이용하여 LLM을 finetuning해보자.