첫 제출이어서 기대는 안했지만 점수가 낮아서 아쉬웠다.
조금 더 복잡한 모델을 사용했지만 이 역시 성능이 그리 좋지는 않았다.
도메인 특화 task에서는 도메인 특화 학습 데이터만 사용하는 것이 성능이 더 좋다.
ex) 법률 데이터, 생리학 데이터, 금융 데이터, 댓글 데이터
Dataset
→ 모델에게 어떤 밥을 먹여줄 것인가
DataLoader
→ 모델에게 밥을 어떻게 먹여줄 것인가
Masking 작업을 진행한 뒤 BERT에 입력한다.
hidden_layer: transformer layer 수
intermediate_size: feed-forward network의 dimension size
max_position_embedding: embedding size가 최대 몇 token까지 input으로 사용할 것인가
Document 단위로 dataset을 구성한다.