[오류] AssertionError: Cannot handle batch sizes > 1 if no padding token is defined.

yoonene·2022년 4월 5일
0

GPT2로 multi-classification을 하기 위해 불러온 tokenizer에 pad_token을 다음과 같이 special_token으로 넣어주었다.

if tokenizer.pad_token is None:
    tokenizer.add_special_tokens({'pad_token': '[PAD]'})
    model.resize_token_embeddings(num_added_token + tokenizer.vocab_size + 1)

하지만 train을 할 때 다음과 같은 오류가 발생했다.

AssertionError: Cannot handle batch sizes > 1 if no padding token is defined.

config에도 pad_token_id를 설정해줘야 했다.

if tokenizer.pad_token is None:
    tokenizer.add_special_tokens({'pad_token': '[PAD]'})
    model.resize_token_embeddings(num_added_token + tokenizer.vocab_size + 1)
    model.config.pad_token_id = model.config.eos_token_id

위와 같이 config에 pad_token_id를 설정하는 한 줄을 추가하면 된다.

profile
NLP Researcher / Information Retrieval / Search

0개의 댓글

관련 채용 정보