문장 전체를 살피고, 특정 part의 의미나 역할 분석에 사용
POS tagging (형태소 분석), NER (개체명 추출)에 이용
text에 대해 동일한 길이의 label sequence 출력
N21, N2M으로 해결하는데는 어려움이 있음
TokenClassification을 활용해 간단히 훈련 가능
입력 형태
character, word, subword 방식 등 다양한 토큰화 이용
출력 형태
주로 BIO를 사용
입력 토큰 개수에 맞게 출력 토큰 개수도 맞춰줘야 함
Subword에서 ‘코’, ‘딩’을 하나로 묶어 B-NE로 만듦
Cross Entropy Loss 사용
N21은 한 번만 계산
N2N은 토큰 개수인 N번 계산해서 mean 적용
위 수식은 Cross Entropy Loss 수식
ignore index는 cross entropy를 계산할 때 무시하는 index
torch에선 -100 class로 reserve
입력 시 max length를 넘는 text는 배제하기 때문에, 잘 고려해야 함
Macro & Micro F1
Conlleval-2000
※ 모든 이미지 및 코드 출처는 네이버 커넥트재단 부스트캠프 AI Tech 5기입니다. ※