Pretrained된 모델을 Fine-Tuning해 Hate Speech Classification (한국어로 된 혐오 / 공격적인 댓글)을 분류하는 모델을 학습시키려고 합니다
KcElectra-base
KcElectra는 네이버 뉴스 댓글과 대댓글을 수집해 tokenizer와 electra 모델을 pretrain한 모델로, 짧은 길이의 댓글을 분류하고, 신조어/비속어를 많이 포함한 Korean Hate Speech Detection 데이터 셋에 가장 적합하다고 판단되어 사용하였습니다.
Kaggle에 올라온 Korean-Hate-Speech-Detection 데이터 셋을 사용하였습니다.
https://www.kaggle.com/competitions/korean-hate-speech-detection/
데이터 셋은 기본적으로
으로 구성되어 있으며, 이중 (Comments, Hate) Column만 사용합니다.
Since the 'minority' of the dataset (hate) is above 20% of the total data count (13.3%) off from being a fully balanced dataset, I will proceed with current data distribution.
Stemming/stopword removal will not be done as it is not effective in hate speech detection.
Only,
will be removed
Hate Label:
Processed Output Example
Out of all models, V2 epoch 1 had the highest validation accuracy of 74%
주어진 Test Set의 데이터 셋은 문장에 대해 Label이 표시되지 않은 데이터를 포함하고 있어 체점이 제출 형식으로 이루어 집니다.
제출시 Kaggle Competition 이 부여하는 점수가 어떻게 측정되는지 확실하지 않으나 0.66421점으로 표시되었습니다.
Pretrained model used: beomi/KcELECTRA-base
Dataset Used: