프로젝트를 시작하기에 앞서서 사용할 수 있을 데이터셋과 한국어 Pre-trained Language Model에 대해 조사하고, 현재 기업에선 어떤 방식으로 악플/혐오 표현을 탐지하는지 리서치를 진행했다.
Reference
✏️ 데이터셋 구성
✏️ 레이블 종류 : multi-class, multi-label 데이터
✏️ kaggle
Reference
✏️ 데이터셋 구성
✏️ 레이블 종류 : multi-label 데이터
📃 보조 데이터셋 : HateScore
• 본 데이터셋의 크기는 약 1.1만 건으로, Korean UnSmile Dataset의 base model을 활용해 HITL(Human-in-the-Loop) 방식으로 태깅된 1.7천 건, 위키피디아에서 수집한 혐오 이슈 관련 중립 문장 2.2천 건, 규칙 기반으로 생성된 중립 문장 7.1천 건의 세 가지로 구성되며 중립 문장 오분류 방지를 주 목적으로 개발되었습니다.
https://github.com/sgunderscore/hatescore-korean-hate-speech
존맛, 개이득
)model | size | link |
---|---|---|
KoBERT(SKT) | base | https://github.com/SKTBrain/KoBERT |
KorBERT(ETRI) | base | https://aiopen.etri.re.kr/service_dataset.php |
HanBERT | base | https://github.com/monologg/HanBert-Transformers |
KcBERT | base, large | https://github.com/Beomi/KcBERT |
KR-BERT(SNU) | https://github.com/snunlp/KR-BERT | |
Ko-Char-BERT | base | https://github.com/MrBananaHuman/KoreanCharacterBert |
LMKor-BERT | base | https://github.com/kiyoungkim1/LMkor |
DistilKoBERT(SKT 경량화) | https://github.com/monologg/DistilKoBERT | |
KLUE-BERT | base | https://huggingface.co/klue/bert-base |
KPFBERT | base | https://github.com/KPFBERT/kpfbert |
brainsbert(kakaobrain) | base | https://huggingface.co/hyunwoongko/brainsbert-base |
KalBert | base | https://github.com/MrBananaHuman/KalBert |
LMKor-Albert | base | https://github.com/kiyoungkim1/LMkor |
KLUE-RoBERTa | small, base, large | https://huggingface.co/klue |
KoBigBird | base | https://github.com/monologg/KoBigBird |
model | size | link |
---|---|---|
TUNiB-Electra(TUNiB) | small, base | https://github.com/tunib-ai/tunib-electra |
KoELECTRA | small++, base | https://github.com/monologg/KoELECTRA |
KcELECTRA | small, base | https://github.com/Beomi/KcELECTRA |
KoCharELECTRA | small, base | https://github.com/monologg/KoCharELECTRA |
LMKor-ELECTRA | base | https://github.com/kiyoungkim1/LMkor |
model | size | link |
---|---|---|
LMKor-KoGPT2 | base | https://github.com/kiyoungkim1/LMkor |
KoGPT2(SKT) | base | https://github.com/SKT-AI/KoGPT2 |
KoGPT-Trinity 1.2B(SKT) | 1.2B | https://huggingface.co/skt/ko-gpt-trinity-1.2B-v0.5 |
KoGPT(kakaobrain) | 6B | https://github.com/kakaobrain/kogpt |
T5
model | size | link |
---|---|---|
KE-T5 | small, base, large | https://github.com/AIRC-KETI/ke-t5 |
LMKor-T5 | small | https://github.com/kiyoungkim1/LMkor |
KcT5(개발 중 추측) | base | https://huggingface.co/beomi/KcT5-dev |
pko-t5 | base, large | https://github.com/paust-team/pko-t5 |
KoT5(Wisenut) | base | https://github.com/wisenut-research/KoT5 |
ET5(ETRI) | https://aiopen.etri.re.kr/service_dataset.php |
BART
model | size | link |
---|---|---|
KoBART | base | https://github.com/SKT-AI/KoBART |
Korean-BART | mini, small, base | https://cosmoquester.github.io/huggingface-bart-train/ |
Reference
나쁜말 점수 = 0.4
window size=20
단위로 스캔Reference
학습 데이터 직접 구축
2명의 작업자가 개별 학습 데이터에 13가지 라벨 속성에 따라 0~4점을 부여
점수 | 설명 |
---|---|
0점 | 특정 속성이 문장에 없음 |
1점 | 약하게 표현되어 있음 |
2점 | 보통 |
3점 | 정도가 강함 |
4점 | 정도가 매우 강함 |
비윤리적 속성을 13가지로 정의하여 데이터 라벨로 사용
구축한 학습 데이터를 이용하여 TUNiB-Electra-ko-base
튜닝
Reference
- 딥러닝으로 욕설 탐지하기(NDC2018) [발표 자료 및 발표 영상]
- VDCNN [논문] [깃헙]
Reference
데이터 직접 구축
실제 서비스에 활용하기 위해서 가벼운 모델을 사용하는 것을 목표로 함
추가적인 성능 개선을 위해서 Persona Embedding(댓글 유사도 학습)을 적용 - 네이버 내부의 중복 댓글 탐지 모델의 학습 방식
표현의 자유를 최대한 보장하기 위해서 의도적으로 악플의 기준을 조금 더 상향하여 서비스 진행 중
뤼튼 욕설 필터링 개발하신 분이신가보군요.