소셜 미디어 텍스트 (편향 포함) + 지도 학습의 경우 neural LM 편향이 발생.
소셜 미디어 텍스트를 학습하면서도 편향을 완화하도록 지식 그래프를 적용하면 되지 않을까? 가 main idea.
여기서 한 발 구체적으로 소셜 미디어 텍스트 data + 지식 그래프 활용 + Contrastive Learning 으로 편향성 발언을 줄이자가 목표이다. 일단 지금까지 읽은 내용들을 정리해보고, 어느 단계에서 각각 적용할 수 있을지, 어떤 영향을 가져올 수 있을지, variation 은 무엇이 있을지 생각해보자.
1) Mitigating Gender Bias in NLP: Literature Review
이 논문은 최근 NLP 논문들 중 gender bias 에 초점을 맞춰 debiasing 방법에 대해 괜찮은 방법들을 정리하고 있는 글이다.
방법은 크게 corpora, representation 에서 완화를 시도하는 방법과 prediction algorithms 에서 완화하는 방법 2가지가 있었다.
original with name-anonymization + augmented data set(name-anonymization에 gendr-swapped)
Gender tagging: 애매한 상황에서 남성 화자로 확정하지 않도록
Bias Fine-Tuning: pretraining 자체는 편향이 없는 텍스트에서 진행한 후 편향이 있는 태스크에 대해서 파인튜닝
원래 임베딩에서 코사인 유사도를 계산하면 he, she 가 굉장히 가까운 벡터로 표현될 것이고 이를 제거하는 것이다. 그럼 Genderless framework 를 만들 수 있지 않을까?
또다른 방법은 특정 공간에 gender info 를 모아두고 뉴트럴한 정보들은 다른 공간으로 둘 사이를 분리시키는 것이다. (이거 좋은 거 같은데 non-Euclidean 에서 cosine 유사도가 적용되지 않아서 잘 작동하지 않는다는 말이 무엇일까..?)
Amplication 을 줄이는 방법이다, constrained conditional model 을 통해. (예측에 있어서 남성과 여성의 비율에 제한을 두는 방법) 어쨌든 알고리즘 예측을 조정한다는 것은 모델의 objective 또는 constraint 을 조정한다는 뜻같다.
2) StereoKG: Data-Driven Knowledge Graph Construction for Cultural Knowledge and Stereotypes
지식 그래프를 자동으로 생성하는 방법에 대해 소개한 논문이었다. 내용을 더 간단하게 정리하면서 지식 그래프를 어느 단계에서 활용하면 좋을지 생각해보자.
verbalized KG 를 학습한 masked LM 이 지식이 중요한 태스크에서 높은 성능을 기록했다는 것이 포인트였다.
왜? Stereotype 을 포함하지 않을 경우 분류에서 문제가 생기기 때문이다. bias reduction 을 위한 워드 임베딩, 분류 작업이 필요했고 과거엔 이걸 lexicon 단위로 작업했으나 여기선 KG로 풀겠다는 것. 지식 그래프를 활용하여 bias reduction 을 해내자는 의도이다.
결합 방법 2가지. 1. Fusion based approches (LM 표현 + KG 표현) 2. LM base (pre-trained LM => KG integration via intermediate pre-training)
KG 자체의 (automated manner) 형성 방법은 다음과 같다. (=> 그냥 알아만 두자.)
참고) 형성 방법에서 특징적인 것은 굳이 triple 로 바꿨다가 다시 그에 따라 문장을 생성한다는 점이다. 왜? 아무래도 지식'그래프'다 보니 정리된 문장만이 필요했을 것이다. (부사어구 등을 제외한) 다시 문장을 변환하고 문법성이 높은 1등이 cluster 의 대표로 선택되니 의미상에는 문제가 없을 것이다.
결합 방법은 BASE모델/Domain Trained모델에, + intermediate MLM training UK / SK(UK와의 비교를 통해 지식 그래프의 효과를 볼 수 있다) 를 결합하는 것이다. 그리고 OLID, WSF 데이터로 테스트.
결론적으로 SK를 사용하여 성능이 향상된 경우는 Domain에서 train 하고 Domain 에서 test 했을 경우였다. 이 경우에만 지식 그래프에서 유의미한 성능 향상 발견.
👍지식 그래프를 생성하는 방법이나 결합하는 아이디어를 이 논문을 활용하면 이해하고 활용할 수 있을 것 같다. 기본적으로 소셜 미디어 텍스트를 데이터로 하는 학습이니, 주의깊게 봐두자.
3) A Contrastive Framework for Neural Text Generation
Contrastive learning 이나 Generation 과 관련한 이론 사항을 정리해보고 둘 중에 어떤 것을 사용할지, 왜 사용해야 하는지, 어디에 사용할지 생각해보자.
이 논문은 결과적으로 비슷한 단어가 등장하지 않으면서도 Semantic 하게 Coherence 를 유지하는 문장을 만들어내는 Contrastive Learning 을 소개하고 있다.
크게는 1. a contrastive training objective (학습 시 적용하는 방법) 과 2. Decoding method (generation 서치를 contrastive 하게하는 방법) 이 있다. 단계가 다르다는 것에 주의.
기존의 모델들은 MLE + Deterministic or Stochastic Method 를 붙인 형태였는데,
결과적으로 1+2 를 하든, 1만 적용하든, 2만 적용하든 다른 방법들보다 우수한 성능이 측정되었다.
Potential Idea 정리
< IDEA1 >
< IDEA 2 >
좋은 정보 얻어갑니다