휴리스틱 특징 추출
-> OpenAI 기반 모델과 human text 비교
-> Log probability 기반 discrepancy 계산
Custom Tokenizer 구축: BPE 기반 ByteLevel Tokenizer 학습
TF-IDF 벡터화: BPE 토큰 기반 TF-IDF feature matrix 생성
Prompt ID One-Hot Encoding: 추가적인 구분 feature로 활용
실습 환경
-> 구글 코랩 (GPU: T4)
-> Hugging Face 인증: Gated 모델(Mistral-7B-v0.1) 접근을 위해 토큰 사용
LLM 출력물과 인간 작성 텍스트는 토큰 로그 확률 분포 및 entropy 등에서 분명한 차이를 보임
TF-IDF + 휴리스틱 feature를 함께 활용하면 단순 텍스트 분류보다 높은 성능을 낼 수 있음
LightGBM, SGDClassifier, MultinomialNB를 조합한 단순 앙상블만으로도 강력한 성능을 낼 수 있음
CatBoost는 희소 행렬을 직접 지원하지 않아, Google Colab(T4) 환경에서는 제외하는 것이 현실적임
Feature Engineering이 모델 선택만큼 중요하며, Tokenizer 커스터마이징이 실제 성능에 큰 영향을 줌
문제점 및 해결
-> Mistral 모델 다운로드 시 Gated Repo 인증 오류 → Hugging Face 토큰 발급 및 Colab 로그인으로 해결
-> bitsandbytes 4bit 양자화 라이브러리 문제 → 최신 버전 설치 및 런타임 재시작으로 해결
-> CatBoost 오류 (All features are either constant) → 희소 데이터 특성상 CatBoost 제외 결정