본 포스팅은 Fastcampus 강의를 수강하며 일부 내용을 정리한 글임을 밝힙니다. 보다 자세한 내용은 아래 강의를 통해 확인해주세요.
참고 : Fastcampus 딥러닝을 활용한 추천시스템 구현 올인원 패키지 Online
Ch 04. Contents-based Recommender System
베이즈 정리(Bayes' Theorem)
- 공식
- P(A∣B)=P(B)P(B∣A)P(A)
- P(A):사전확률(prior), P(A∣B):사후확률)(posterior)(구하고자 하는 것)
- 사전확률
- 사후확률:
- 사건 B가 사건 A로부터 발생했다는 가정하에 사건 A의 확률 업데이트
- 베이즈 정리를 통해 사후확률 계산
나이브베이즈 분류기(Naive Bayes Classifier)
-
베이즈 정리에 의한 통계기반 분류 알고리즘
-
특징
- 아이템의 특징(feature, attribute 등)끼리 서로 독립
- 영화 장르와 영화 감독이 서로 연관이 없는 특징이어야 함!
- 데이터 셋이 커도 모델 예측에 관계 없다
- 연속 변수보다 이산 변수에 더 잘 맞음(서로 독립인 것과 일맥상통한 부분)
- 간단하고 계산량 적은 모델
- 데이터 차원 높아질수록 모든 class에 대해 확률이 0으로 수렴
➡️ 이를 방지하기 위해 Laplace Smoothing 활용(+1 등 숫자를 더해서 0이 되는 것을 방지)