1개 또는 2개의 집단 평균(정규기반 추정량)을 비교할 때 사용하는 대표적인 모수 검정법
정규성등분산성 을 가정하는 경우가 많음표본이 많으면 정규성은 사실상 크게 신경 쓰지 않아도 됨

표본수가 충분히 크면
→ 중심극한정리에 따라 정규성 가정이 완화됨
실제로 AB 테스트에서는 거의 정규성을 따지지 않음
하지만 소표본일수록 정규성과 등분산성 확인이 매우 중요
모집단의 분포를 전제로 하지 않는 검정 방법
→ 정규분포를 가정하지 않아도 사용할 수 있음
현실의 데이터는 정규분포를 가정할 수 없는 경우가 많고, 이럴 땐
모수(평균, 분산)를 비교하는 것을 신뢰할 수 없음.

3개 이상 집단의 평균 차이를 비교하는 검정방법
(t검정의 확장 형태)
3개 이상의 집단에서 평균 비교를 위해 t검정을 계속 쓰면:
분산을 나눠서 비교함으로써 평균 차이를 판단
“세 그룹의 평균 전환율이 전부 같은가?”
를 통합해서 검정한다.
ANOVA는
“어느 집단끼리 다른지”는 알려주지 않고
“차이가 존재하는지 여부”만 알려줌
→ 그래서 유의미한 차이가 나면, 사후검정(Post-hoc test) 이 필요함
범주형 데이터를 숫자로 표현하면 비율 또는 빈도가 된다
→ 이때 이항분포 / 포아송분포가 등장!
수치가 아닌 범주(label) 로 구분되는 변수
구매/비구매, 성공/실패, 클릭/비클릭상/중/하), 학점(A/B/C)처럼숫자로 변환해 비율/빈도를 비교하는 방식
(이산형 형태 분석)
0과 1로 변환 범주 자체의 분포나 관계를 비교하는 방식
(범주형 관계 검정)
두 개 집단의 비율 차이가 통계적으로 유의한지 비교할 때 사용
→ 실무 AB테스트에서 거의 항상 쓰는 기본 검정
예시 느낌:
우리가 자주 던지는 질문들 👇
이런 질문들은
→ “범주형 변수들끼리 서로 관련이 있는지”를 보는 문제
두 개의 범주형 변수의 관계 또는 분포 차이를 판단하는 대표적인 방법
두 범주형 변수 간에 관련이 있는지(독립인지) 를 검정할 때 사용
scipy.stats:scipy라이브러리 내에서
통계검정, 확률분포, 샘플링에 유용한 모듈
from scipy import stats
# 예시 1) 독립표본 t검정
stats.ttest_ind(group_a, group_b, equal_var=True) # 등분산 가정일 때
stats.ttest_ind(group_a, group_b, equal_var=False) # Welch t-test
# 예시 2) 두 비율 z검정 (직접 구현 예시)
# 클릭수: click_a, click_b
# 노출수: n_a, n_b
# 예시 3) 카이제곱 독립성 검정
from scipy.stats import chi2_contingency
chi2, p, dof, expected = chi2_contingency(contingency_table)