해당 내용은 MIT 강의 Statistics for Applications by Philippe Rigollet 의 강의를 보고 기억하고 싶은 내용을 적은 글 입니다. Probability : 전체에 대한 확률을 알고 있고 그것을 바탕으로 Sample을 추정함Stati
해당 내용은 MIT 강의 Statistics for Applications by Philippe Rigollet 를 보고 기억하고 싶은 내용을 적은 글 입니다. Parameter vs Statistics Parameter : 전체 population의 대표값 Stat
Parametric model vs Nonparametric model 지도학습이냐 비지도학습이냐 로 봐도 될듯 Parametric model의 특징은 단순하고 빠르며 복잡도가 낮다고 볼 수 있다 Nonparametric model의 경우는 조금 더 복잡한 모델이며 유
Bias : 정확한 모델의 예측값과 우리의 모델의 평균 예측값의 차이 Variance : high variance 일 경우 training data에는 맞을지 몰라도 test 데이터에는 맞지 않음 (일반화 x)서로가 Tradeoff (Bias 와 Variance 의 그
Fisher Information > Log Likelihood : $l(\theta)= logf(x;\theta)$ >> Fisher Information : $ I(\theta) = E\theta(l'(\theta))^2 = -E\theta l''(\theta)
Z-test, T-test, Paired T-test, ANOVA 등이 있음Sample Data가 normal distribution 이라는 전제Population 과 Same Variance Sample 들은 서로 독립적 Distribution이 Symmetric 하
두 변수 집단 중 상관관계가 있는 변수쌍을 선형관계로 묶어서 새로운 변수를 만들어냄 보통 표준화 된 변수들을 이용하여 정준변수를 만들어 냄 (기여도를 상대적으로 표시) 일반적인 회귀 변수는 각 변수들끼리 비교를 하지만, 정준변수는 집단끼리 비교를 하는 차이점이 있다.
Probability 는 사실 실상에서는 불가능한 경우가 많다.예를들어, 동전을 던질때 앞면이 나올 확률은 0.5라고 한다. 근데, 진짜 0.5일까...? 아닐 확률이 높다. 왜냐하면, 동전이 세월을 거치며 모퉁이가 깨지기도 하고, 완벽한 비율을 가진 동전이 아닐 확률