교육 정보
- 교육 명: 경기미래기술학교 AI 교육
- 교육 기간: 2023.05.08 ~ 2023.10.31
- 오늘의 커리큘럼:
파이썬 기반의 머신러닝 이해와 실습 (06/14~07/07)- 강사: 양정은 강사님
- 강의 계획:
1. 개발환경세팅 - IDE, 가상환경
2. 인공지능을 위한 Python
3. KNN 구현을 위한 NumPy
4. K Nearest Neighbors Classification 구현
5. K Means Clustering Mini-project
6. Scikit-learn을 이용한 SVM의 학습
7. Decision Tree의 개념
8. ID3 Algorithm
9. Impurity Metrics - Information Gain Ratio, Gini Index
10. Decision Tree 구현
11. 확률 기초
12. Bayes 정리 예시
13. Naive Bayes Classifier
14. Gaussian Naive Bayes Classifier
❗ 무조건 지금 이해 할 것
조건부 확률(conditional prodability)
1~100중 1개 선택 P(A) = 1/100
일의 자리가 5이라는 조건이 B이면 P(A|B) = 1/10
짝수라는 조건이 C이면 P(A|C) =1/2
Likelihood(가능성, 우도)
클래스는 구매O,X이고 어떤 현상은 점원에게 말을 거는가 안거는가가 될 수 있음
구매(B) 구매X(¬B), 말걸기(T), 말걸기X(¬T)
P(T|B), P(¬T|B)
P(T|¬B), P(¬T|¬B)
Posterior probability(사후확률)
구매(B) 구매X(¬B), 말걸기(T), 말걸기X(¬T)
P(B|T), P(¬B|T)
P(B|¬T), P(¬B|¬T)
likelihood랑 선후관계가 반대
P(B|T): Posterior Probability - 구하고 싶은 값 (B, ¬B)
P(T|B): likelihood - 하나의 클래스에서(B, ¬B) 현상(T)가 일어날 확률
P(B): prior probability - 구하고 싶은 값(B, ¬B)에 대해 알고있는 확률
P(T): normalization constant
→ 우리가 알고싶은것: P(B|T) - 말을 걸때의 구매 확률
→ 나머지 3개는 구하기 쉬운 값이고 저 값은 구하기 어려운 값이므로 구하기 쉬운데이터에서 모르는 데이터를 구하고자 함
백화점 직원으로써 판매를 늘리기 위해 고객이 진짜 살지말지 판단하고 싶은 상황 (구매의지)
- 구매의지가 있는지 판단하기위한 정보가 필요: 여기서는 말을거는지 안거는지
- 구매의지가 있는지 없는지 (B, ¬B)
- 말을거는지 안거는지 (T, ¬T)
결과와 원인은 위 표 참고 - 원인이 항상 Class 값이 됨
암에 걸린 사람(C), 암이 걸리지 않은 사람 (¬C)
키트를 했을때 양성(P), 키트를 했을때 음성(N)로 할때
Prior probability & likelihood
Joint probability
Posterior probability
Bayes 추정을 통해 특정 부부의 자녀 성별 확률을 추정해보기
이때 첫째가 여아인 부부가 위 3개의 클래스 중 어떤 클래스에 속할 확률을 추정하면 아래와 같음
첫째가 여아라는 정보를 통해 이 부부의 클래스 확률 자체가 업데이트 됨