Section2-Sprint1 선형회귀
[Today I Learned]
Warm-up
-
Introduction to Linear regression
1) 관측치 x,y의 평균 계산
2) x−xˉ , y−yˉ 계산
3) x−xˉ2 , (x−xˉ)(y−yˉ) 계산
4) 기울기(β1) = ∑(x−xˉ)(y−yˉ)∑(x−xˉ)2
5) 회귀식 y=β1x+β0에 (x의 평균, y의 평균) 값을 넣어 y절편(β0) 계산
- 기울기(β1) : 종속변수와 독립변수의 관계
- Tabular data의 특징
- Observation (관측치)
- Variable (변수)
- Relationships (관계)
- Comparing Classification and Regression
지도학습에서 분류(Classification)와 회귀(Regresssion)의 차이
- Output type (Class label vs Continuous)
- What are you trying to find? (Desicion boundary vs Best fit line)
- Evaluation (Accuracy vs Sum of squared error/R2)
Session - n211
- 선형 회귀 (Linear Regression)
- 기준모델 (Baseline Model)
- scikit-learn을 활용한 선형회귀모델
- ipywidgets 활용
과제
각 파라미터(단순선형회귀에서는 β0,β1)들의 편미분 값을 0으로 두고 연립방정식을 통해 최적의 파라미터 값을 구한다.