AI 부트캠프 2기 - Day 23

Jeongwoo Lee·2021년 4월 5일

Codestates AI Bootcamp

목록 보기
18/19

Section2-Sprint1 선형회귀

[Today I Learned]

Warm-up

  • Introduction to Linear regression
    1) 관측치 x,yx, y의 평균 계산
    2) xxˉx-\bar{x} , yyˉy-\bar{y} 계산
    3) xxˉ2x-\bar{x}^2 , (xxˉ)(yyˉ)(x-\bar{x})(y-\bar{y}) 계산
    4) 기울기(β1\beta_1) = (xxˉ)2(xxˉ)(yyˉ)\frac{\sum{(x-\bar{x})^2}} {\sum{(x-\bar{x})(y-\bar{y})}}
    5) 회귀식 y=β1x+β0y = \beta_1x + \beta_0에 (xx의 평균, yy의 평균) 값을 넣어 yy절편(β0\beta_0) 계산

    • 기울기(β1\beta_1) : 종속변수와 독립변수의 관계
  • Tabular data의 특징
    • Observation (관측치)
    • Variable (변수)
    • Relationships (관계)
  • Comparing Classification and Regression
    지도학습에서 분류(Classification)회귀(Regresssion)의 차이
    • Output type (Class label vs Continuous)
    • What are you trying to find? (Desicion boundary vs Best fit line)
    • Evaluation (Accuracy vs Sum of squared error/R2R^2)

Session - n211

  • 선형 회귀 (Linear Regression)
  • 기준모델 (Baseline Model)
  • scikit-learn을 활용한 선형회귀모델
  • ipywidgets 활용

과제

  • 단순선형회귀모형의 조건

    • 선형성
    • 독립성
    • 등분산성
    • 정규성
  • Ordinary least square(최소제곱법/최소자승법)

    • 잔차 제곱합(RSS)를 최소화하는 파라미터를 구하는 방법

각 파라미터(단순선형회귀에서는 β0,β1\beta_0, \beta_1)들의 편미분 값을 0으로 두고 연립방정식을 통해 최적의 파라미터 값을 구한다.

profile
열심히 하자

0개의 댓글