Regression Analysis 2

ese2o·2024년 4월 20일
0

Regression Analysis Lecture Note 2 정리

Introduction to Simple Linear Regression

2.1 Relations Between Variables

  • Simple Linear Regression
    X; predictor 랑 Y;response 사이의 관계.
    Simple; we have only one predictor

  • Functional Relation: Y=f(X)Y=f(X)
    Statistical Relation: Y=f(X)+ϵY=f(X)+\epsilon

2.2 Simple Linear Regression Model

Yi=β0+β1Xi+ϵiY_i=\beta_0+\beta_1X_i+\epsilon_i
  • random: Yi,ϵiY_i, \epsilon_i
    fixed(constant): β0,β1,Xi\beta_0, \beta_1, X_i
    unknown parameters: β0β1\beta_0 \beta_1
    Linear: 지수함수. 또는 다른 parameter로 나눠지지 않은 형태 (Y=β0+β1X2Y=\beta_0+\beta_1 X^2은 가능)

ϵi\epsilon_iE(ϵi)=0,Var(ϵi)=σϵ2,Cov(ϵi,ϵj)=0E(\epsilon_i)=0, Var(\epsilon_i)=\sigma^2_\epsilon, Cov(\epsilon_i, \epsilon_j)=0 for iji \ne j

E(Yi)=β0+βXiE(Y_i)=\beta_0+\beta X_i -> trend line
Var(Yi)=σϵ2Var(Y_i) = \sigma^2_\epsilon -> 모두 동일한 분산
Cov(Yi,Yj)=0Cov(Y_i, Y_j)=0

proof

E(Yi)=E(β0+βXi+ϵi)=β0+βXi+E(ϵi)=β0+β1XiE(Y_i)=E(\beta_0+\beta X_i+\epsilon_i)=\beta_0+\beta X_i+E(\epsilon_i)=\beta_0+\beta_1 X_i

Var(Yi)=Var(β0+β1Xi+εi)=Var(εi)=ε2\operatorname{Var}\left(Y_i\right)=\operatorname{Var}\left(\beta_0+\beta_1 X_i+\varepsilon_i\right)=\operatorname{Var}\left(\varepsilon_i\right)=\partial_{\varepsilon}^2

Cov(Yi,Yj)=Cov(B0+B1Xi+εi,B0+B1Xj+εj)=Cov(B0+B1Xi,B0+B1Xj)+Cov(B0+B1Xi,εj)+Cov(B0+B1Xj,ϵi)+Cov(εi,εj)=0\operatorname{Cov}\left(Y_i, Y_j\right)=\operatorname{Cov}\left(B_0+B_1 X_i+\varepsilon_i, B_0+B_1 X_j+\varepsilon_j\right)=\operatorname{Cov}\left(B_0+B_1 X_i, B_0+B_1 X_j\right)+\operatorname{Cov}\left(B_0+B_1 X_i, \varepsilon_j\right)+\operatorname{Cov}\left(B_0+B_1 X_j, \epsilon_i\right)+\operatorname{Cov}\left(\varepsilon_i, \varepsilon_j\right)=0

Assumptions of Linear Regression

=> HEIL Gauss

  • Homoscedasticity: 모든 X에 대해 분산 동일
  • Existence: Y는 유한한 평균과 분산을 가져야함
  • Independence: Y들은 서로 독립
  • Linearity: Y의 평균은 선형적
  • Gaussian: ϵ,Y\epsilon, Y은 정규분포를 따른다.

0개의 댓글