Regression Analysis Lecture Note 2 정리
Introduction to Simple Linear Regression
2.1 Relations Between Variables
2.2 Simple Linear Regression Model
Yi=β0+β1Xi+ϵi
- random: Yi,ϵi
fixed(constant): β0,β1,Xi
unknown parameters: β0β1
Linear: 지수함수. 또는 다른 parameter로 나눠지지 않은 형태 (Y=β0+β1X2은 가능)
ϵi 는 E(ϵi)=0,Var(ϵi)=σϵ2,Cov(ϵi,ϵj)=0 for i=j
E(Yi)=β0+βXi -> trend line
Var(Yi)=σϵ2 -> 모두 동일한 분산
Cov(Yi,Yj)=0
proof
E(Yi)=E(β0+βXi+ϵi)=β0+βXi+E(ϵi)=β0+β1Xi
Var(Yi)=Var(β0+β1Xi+εi)=Var(εi)=∂ε2
Cov(Yi,Yj)=Cov(B0+B1Xi+εi,B0+B1Xj+εj)=Cov(B0+B1Xi,B0+B1Xj)+Cov(B0+B1Xi,εj)+Cov(B0+B1Xj,ϵi)+Cov(εi,εj)=0
Assumptions of Linear Regression
=> HEIL Gauss
- Homoscedasticity: 모든 X에 대해 분산 동일
- Existence: Y는 유한한 평균과 분산을 가져야함
- Independence: Y들은 서로 독립
- Linearity: Y의 평균은 선형적
- Gaussian: ϵ,Y은 정규분포를 따른다.