# Linear Algebra

Least Squares
항상 공부하지만 쉽지 않습니다,,알면 알수록 더 깊은 학문이네요 머리로 이해는 했지만 글로 쓰려니 더욱 찾아보고 오히려 더 공부하는 느낌이 듭니다..🥲 그럼 시작하겠습니다!😇 Least Squares 최소제곱법으로도 불리는 방법은 ml- linear regress
1. Independence & Orthogonality & Uncorrelatedness
선형 대수에서 indenpendence(독립), orthogonality(직교)는 굉장히 중요한 개념이다. 하지만 통계 공부를 하다 보면, 확률 변수들 간의 independence, correlation이라는 개념을 배우게 되며 혼란스러워지기 시작한다.확률 변수들 간의
Linalg
선형대수학을 공부했던 내용을 정리하고 기록하려고 합니다. 제가 이해했던 것들을 위주로 적기 때문에 틀리거나 부정확한 것들이 있을 수 있습니다. 😢 그럼 시작하겠습니다!! > Linear dependence와 independence 구별 선형 독립과 선형 종속
7.5 Principal Component Analysis
이번 포스트에서는 Principal Component Analysis(주성분 분석)에 대해서 알아보겠습니다.
7.4 Properties with Singular Value Decomposition
이번 포스트에서는 Singular value decomposition을 이용하여 얻을 수 있는 다양한 matrix와 vector space의 성질에 대해서 알아보겠습니다.
7.3 Singular Value Decomposition
이번 포스트에서는 Singular Value Decomposition에 대해 다루어보겠습니다.
7.2 Quadratic Form
이번 포스트에서는 quadratic form에 대해 알아보겠습니다.Quadratic form이 무엇인지 알아보겠습니다.
7.1 Diagonalization of Symmetric Matrices
이번 포스트에서는 Symmetric matrix의 특별한 성질에 대해서 알아보도록 하겠습니다.

6.7 Application : Linear regression
이번 포스트에서는 orthogonal projection의 응용인 linear regression(선형 회귀)에 대해서 알아보겠습니다.

5.4 Complex Eigenvalue
이번 포스트에서는 complex eigenvalue에 대해서 알아보겠습니다. 1) Complex eigenvalue Matrix의 characteristic equation은 $\lambda$에 대한 polynomial equation 형태로 나오게 됩니다. pol