기본적으로 행렬로 표현된 연립방정식을 푸는 방법은 두가지가 있다. Forward Elimination Backward Elimination ![](https://velog.v
Review Subspace는 vector space의 조건을 만족하면서, vector space의 부분집합이 되는 space를 의미한다. 또한 하나의 vector는 무조건 0-vector여야한다. Column Space of A(열벡터 공간)은 행렬에 존재하는 모든 column vector의 선형결합들의 모든 집합을 의미한다. Null Space ...
이번 강의에서는 Linear Independce와 Basis에 대해서 배웠다. 먼저 선형독립과 기저벡터는 머신러닝에서 차원축소(PCA, SVD)와 LDA에서 들었던 기억이 있다. Review 먼저 지난 강의에서는 rectangular matrix의 경우 null space와 null space가 아닌 Ax=b의 해집합을 어떻게 나타낼지에 대해 배웠다. ...
Review Linear Independence Linear Independence는 서로 다른 vector를 통해 다른 하나의 linear combination을 만들지 못하는 vector들의 조합을 의미한다. Spanning Span이란 vector를 가지고 vector space를 만들 수 있는 모든 linear combination을 의미한다...
Linear Transformation 행렬 A를 하나의 system으로 본다면 X는 input vector, b는 output vector로 생각할 수 있다. 행렬 A의 dimension이 mxn일 때, Ax=b는 n차원 space의 vector X를 m차원 space의 vector b로 mapping하는것으로 볼 수 있다. 이때 A를 linear tr...
Orthogonality 두 vector 직교(Orthogonal)이면 수직이고 두 vector사이의 각도가 90도 임을 의미한다. 직교를 찾는 이유는 다음과 같다. Linearly independent basis Easy calculation in linear combination Orthgonal vector는 basis vector이고 span이...
Review Vector space V,W가 n차원 space의 vector일 때, 모든 X, Y의 vector는 수직 관계이다. 모든 vector가 수직관계라면 내적 값은 모두 0이다. 또한 vector space도 전부 수직이다. Linear independent한 basis vector들이 다른 vector와 수직관계라면 vector space의 ...
Review Square system Ax=b라는 연립방정식의 solution을 구하는 과정은 3가지를 배웠다. 먼저 Square system으로 주어진 방정식을 가우스 소거법을 통해 하나의 unique한 solution을 구했고 만약 solution이 존재하지 않으면 vector space를 통해 solution을 정의했다. Under constr...
오늘 강의에선 QR분해에 대해서 배웠다. QR분해를 왜 하는것일까? 예를 들어, $Ax = b$라는 식의 $x$를 구하기 위해서는 A의 역행렬을 각각 곱해주면 된다. 그러나 역행렬을 구하는것은 시간이 오래걸리고 수치의 안정성이 떨어진다고 하여 행렬을 직교화하는 QR분해를 사용한다. Generalized Least Square 일반최소제곱법(GLS)는 ...