본 게시글은 주재걸 교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다.
https://www.boostcourse.org/ai251/joinLectures/195088
Notation
Scalar : 소문자
Vector : 굵은 소문자 (기본 형태가 column vector)
Matrix : 대문자
핵심
- 부분공간의 기저 벡터들의 개수는 부분공간의 차원 수와 같다.
Definition : A subspace H is defined as a subset of closed under linear combination
-> 선형결합에 의해 닫혀 있는 벡터들의 집합으로 subspace는 언제나 재료벡터들의 span으로 표현이 된다.
Definition : A basis of a subspace H is a set of vectors that satisfies both of the following:
- Fully spans the given subspace H
- Linearly independent(i.e., no redundancy)
-> subspace를 모두 덮을 수 있는 서로 독립적인 벡터들의 집합이다. (subspace가 2차원이면 기저벡터는 3개가 될 수 없음)
특징 :
Subspace가 주어졌을 때 기저 벡터는 유일하지 않다.
Definition : The column space of a matrix A is the subspace spanned by the columns of A.
We call the columns space A as Col A.
행렬 A의 재료벡터인 컬럼들의 span을 Col A라고 부름
Definition : The rank of a matrix A, denoted by rank A, is the dimension of the column space of A:
rank A = dim Col A
재료벡터가 만드는 차원의 수
만약 어떤 행렬 A가 n x m 이지만 만약 rank A = 1이라면 사실 A가 주는 정보는 많지 않다고 말할 수 있다.
이게 실질적인 정보의 수와 같다.