본 게시글은 주재걸 교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다.
https://www.boostcourse.org/ai251/joinLectures/195088
Notation
Scalar : 소문자
Vector : 굵은 소문자 (기본 형태가 column vector)
Matrix : 대문자
키워드
- 선형결합 - 행렬을 재료벡터로 분해해서 기하학적으로 보는 도구
- Span - 재료벡터의 선형결합으로 나타낼 수 있는 집합
Linear Combinations (Matrix Equation -> Vector Equation)
같은 차원의 벡터들을 상수배 하여 더하는 것이 선형결합이다.
이를 이용하면 행렬의 곱으로 나타내어진 Matrix Equation을 Vector Equation으로 표현할 수 있다.
⎝⎜⎛6065555.55.06.0101⎠⎟⎞⎝⎜⎛x1x2x3⎠⎟⎞=⎝⎜⎛667478⎠⎟⎞
⎝⎜⎛606555⎠⎟⎞x1+⎝⎜⎛5.55.06.0⎠⎟⎞x2+⎝⎜⎛101⎠⎟⎞x3=⎝⎜⎛667478⎠⎟⎞
이렇게 Vector Equation으로 표현하게 되면 우리는 기하학적으로 위 식을 이해할 수 있게 된다.
Span이라는 개념을 이용하여 위 방정식의 해의 유무를 바로 알 수 있다.
Span
Span은 재료 벡터들이 주어졌을 때 그 재료 벡터들을 선형결합하여 만들 수 있는 모든 벡터의 집합이다.
즉, 평행하지 않은 2개의 벡터가 있으면 Span은 한 평면을 모두 표현할 수 있다.
2개의 벡터가 만드는 평면에 나머지 하나의 벡터가 속하지 않는 경우 3개의 벡터가 있으면 Span은 공간을 표현하게 된다.
다시 이해하고자 하는 방정식으로 돌아와서, 이때의 x1, x2, x3는 선형결합의 계수라고 볼 수 있다. 즉 세 벡터가 만드는 span위에 (66,74,78)이 있다면 위 식을 만족하는 x1, x2, x3도 존재함을 알 수 있다.
⎝⎜⎛606555⎠⎟⎞x1+⎝⎜⎛5.55.06.0⎠⎟⎞x2+⎝⎜⎛101⎠⎟⎞x3=⎝⎜⎛667478⎠⎟⎞
Matrix Multiplications을 이해하는 4가지 방법
1) as Linear Combinations of Vectors
위에서 본 것처럼 행렬곱을 재료벡터 (열벡터) 들의 선형결합으로서 이해한다.
⎝⎜⎛6065555.55.06.0101⎠⎟⎞⎝⎜⎛x1x2x3⎠⎟⎞=⎝⎜⎛667478⎠⎟⎞
⎝⎜⎛606555⎠⎟⎞x1+⎝⎜⎛5.55.06.0⎠⎟⎞x2+⎝⎜⎛101⎠⎟⎞x3=⎝⎜⎛667478⎠⎟⎞
2) as Column Combinations
⎝⎜⎛6065555.55.06.0101⎠⎟⎞⎝⎜⎛x1x2x3y1y2y3⎠⎟⎞=⎝⎜⎛a1a2a3b1b2b3⎠⎟⎞
a=⎝⎜⎛606555⎠⎟⎞x1+⎝⎜⎛5.55.06.0⎠⎟⎞x2+⎝⎜⎛101⎠⎟⎞x3
b=⎝⎜⎛606555⎠⎟⎞y1+⎝⎜⎛5.55.06.0⎠⎟⎞y2+⎝⎜⎛101⎠⎟⎞y3
다음과 같이 열벡터끼리 쪼개서 볼 수 있다.
3) as Row Combinations
(AX)T=XTAT임을 이용해서 마찬가지로 행벡터로 해석할 수 있다.
4) Sum of (Rank-1) Outer Products
⎝⎜⎛123456⎠⎟⎞(100110)=⎝⎜⎛123⎠⎟⎞(101)+⎝⎜⎛456⎠⎟⎞(010)
큰 행렬을 분해해서 다음과 같이 외적의 합으로 나타낼 수 있다.
행렬을 분해해보고 싶을 때 주로 사용할 수 있다.
강의 출처
https://www.boostcourse.org/ai251/lecture/540314?isDesc=false