이번 포스트에서는 선형 대수학에서 매우 중요한 개념 중 하나인 linear independence에 대해 알아보겠습니다.
1) Homogeneous Linear system
Linear independence는 homogeneous linear system의 개념을 이용하여 정의합니다.
Definition : Homogeneous Linear system
Linear system이 다음과 같은 form을 가질 때
Ax=0
linear system이 homogeneous하다라고 합니다. (A:m×n matrix, 0 : zero vector in Rm)
즉, 일반적인 linear system
Ax=b
에서 b=0인 경우를 homogenous linear system이라고 합니다.
이 linear system은 일반적인 linear system과 달리 특징이 있습니다. 이는 바로, A에 상관없이 반드시 위 linear system은 solution을 가집니다. 그 solution은 x=0이구요.
x=0는 A에 상관없이 반드시 성립하기 때문에, homogeneous linear system에서의 solution x=0을 trivial solution이라고 합니다.
또한, A에 따라서 위 homogeneous linear system은 x=0이 아닌 다른 solution을 가질 수 있는데, 다른 solution을 nontrivial solution이라고 합니다.
linear system에서의 solution 타입은 3가지로, solution이 없는 경우, solution이 하나만 있는 경우, solution이 무수히 많은 경우입니다. homogeneous linear system에서는 solution이 반드시 하나 존재하기 때문에, 우리의 관심은 solution이 하나인지, solution이 무수히 많은지 확인하는 것입니다.
또한,
Ax=b
에서 b=0인 linear system을 nonhomogeneous linear system이라고 합니다.
위의 homogeneous linear system 개념을 이용하여 linear independence를 정의합니다.
2) Linear Independence
Linear independence는 다음과 같이 정의됩니다.
Definition : Linear independence
An Indexed set of vectors {v1,v2,...,vp} in Rn is said to be linearly independent if the vector equation
x1v1+x2v2+⋯+xpvp=0
has only trivial solution
The set {v1,v2,...,vp} is said to be linearly dependent if there exist weights c1,c2,...,cp, not all zero, such that
c1v1+c2v2+⋯+cpvp=0
The indexed set is linear dependent if and only if it is not linearly independent.
즉 vector가 원소인 집합 {v1,v2,...,vp} 이 linearly independent하다는 뜻은 이 vector를 이용한 homogeneous linear system이 trivial solution만을 가진다는 뜻입니다.
만약 homogeneous linear system이 trivial solution이 아닌 non trivial solution을 가진다면, 이 집합은 linearly dependent하다고 합니다.
여기서, homogeneous linear system의 solution 타입은 solution이 하나만 있거나(trivial solution), solution이 무수히 많은 경우(nontrivial solution) 두 가지밖에 없기 때문에, linearly independent와 linearly dependent는 상반된 개념입니다. 즉, linearly independent하지 않으면 linearly dependent하고, linearly dependent하지 않으면, linearly independent합니다.
example 1)
v1=⎣⎢⎡123⎦⎥⎤,v2=⎣⎢⎡456⎦⎥⎤,v3=⎣⎢⎡210⎦⎥⎤
위 세 벡터로 이루어진 집합 {v1,v2,v3}이 linearly dependent한지 linearly independent한지 확인해보기 위해서 vector equation
x1v1+x2v2+x3v3=0
를 풀면
⎣⎢⎡123456210000⎦⎥⎤∼⎣⎢⎡1004−3−22−3−2000⎦⎥⎤∼⎣⎢⎡100010−210000⎦⎥⎤
이 되어
x1=2x3x2=−x3x3: free variable
이 됩니다. 즉, trivial solution이 아닌 다른 solution(nontrivial solution)이 존재하기 때문에 {v1,v2,v3}은 linearly dependent합니다.
(1) Linear independence and Matrix column
위의 개념을 matrix equation으로 끌고 오면, matrix column에서도 linear independence를 정의할 수 있습니다.
m×n matrix A를 다음과 같이 정의하면
A=[a1a2...an]
Ax=0을 다음과 같이 정의할 수 있습니다.
x1a1+x2a2+⋯+xnan=0
Matrix eqation
Ax=0
이 trivial solution만을 가질 때, matrix A의 columns이 linearly independent하다고 합니다.
example 2)
A=⎣⎢⎡0151284−10⎦⎥⎤
위 matrix를 이용한 matrix equation Ax=0를 풀면
⎣⎢⎡0151284−10000⎦⎥⎤∼⎣⎢⎡100010001000⎦⎥⎤
x1=0x2=0x3=0
와 같이 trivial solution만 존재합니다. 따라서 A의 columns은 linearly independent합니다.
(2) Special Case of linearly independence
특정 집합의 경우 linear independence를 vector equation을 풀지 않고도 바로 확인할 수 있습니다.
다음의 집합의 경우 linearly dependent합니다. 이는
x10=0
를 만족시키는 x1이 실수 전체이기 때문입니다.
- Zero vector가 아닌 vector 하나만 있는 경우
다음 집합의 경우는 linearly independent합니다.
x1v=0
를 만족하는 x1은 0밖에 없기 때문입니다. 즉 trivial solution만을 가지므로 linearly independent합니다.
{v1,v2}
다음의 집합의 경우, linear independence를 판별하기 위해
x1v1+x2v2=0
의 solution을 생각해봅시다. 만약 v2가 v1의 실수배이면, 즉 v2=kv1이면,
x1v1+x2v2=(x1+kx2)v1=0
이 되어, x1=x2=0이 아닌 다른 solution x1=−kx2가 존재합니다. 따라서 이 경우에는 linearly dependent합니다.
만약 v2가 v1의 실수배가 아닌 경우, 위 집합은 linearly independent합니다.
이 case를 자세히 살펴보면 independent, dependent를 용어로 사용한 이유를 알 수 있습니다.
{v1,v2}
가 linearly dependent한 경우에는, v2가 v1의 실수배로, 즉 v2=kv1로 표현할 수 있습니다. 즉, 하나의 vector를 다른 vector로 표현할 수 있습니다(일차식으로, 또는 선형적으로). 따라서 두 벡터간에 선형 관계가 있기 때문에, independent가 아닌 dependent하다라고 말할 수 있습니다.
만약 v2가 v1의 실수배가 아닌 경우, v2을 v1에 대한 선형식으로 표현할 수가 없습니다. 따라서 선형적으로 독립, independent하다고 말할 수 있습니다.
위 case를 일반적인 case로 확장한 정리가 다음 정리입니다.
Theorem : Characterization of Linearly Dependent Sets
An indexed set S={v1,v2,...,vp} of two or more vectors is linearly dependent if and only if at least one of the vectors in S is a linear combination of others.
In fact, if S is linearly dependent and v1=0, then some vj (with j>1) is a linear combination of the preceding vectors v1,v2,...,vj−1
정리하면, 'S가 linearly dependent하다.'와 동치인 명제는, 'S에 속한 적어도 하나의 vector가 나머지 vector들의 linear combination으로 표현된다.'입니다. 여기에 추가적으로, 만약 S 가 linearly dependent하고 v1=0이면, 적어도 하나의 vector vj가 j보다 작은 index를 가진 vector들의 linear combination으로 표현됩니다. 즉, linearly dependent하면, 적어도 하나의 vector가 나머지 vector들의 linear combination으로 표현됩니다.
정리에 대한 증명은 밑 부분 appendix에 남겨두겠습니다.
벡터의 성분의 수보다 집합에 존재하는 벡터의 수가 더 많은 경우 그 집합은 linearly dependent합니다. 즉, S={v1,v2,...,vp} in Rn에서,
인 경우 S는 linearly dependent합니다.
이 증명 또한 appendix에 남기겠습니다.
Zero vector를 포함한 집합은 linearly dependent합니다.
위의 special case의 경우는 굳이 linear independence를 확인하기 위해 vector equation을 풀지 않고도 linear independence를 확인할 수 있는 방법입니다.(물론 증명할 때는 정의를 이용합니다.)
지금까지 선형대수학에서 중요한 개념 중 하나인 linear independence에 대해 알아보았습니다. 다음 포스트에서는 matrix의 개념과 기본적인 matrix에 대해 알아보겠습니다. 질문이나 오류 있으면 댓글로 남겨주세요! 감사합니다!
Appendix : Proof of Theorem
1) Characterization of Linearly Dependent Sets
An indexed set S={v1,v2,...,vp} of two or more vectors is linearly dependent if and only if at least one of the vectors in S is a linear combination of others.
In fact, if S is linearly dependent and v1=0, then some vj (with j>1) is a linear combination of the preceding vectors v1,v2,...,vj−1
위 정리에서 밝혀야 하는 명제가 두 개 입니다. 첫 번째로
An indexed set S={v1,v2,...,vp} of two or more vectors is linearly dependent if and only if at least one of the vectors in S is a linear combination of others.
에 대해 증명을 해보겠습니다.
(1) → 방향
S={v1,v2,...,vp}가 linearly dependent하기 때문에 적어도 하나는 0이 아닌 c1,c2,...,cp가 다음을 만족합니다.
c1v1+c2v2+⋯+cpvp=0
위에서 cj=0을 만족하는 cj에 대해서, cjvj항만 우변으로 넘겨서 정리하면
−cjvj=c1v1+c2v2+⋯+cj−1vj−1+cj+1vj+1+⋯+cpvp
가 되고, −cj=0이므로 이를 양변에 나누어주면
vj=−cjc1v1+−cjc2v2+⋯+−cjcj−1vj−1+−cjcj+1vj+1+⋯+−cjcpvp
다음과 같이 vj가 이를 제외한 나머지 vector들의 linear combination으로 표현됩니다.
(2) ← 방향
S의 원소 vj이 S의 나머지 vector들의 linear combination으로 표현된다고 가정해봅시다.
vj=c1v1+c2v2+⋯+cj−1vj−1+cj+1vj+1+⋯+cpvp
여기서 vj를 우변으로 넘겨 정리하면
c1v1+c2v2+⋯+cj−1vj−1+vj+cj+1vj+1+⋯+cpvp=0
이 됩니다. 이 때, c1,...,cj−1,cj+1,...,cp값이 어떤 값이든 간에 위 식에서의 c1,...,cj−1,1,cj+1,...,cp는
x1v1+x2v2+⋯+xpvp=0
의 solution이고, nontrivial solution입니다. 따라서 S는 linearly dependent합니다.
두 번째 명제
In fact, if S is linearly dependent and v1=0, then some vj (with j>1) is a linear combination of the preceding vectors v1,v2,...,vj−1
을 증명해보겠습니다. S가 linearly dependent하므로, 적어도 하나는 0이 아닌 c1,c2,...,cp가 다음을 만족합니다.
c1v1+c2v2+⋯+cpvp=0
여기서 ci=0을 만족하는 i 중에서 가장 큰 index를 j라고 하겠습니다. 그러면
c1v1+c2v2+⋯+cj−1vj−1+cjvj+0×vj+1+⋯0×vp=0
와 같이 식을 표현할 수 있습니다. 이는
c1v1+c2v2+⋯+cj−1vj−1+cjvj=0
이 됩니다. 이제 cjvj항만 우변으로 넘겨서 정리하면
cjvj=c1v1+c2v2+⋯+cj−1vj−1
cj=0이므로 양변에 cj를 나누어주면
vj=−cjc1v1−cjc2v2+⋯−cjcj−1vj−1
와 같이 vj이 v1,v2,⋯,vj−1의 linear combination으로 표현 가능합니다.
2) Vector의 수와 vector의 성분의 수
벡터의 성분의 수보다 집합에 존재하는 벡터의 수가 더 많은 경우 그 집합은 linearly dependent합니다. 즉, S={v1,v2,...,vp} in Rn에서,
인 경우 S는 linearly dependent합니다.
S가 linearly independent한지 아닌지 확인하기 위해 vector equation
x1v1+x2v2+⋯+xpvp=0
을 생각해봅시다. 이 vector equation의 결과와 상응하는 linear system의 augmented matrix는
[v1v2...vp0]
입니다. 이 때, 이 matrix는 n×(p+1) matrix입니다.
이 matrix를 row operation을 통해서 reduced echelon form을 만들었을 때 나타나는 leading entry는 최대 n개입니다. (n<p이기 때문입니다.) 즉, 위 augmented matrix의 pivot column은 최대 n개가 되고, pivot column이 아닌 column이 반드시 두개 이상 존재하게 됩니다.
따라서 위의 linear system에서 free variable이 존재하고, 이는 위의 linear system의 solution이 무수히 많은 것을 뜻합니다. 즉, trivial solution이 아닌 nontrivial solution이 존재하므로, S는 linearly dependent합니다.
3) Zero vector를 포함한 집합
Zero vector를 포함한 집합은 linearly dependent합니다.
S={0,v2,...,p} 집합의 linear independence를 확인하기 위해 vector eqation
x10+x2v2+⋯+xpvp=0
을 생각해봅시다. 이 때, x1=0,x2=x3=⋯=xp=0인 경우 위 equation이 성립합니다. 즉, nontrivial solution이 존재하기 때문에 S는 linearly dependent합니다.