이번 포스트에서는 inner product, length, orthogonality에 대해서 알아보도록 하겠습니다.
1) Inner Product
Rn에 속하는 두 벡터 v,u 간의 inner product는 다음과 같이 정의됩니다.
Definition : Inner product
If v,u∈Rn, such that
u=⎣⎢⎢⎡u1⋮un⎦⎥⎥⎤,v=⎣⎢⎢⎡v1⋮vn⎦⎥⎥⎤
The number vTu is called the inner product of u and v.
u⋅v=vTu=u1v1+⋯+unvn=Σi=1nuivi
즉 각각 벡터의 같은 위치의 성분을 더하고 합한 것을 두 벡터의 inner product, 내적이라고 합니다. 정의에서 알 수 있듯이 같은 공간 Rn에 있는 두 벡터 간의 연산입니다.
example
u=⎣⎢⎡213⎦⎥⎤,v=⎣⎢⎡42−1⎦⎥⎤
일 때
u⋅v=vTu=2×4+1×2+3×(−1)=7
(1) Property of the inner product
Inner product에 대한 성질은 다음과 같습니다.
Property of inner product
If u,v,w∈Rn and k∈R
u⋅v=v⋅u
(u+v)⋅w=u⋅w+v⋅w
(cu)⋅v=c(u⋅v)
u⋅u≥0, u⋅u=0 if and only if u=0
inner product는 교환법칙이 성립합니다. 두 번째로 분배 법칙 또한 성립합니다. 세 번째는, scalar multiple에 대해서 inner product와의 연산 순서를 바꾸어도 결과는 변하지 않습니다. 마지막 성질이 inner product의 중요한 성질 중 하나인데, 같은 벡터의 inner product는 항상 0보다 크고, inner product 값이 0이 나오는 벡터는 zero vector만 존재합니다.
2) The length of a vector
Definition : Length
The length (or norm, 크기) of v is the non negative scalar.
∥v∥=v12+⋯+vn2,∥v∥2=v⋅v
어떤 벡터의 length, norm, 크기는 해당 벡터의 inner product에 루트를 취한 값으로 정의합니다.
여기서 vector의 length가 1인 벡터를 unit vector라고 합니다.
example
v=(1,−2,2,0)
일 때
∥v∥=v⋅v=1+4+4=3
(1) Properties of length
length에 대한 성질은 다음과 같습니다.
Property of length
Let v∈Rn,k∈R
∥cv∥=∣∣∣c∣∣∣∥v∥
Normalizing : devide a nonzero vector v by its length - unit vector ∥v∥1v
첫 번째로 scalr multiple한 벡터의 length는 원래 벡터의 length에 scalar의 절댓값을 취한 값을 곱한 값으로 결과가 나옵니다. 두 번째는, 임의의 nonzero 벡터를 그 벡터의 length로 나누어서 unit vector로 만들 수 있습니다. normalizing을 한 벡터는 원래 벡터와 방향은 같지만 length는 1인 unit vector가 됩니다.
3) Distance
Definition : Distance
If u,v∈Rn, the distance between u and v is the length of the vector u−v
dist(u,v)=∥u−v∥
두 벡터 사이의 거리는 두 벡터의 차의 크기로 정의합니다.
R2의 경우, 우리가 알고 있는 두 점 사이의 거리와 결과가 같습니다. 이전 벡터에 대해서 설명할 때, 시점을 원점으로 고정시키면 벡터와 점은 일대일 대응이 가능하다고 하였습니다. 이를 통해 두 벡터간 거리와 점과 점 사이의 거리 식이 같은 것을 알 수 있습니다.
x=[x1x2],y=[y1y2]
의 경우 위 벡터를 점으로 보면, 두 점 사이의 거리는
(x1−y1)2+(x2−y2)2=∥x−y∥2=∥x−y∥
인 것을 알 수 있습니다.
4) Orthogonal Vectors
Definition : Orthogonal vectors
Two vectors u,v∈Rn are orthogonal if
u⋅v=0⟺u⊥v
The zero vector is orthogonal to every vector in Rn
두 벡터가 orthogonal(직교, 수직)이라는 것은 두 벡터의 inner product값이 0이 되는 것을 뜻합니다.
Theorem
Two vectors u,v are orthogonal if and only if
∥u+v∥2=∥u∥2+∥v∥2
orthogonal의 정의를 이용하면 쉽게 밝힐 수 있습니다.
5) Orthogonal complements
Supspace에서 orthogonal 개념을 이용하여 새로운 집합인 orthogonal complement을 정의할 수 있습니다.
Definition : Orthogonal Complements
If a vector z is orthogonal to every vector in a subspace W of Rn, then z is orthogonal to W.
The Set of all vectors z that are orthogonal to W is orthogonal complement of W
W⊥={z∣z⋅w=0forallw∈W}
벡터 z가 subspace W에 있는 모든 벡터와 orthogonal하면, z는 W에 orthogonal합니다. 이 때, W에 orthogonal한 모든 벡터를 모은 집합을 W의 orthogonal complement라고 합니다.
아래의 정리들을 통해 orthogonal complement의 특징을 확인할 수 있습니다.
Theorem
A vector x is in W⊥ if and only if x is orthogonal to every vector in a set that spans W
x가 W에 orthogonal하려면 W에 있는 모든 벡터와 x가 orthogonal한지 확인해야 하지만, 위 정리는 W를 span하는 벡터들만 확인하여 orthogonality를 파악할 수 있습니다. Subspace W에 속한 벡터가 너무 많다면, 이를 잘 설명할 수 있는, basis를 생각할 수 있는데, basis 조건 중 하나가 basis로 W를 span해야하는 조건입니다. 위 정리를 통해 W의 basis 벡터와 orthogonal한지 확인함으로써 어떤 벡터가 W에 orthogonal한지 파악할 수 있습니다.
Theorem
W⊥ is a subspace of Rn
W의 orthogonal complement 또한 subspace입니다.
Theorem
Let A be an m×n matrix. The orthogonal complement of the row space of A is the null space of A
The orthogonal complement of the column space of A is the null space of AT
(RowA)⊥=NulA,(ColA)⊥=NulAT
matrix로 정의되는 subspace간 orthogonal 관계를 설명한 정리입니다. Row space의 orthogonal complement는 null space가 됩니다.ColA는 RowAT와 같다는 점을 이용하면 (ColA)⊥=NulAT인 것을 쉽게 확인할 수 있습니다.
Theorem
Let W be a subspace of Rn. Then
dimW+dimW⊥=n
어떤 subspace W의 dimension과 W의 orthogonal complement의 dimension의 합은 둘을 포함하는 vector space(Rn)의 diemension이 됩니다.
지금까지 inner product, length, distance, orthogonality, orthogonal complement에 대해 알아보았습니다. 다음 포스트에서는 orthogonal set에 대해서 알아보겠습니다. 질문이나 오류 있으면 댓글 남겨주세요! 감사합니다!
A vector x is in W⊥ if and only if x is orthogonal to every vector in a set that spans W
Proof
Proof of ⇒
x가 W⊥에 속하므로, W에 속한 모든 vector와 orthogonal합니다. 즉, W를 span하는 vector 역시 W에 포함하므로, x는 W를 span하는 set에 속한 vector와 orthogonal합니다.
Proof of ⇐
W=SpanS
을 만족하는 S={v1,...,vp}에 대해서
vj⊥x,j=1,...,p
를 만족합니다. 이 때, y∈W인 y는 다음과 같이
y=c1v1+⋯+cpvp
표현할 수 있습니다. 해당 벡터와 x를 inner product 연산을 하면
x⋅y=x⋅(c1v1+⋯+vp)=c1x⋅v1+⋯+cpx⋅vp=0
이 되므로, W에 속한 모든 벡터에 대해서 orthogonal하므로
x∈W⊥
가 성립합니다.
Theorem
W⊥ is a subspace of Rn
Proof
W⊥={z∣z⋅w=0forallw∈W}
이므로, z∈W⊥⊂Rn을 만족합니다.
zero vector는 Rn에 속한 모든 벡터와 orthogonal하므로 W에 속한 모든 벡터와 orthogonal합니다. 따라서 0∈W⊥
u,v∈W⊥이면, 모든 y∈W에 대해서 u⋅y=0,v⋅y=0임을 만족합니다. 이 때 모든 y∈W에 대해서
(u+v)⋅y=u⋅y+v⋅y=0
을 만족하므로, u+v∈W⊥입니다.
u∈W⊥이고, scalar k, 임의의 y∈W에 대해
(ku)⋅y=k(u⋅y)=0
을 만족하므로, ku∈W⊥입니다.
따라서, subspace의 조건을 모두 만족하였기 때문에, W⊥는 Rn의 subspace입니다.
Theorem
Let A be an m×n matrix. The orthogonal complement of the row space of A is the null space of A
The orthogonal complement of the column space of A is the null space of AT
(RowA)⊥=NulA,(ColA)⊥=NulAT
Proof
RowA의 orthogonal complement는 다음의 조건을 만족해야합니다.
(RowA)⊥={x∈Rn∣x⋅y=0forally∈RowA}
y는 A의 row의 linear combination으로 표현됩니다. matrix A를
A=⎣⎢⎢⎡−a1−⋮−am−⎦⎥⎥⎤
으로 표현하면(ai∈Rn),
ai⋅x=0
을 만족해야 하고, 이는
⎣⎢⎢⎡−a1−⋮−am−⎦⎥⎥⎤x=⎣⎢⎢⎡a1⋅x⋮am⋅x⎦⎥⎥⎤=0
임을 뜻합니다. 이는
Ax=0
을 만족하므로, x∈NulA입니다.
ColA=RowAT이므로, (ColA)⊥=(RowAT)⊥=NulAT가 성립합니다.
Theorem
Let W be a subspace of Rn. Then
dimW+dimW⊥=n
Proof
W의 basis를 BW={v1,...,vk}, W⊥의 basis를 BW⊥={u1,...,up}라 하였을 때
BW∪BW⊥={v1,...,vk,u1,...,up}
가 Rn의 basis가 되는 것을 밝히면 됩니다.
Rn에 속하는 vector x는 다음과 같이 표현할 수 있습니다.
x=x1+x2,wherex1∈W,x2∈W⊥
(이 후 projection의 개념을 알게 되면, 모든 벡터는 다음과 같이 어떤 subspace의 벡터와 subspace의 orthogonal complement에 속한 벡터의 합으로 표현이 가능한 것을 이해할 수 있습니다. )
x1∈W이므로
x1=c1v1+⋯+ckvk
가 되고, x2∈W⊥이므로
x2=d1u1+⋯+dkup
가 되므로
x=c1v1+⋯+ckvk+d1u1+⋯+dpup
임을 알 수 있습니다. 즉 BW∪BW⊥는 Rn을 span합니다.
다음으로, BW∪BW⊥가 linearly independent함을 밝혀야 합니다. 이를 밝히기 위해 다음 equation
c1v1+⋯ckvk+d1u1+⋯+dpup=0
이 trivial solution을 가짐을 밝혀야 합니다. 먼저 BW,BW⊥는 basis이므로 각각 linearly independent합니다. 따라서 만약의 위의 식이 non-trivial solution을 가진다면 c1,...,ck 중 적어도 하나가 0이 아니고, d1,...,dp 중 적어도 하나가 0이 아니어야 합니다. 이 말은 즉, 특정 벡터 vj가 BW⊥의 linear combination으로 표현이 가능하나는 것을 뜻합니다.(또는 uj가 BW의 linear combination으로 표현된다는 것을 뜻합니다. )
하지만,
W∩W⊥={0}
를 만족하기 때문에, vj가 BW⊥의 linear combination으로 표현되거나, uj가 BW의 linear combination으로 표현될 수 없습니다. 따라서 BW∪BW⊥는 linearly independent합니다.
(W∩W⊥={0}인 이유는, x∈W,x∈W⊥이면, x⋅x=0을 만족해야 하는데, 이를 만족하는 x는 zero vector밖에 없기 때문입니다.)