[선형대수 심화] 선형변환

강찬희·2022년 10월 4일

선형변환이란?

선형대수학에서 선형변환(Linear transformation)은 두 개의 벡터 공간에 대하여 선형성(linearity)를 만족하는 함수를 의미합니다. 여기서 선형성이란 어떤 함수 T(u+av)=T(u)+aT(v)T(u+av) = T(u)+aT(v)를 만족하는 함수를 의미합니다.

여러가지 선형변환의 예시

FF가 field이고, V,WV, W가 벡터공간이라고 할때 다음의 변환들은 전부 선형변환입니다.

(1) zero map 0=0VW:VW,v0W\bold{0} = \bold{0}_{V \rightarrow W} : V \rightarrow W, \bold{v} \mapsto \bold{0}_{W}
(2) identity map I=IV:VV,vvI = I_{V} : V \rightarrow V, \bold{v} \mapsto \bold{v}
(3) derivation map D:F[x]F[x],a0+a1x++anxna1+2a2x++nanxn1D : F \left [ x\right] \rightarrow F \left [x \right], a_{0} + a_{1} x + \cdots + a_{n} x^{n} \mapsto a_{1} + 2a_{2}x + \cdots + n a_{n}x^{n-1}
(4) WVW \subseteq V가 부분공간일 때, inclusion map은, ι:WV,ww\iota : W \hookrightarrow V, \bold{w} \mapsto \bold{w} injective 한 linear map 입니다.
(5) V=XYV = X \oplus Y이라면 vV\bold{v} \in V에 대하여 unique한 v=x+y\bold{v} = \bold{x} + \bold{y}xX,yY\bold{x} \in X, \bold{y} \in Y를 찾을 수 있습니다. 이러한 v,x,y\bold{v}, \bold{x}, \bold{y}에 대하여

πX:VX,vx\pi_{X} : V \rightarrow X, \bold{v} \mapsto \bold{x}

projection map이라고 하고 선형변환입니다.
(6) WWVV의 부분공간이라고 할 때, v,uV\bold{v}, \bold{u} \in VWW를 법으로 하여(WW의 관점에서) 합동(congruent) 이다는 것은 uvW\bold{u} - \bold{v} \in W인 것이고 다음과 같이 표기합니다. (v is congruent to u modulo W 라고 읽습니다.)

vu(mod W)\bold{v} \equiv \bold{u} (\textrm{mod} \ W)

"~와 합동이다"는 그렇기 때문에 동치관계가 된다. vV\bold{v} \in V에 대하여 coset of v\bold{v} modulo WW라는 것은 v\bold{v}의 equivalence class를 의미하며 다음과 같이 표기합니다.

v+W:={v+wwW}\bold{v} + W := \{ \bold{v} + \bold{w} \vert \bold{w} \in W \}

그리고 modulo WW인 모든 coset들의 집합(set of all cosets modulo W)를 다음과 같이 표기합니다.

V/W:={v+WvV}V / W := \{ \bold{v} + W \vert \bold{v} \in V \}

V/WV/W에서의 더하기와 스칼라 곱을 coset 표현법에서 왼쪽 원소에 대하여 elementwise하게 정의하면 well-defined이고 이 연산에 대하여 V/WV/W는 벡터공간입니다. 이러한 벡터공간을 quotient space of VV modulo WW라고 합니다. VV에서 quotient space V/WV/W로의 projection map

π:VV/W,vv+W\pi : V \rightarrow V/W, \bold{v} \mapsto \bold{v} + W

는 선형변환입니다.

선형변환과 basis

지금까지 배운 선형변환(linear map)은 두 벡터공간을 연결짓는 linear한 함수입니다. 그리고 벡터공간의 원소들은 basis의 원소들로 유일하게 표현이 가능합니다. 그렇다면 어떤 선형변환이 있을때, VV에서 WW로 가는 mapping을 표현하는데 VV가 아니라 VV의 basis로 충분하지 않을까요? 왜냐하면 어떤 벡터공간의 모든 원소는 basis의 linear combination으로 유일하게 표현되기 때문이죠. 위의 추측은 참이며 이를 수학적으로 나타내면 다음과 같습니다.

V,WV, W를 field FF위에서의 벡터공간이라고 합시다. 그리고 BBVV의 basis라고 한다면, VV에서 WW로 가는 선형변환들의 집합과 BB에서 WW로 가는 함수의 집합으로 가는 일대일 대응이 존재합니다. 즉 다음과 같은 일대일 대응 φ\varphi 가 반드시 존재합니다.

φ:{linear transformation T :VW}{functionf:BW},TTB\varphi : \{ \textrm{linear transformation T :} V \rightarrow W\} \rightarrow \{\textrm{function} f : B \rightarrow W\}, \\ T \mapsto T\vert_{B}

TT가 주어졌을때, TBT\vert_{B}TT의 정의역을 제한시키면 되기 때문에 자명하게 선형변환을 찾으면 이에 대응되는 basis에서 출발하는 함수를 찾을 수 있습니다. 그럼 basis에 WW로 가는 함수 ff가 주어졌을 때 이에 대응되는 선형변환은 어떻게 찾을까요? 우선 우리가 찾아야 하는 선형변환은 VV에서 출발하는 함수입니다. 그 말은 모든 vV\bold{v} \in V에 대하여 WW의 원소로 가는 mapping을 찾으면 되고 이 mapping이 linear하면 됩니다. 그런데 vV\bold{v} \in V를 잡을 때 마다, basis의 원소를 이미 알고 있기 때문에 basis의 원소에 대한 linear combination을 구하는 것이 항상 가능해집니다. 즉 B={v1,,vn}B = \{ \bold{v}_1, \cdots, \bold{v}_n\}이라고 한다면 v=a1v1++anvn\bold{v} =a_1 \bold{v}_1 + \cdots + a_n \bold{v}_na1,,ana_1, \cdots, a_n이 반드시 존재하고 T:VWT: V \rightarrow Wva1f(v1)++anf(vn)\bold{v} \mapsto a_1 f(\bold{v_1}) + \cdots + a_n f(\bold{v}_n)이라고 한다면 TT는 선형변환이 되고 계수들은 basis의 성질에 의해 v\bold{v}의 선택에 대하여 유일하게 결정됩니다. 그러므로 위의 주장이 맞는 주장이 됩니다.

profile
ML, DL 공부하는 사람

0개의 댓글