선형대수.5 - 선형변환_2

다시 공부 중...·2021년 11월 16일
0

좌표 coordinate

B=(b1,,bn)B=(\boldsymbol{b}_1, \cdots, \boldsymbol{b}_n)가 벡터공간 VV의 기저일 때, xV\boldsymbol{x}\in V는 유니크한 선형결합 x=α1b1++αnbn\boldsymbol{x}=\alpha_1 \boldsymbol{b}_1 + \cdots + \alpha_n \boldsymbol{b}_n으로 표현할 수 있다.
여기서 α1,,αn\alpha_1, \cdots, \alpha_nBB에 대한 x\boldsymbol{x}의 좌표이고

α=[α1αn]Rn\boldsymbol{\alpha}=\begin{bmatrix}\alpha_1\\\vdots\\\alpha_n\end{bmatrix} \in \mathbb{R}^n

α\boldsymbol{\alpha}BB에 대한 x\boldsymbol{x}의 좌표 벡터(coordinate vector) 또는 좌표 표현(coordinater representation)이라고 한다.

좌표계에서 x\boldsymbol{x}의 좌표는 기저 벡터들을 어떻게 선형결합해야 x\boldsymbol{x}를 표현할 수 있는지를 알려준다. 그러므로 동일한 벡터에 대해서 기저가 다르면 좌표도 다르다.

🤔: 벡터를 어떤 막대의 길이로 생각하고 기저를 길이를 표현할 단위로 생각하면 좋을 듯. 막대의 길이는 고정이고 m, ft, inch 등 어떤 단위를 사용하냐에 따라서 표현이 달라진다.

변환 행렬 transformation matrix

먼저 nn차원 벡터공간 VVVV의 기저 B=(b1,,bn)B=(\boldsymbol{b}_1, \cdots, \boldsymbol{b}_n)에 대해서 Φ:RnV\Phi:\mathbb{R}^n\rightarrow V, Φ(ei)=bi\Phi(\boldsymbol{e}_i)=\boldsymbol{b}_i는 선형 변환이다.
🤔: ?

벡터공간 V,WV, W의 기저가 각각 B=(b1,,bn),C=(c1,,cm)B=(\boldsymbol{b}_1, \cdots, \boldsymbol{b}_n), C=(\boldsymbol{c}_1, \cdots, \boldsymbol{c}_m)이고 선형 변환 Φ:VW\Phi:V\rightarrow W이 있을 때,
Φ(bj)=α1jc1++αmjcm=i=1mαijci\Phi(\boldsymbol{b}_j)=\alpha_{1j}\boldsymbol{c}_1+\cdots+\alpha_{mj}\boldsymbol{c}_m=\sum_{i=1}^m \alpha_{ij}\boldsymbol{c}_iCC에 대해서 유니크한 선형 결합으로 표현된다.

여기서 AΦ(i,j)=αijA_{\Phi}(i, j) = \alpha_{ij}인 (m, n) 행렬 AΦA_{\Phi}Φ\Phi의 변환 행렬이라고 한다.
CC에 대한 Φ(bi)\Phi({\boldsymbol{b}_i})의 좌표는 AΦA_\Phiii 번째 열이다.

x^\hat{\boldsymbol{x}}BB에 대한 xV\boldsymbol{x}\in V의 좌표이고 y^\hat{\boldsymbol{y}}CC에 대한 y=Φ(x)W\boldsymbol{y}=\Phi(\boldsymbol{x})\in W의 좌표일 때,

y^=AΦx^\hat{\boldsymbol{y}}=A_\Phi\hat{\boldsymbol{x}}

변환 행렬은 한 벡터공간의 좌표를 다른 벡터공간의 좌표로 맵핑할 수 있다. (두 벡터공간의 기저에 의존적이다.)

🤔: x^=[x1^xn^]\hat{\boldsymbol{x}}=\begin{bmatrix}\hat{x_1}&\cdots&\hat{x_n}\end{bmatrix}^\top이라면 x=x1^b1++xn^bn\boldsymbol{x}=\hat{x_1}\boldsymbol{b}_1+\cdots+\hat{x_n}\boldsymbol{b}_n이고
Φ(x)=x^1(α11c1++αm1cm)++x^n(α1nc1++αmncm)=(α11x^1++α1nx^n)c1++(αm1x^1++αmnx^n)cm\begin{matrix} \Phi(\boldsymbol{x})&=&\hat{x}_1(\alpha_{11}\boldsymbol{c}_1+\cdots+\alpha_{m1}\boldsymbol{c}_m) + \cdots + \hat{x}_n(\alpha_{1n}\boldsymbol{c}_1+\cdots+\alpha_{mn}\boldsymbol{c}_m)\\ &=&(\alpha_{11}\hat{x}_1+\cdots+\alpha_{1n}\hat{x}_n)\boldsymbol{c}_1 + \cdots + (\alpha_{m1}\hat{x}_1+\cdots+\alpha_{mn}\hat{x}_n)\boldsymbol{c}_m\\ \end{matrix}
y^=[α11x^1++α1nx^nαm1x^1++αmnx^n]=AΦx^\hat{\boldsymbol{y}}=\begin{bmatrix}\alpha_{11}\hat{x}_1+\cdots+\alpha_{1n}\hat{x}_n\\ \vdots\\\alpha_{m1}\hat{x}_1+\cdots+\alpha_{mn}\hat{x}_n \end{bmatrix}=A_{\Phi}\hat{\boldsymbol{x}}
AΦA_\PhiΦ(x)\Phi(\boldsymbol{x})를 선형 결합으로 표현할 때 WW의 기저벡터들이 얼마나 필요한지 보여준다.

🤔: 벡터 회전시키기
같은 공간에서 기저를 회전시키면 될 듯

Φ(e1)=22e1+22e2\Phi(\boldsymbol{e}_1)=\frac{\sqrt{2}}{2}\boldsymbol{e}_1+\frac{\sqrt{2}}{2}\boldsymbol{e}_2
Φ(e2)=22e1+22e2\Phi(\boldsymbol{e}_2)=-\frac{\sqrt{2}}{2}\boldsymbol{e}_1+\frac{\sqrt{2}}{2}\boldsymbol{e}_2
AΦ=[22222222]=[cos(π4)sin(π4)sin(π4)cos(π4)]A_{\Phi}=\begin{bmatrix}\frac{\sqrt{2}}{2}&-\frac{\sqrt{2}}{2}\\\frac{\sqrt{2}}{2}&\frac{\sqrt{2}}{2}\\\end{bmatrix}=\begin{bmatrix}cos(\frac{\pi}{4})&-sin(\frac{\pi}{4})\\sin(\frac{\pi}{4})&cos(\frac{\pi}{4})\\\end{bmatrix}

🤔: 동일한 벡터를 다른 기저로 표현

데카르트 좌표계에서 x=(2,2),b1=(22,22),b2=(22,22)\boldsymbol{x}=(\sqrt{2}, \sqrt{2}), \boldsymbol{b}_1=(\frac{\sqrt{2}}{2}, \frac{\sqrt{2}}{2}), \boldsymbol{b}_2=(\frac{\sqrt{2}}{2}, -\frac{\sqrt{2}}{2})
Φ(e1)=22b1+22b2\Phi(\boldsymbol{e}_1)=\frac{\sqrt{2}}{2}\boldsymbol{b}_1+\frac{\sqrt{2}}{2}\boldsymbol{b}_2
Φ(e2)=22b122b2\Phi(\boldsymbol{e}_2)=\frac{\sqrt{2}}{2}\boldsymbol{b}_1-\frac{\sqrt{2}}{2}\boldsymbol{b}_2
AΦ=[22222222]A_\Phi=\begin{bmatrix}\frac{\sqrt{2}}{2}&\frac{\sqrt{2}}{2}\\\frac{\sqrt{2}}{2}&-\frac{\sqrt{2}}{2}\end{bmatrix}
B=(b1,b2)B=(\boldsymbol{b}_1, \boldsymbol{b}_2)에 대한 x\boldsymbol{x}의 좌표는 AΦx=(2,0)A_\Phi\boldsymbol{x}=(2, 0)

profile
인공지능, 개발 공부

0개의 댓글