선형대수.5 - 선형변환_1

다시 공부 중...·2021년 11월 15일
0

🤔

선형 변환/사상/맵핑 (linear mapping / vector space homomorphism / linear transformation)

선형 결합을 보존하는, 두 벡터 공간 사이의 함수이다.
"선형변환", 위키백과

벡터 공간 V,WV, W에 대해서 x,yV,λ,ψR\forall\boldsymbol{x,y}\in V, \forall\lambda,\psi \in \mathbb{R} 일 때,
Φ(λx+ψy)=λΦ(x)+ψΦ(y)\Phi(\lambda\boldsymbol{x}+\psi\boldsymbol{y})=\lambda\Phi(\boldsymbol{x})+\psi\Phi(\boldsymbol{y}) 가 성립하면 사상, 변환 Φ:VW\Phi:V\rightarrow W은 선형 사상, 선형 변환이다.

Φ(λx+ψy)=λΦ(x)+ψΦ(y)\Phi(\lambda\boldsymbol{x}+\psi\boldsymbol{y})=\lambda\Phi(\boldsymbol{x})+\psi\Phi(\boldsymbol{y}) 이 성립하는 것을 선형결합을 보존한다고 한다.
(벡터를 맵핑한 후 선형 결합한 결과가 벡터를 선형 결합한 후 맵핑한 결과와 같다.)

맵핑을 행렬로 표현할 수 있기에 행렬이 맵핑을 의미하는지 아니면 열벡터의 집합을 의미하는지 구분할 수 있어야한다.

ex) Φ:R2C,Φ(x)=x1+ix2\Phi:\mathbb{R}^2\rightarrow\mathbb{C}, \Phi(\boldsymbol{x})=x_1+ix_2는 homomorphism.
Φ(λ1[x1x2]+λ2[y1y2])=(λ1x1+λ2y1)+i(λ1x2+λ2y2)=λ1(x1+ix2)+λ2(y1+iy2)=λ1Φ([x1x2])+λ2Φ([y1y2])\begin{matrix} \Phi\left(\lambda_1\begin{bmatrix}x_1\\x_2\end{bmatrix}+\lambda_2\begin{bmatrix}y_1\\y_2\end{bmatrix}\right) & = & (\lambda_1 x_1+\lambda_2 y_1) + i(\lambda_1 x_2 + \lambda_2 y_2) \\ & = & \lambda_1(x_1+ix_2)+\lambda_2(y_1+iy_2) \\ & = & \lambda_1\Phi\left(\begin{bmatrix}x_1\\x_2\end{bmatrix}\right)+ \lambda_2\Phi\left(\begin{bmatrix}y_1\\y_2\end{bmatrix}\right) \end{matrix}

변환의 종류

공역과 치역의 대응

변환 Φ:VW\Phi:\mathcal{V}\rightarrow\mathcal{W}, x,yV\forall \boldsymbol{x,y} \in \mathcal{V} 일 때,

  • 단사, injective: Φ(x)=Φ(y)x=y\Phi(\boldsymbol{x})=\Phi(\boldsymbol{y}) \Longrightarrow \boldsymbol{x}=\boldsymbol{y} (정의역과 치역의 원소가 1대1 대응)
  • 전사, surjective: Φ(V)=W\Phi(\mathcal{V})=\mathcal{W} (공역과 치역이 같다.)
  • 전단사, bijective: 전사 & 단사 (정의역의 모든 원소가 공역의 모든 원소와 1대1로 대응된다.)

Φ\Phi가 전단사라면 Φ\Phi와 방향이 반대인 변환 Ψ(W):WV\Psi(\mathcal{W}): \mathcal{W}\rightarrow\mathcal{V}이 존재하고 ΨΦ(x)=x\Psi\circ\Phi(\boldsymbol{x})=\boldsymbol{x} (Ψ:Φ1\Psi: \Phi^{-1}로 표기)

변환의 종류

  • 동형사상, isomorphism: Φ:VW\Phi:V\rightarrow W, linear & bijective
  • 자기사상, endomorphism: Φ:VV\Phi:V\rightarrow V, linear
  • 자기동형사상, automorphism: Φ:VV\Phi:V\rightarrow V, linear & bijective
  • 항등사상, identity mapping, identity automorphism: idV:VV,xx_V:V\rightarrow V, \boldsymbol{x}\mapsto\boldsymbol{x}

벡터공간 V,W,XV, W, X에 대해서

  • 선형 변환 Φ:VW\Phi:V\rightarrow W, Ψ:WX\Psi: W\rightarrow X에 대해서 ΨΦ:VX\Psi\circ\Phi:V\rightarrow X도 선형 변환이다.
    ΨΦ(λx+ψy)=Ψ(Φ(λx+ψy))=Ψ(λΦ(x)+ψΦ(y))=λΨ(Φ(x))+ψΨ(Φ(y))=λΨΦ(x)+ψΨΦ(y)\begin{matrix} \Psi\circ\Phi(\lambda\boldsymbol{x}+\psi\boldsymbol{y})&=&\Psi(\Phi(\lambda\boldsymbol{x}+\psi\boldsymbol{y}))&&\\ &=&\Psi(\lambda\Phi(\boldsymbol{x})+\psi\Phi(\boldsymbol{y}))&&\\ &=&\lambda\Psi(\Phi(\boldsymbol{x}))+\psi\Psi(\Phi(\boldsymbol{y}))&=&\lambda\Psi\circ\Phi(\boldsymbol{x})+\psi\Psi\circ\Phi(\boldsymbol{y})\\ \end{matrix}
  • Φ:VW\Phi:V\rightarrow W가 동형사상이면 Φ1:WV\Phi^{-1}:W\rightarrow V도 동형사상이다.
    동형사상이면 전단사이므로 Φ1\Phi^{-1}도 전단사함수. 선형 변환인지만 확인하면 Φ(v)=w\Phi(\boldsymbol{v})=\boldsymbol{w}일 때,
    Φ1(λw1+ψw2)=Φ1(λΦ(v1)+ψΦ(v2))=Φ1(Φ(λv1+ψv2))=λv1+ψv2=λΦ1(w1)+ψΦ1(w2)\begin{matrix} \Phi^{-1}(\lambda\boldsymbol{w}_1+\psi\boldsymbol{w}_2)&=&\Phi^{-1}(\lambda\Phi(\boldsymbol{v}_1)+\psi\Phi(\boldsymbol{v}_2))&&\\ &=&\Phi^{-1}(\Phi(\lambda\boldsymbol{v}_1+\psi\boldsymbol{v}_2))&&\\ &=&\lambda\boldsymbol{v}_1+\psi\boldsymbol{v}_2&=&\lambda\Phi^{-1}(\boldsymbol{w}_1)+\psi\Phi^{-1}(\boldsymbol{w}_2) \end{matrix}
  • Φ:VW\Phi:V\rightarrow W, Ψ:VW\Psi:V\rightarrow W가 선형 변환이면 Φ+Ψ\Phi+\PsiλΦ,λR\lambda\Phi, \lambda \in \mathbb{R}도 선형 변환이다.
    • Ω=Φ+Ψ\Omega=\Phi+\Psi라면
      Ω(λx1+ψx2)=Φ(λx1+ψx2)+Ψ(λx1+ψx2)=λ(Φ(x1)+Ψ(x1))+ψ(Φ(x2)+Ψ(x2))=λΩ(x1)+ψΩ(x2)\begin{matrix} \Omega(\lambda \boldsymbol{x}_1+\psi\boldsymbol{x}_2)&=&\Phi(\lambda \boldsymbol{x}_1+\psi\boldsymbol{x}_2)+\Psi(\lambda \boldsymbol{x}_1+\psi\boldsymbol{x}_2)\\ &=&\lambda(\Phi(\boldsymbol{x}_1)+\Psi(\boldsymbol{x}_1))+\psi(\Phi(\boldsymbol{x}_2)+\Psi(\boldsymbol{x}_2))\\ &=&\lambda\Omega(\boldsymbol{x}_1)+\psi\Omega(\boldsymbol{x}_2) \end{matrix}
    • Ω=λΦ\Omega=\lambda\Phi라면
      Ω(ax1+bx2)=λΦ(ax1+bx2)=λ(aΦ(x1)+bΦ(x2))=aλΦ(x1)+bλΦ(x2)=aΩ(x1)+bΩ(x2)\begin{matrix} \Omega(a\boldsymbol{x}_1+b\boldsymbol{x}_2)&=&\lambda\Phi(a\boldsymbol{x}_1+b\boldsymbol{x}_2)&&\\ &=&\lambda(a\Phi(\boldsymbol{x}_1)+b\Phi(\boldsymbol{x}_2))&&\\ &=&a\lambda\Phi(\boldsymbol{x}_1)+b\lambda\Phi(\boldsymbol{x}_2)&=&a\Omega(\boldsymbol{x}_1)+b\Omega(\boldsymbol{x}_2)\\ \end{matrix}

동형, isomorphic

유한 차원의 벡터 공간 VVWW는 동형이다.     \iff dim(VV) = dim(WW)
두 벡터 공간 V,WV, W의 차원이 같다면 두 공간 사이에 동형 사상이 존재하여 손실없이 두 공간 사이의 변환이 가능하다.
🤔: 두 공간이 동형이면 한 공간의 어떤 벡터든 다른 공간의 벡터와 대응시킬 수 있다?

profile
인공지능, 개발 공부

0개의 댓글