선형대수 2-1. 선형변환

milkbuttercheese·2023년 1월 14일
0

AI를 위한 선형대수

목록 보기
1/14

2-1. 선형변환과 행렬

1. 선형변환lineartransformlinear\,\,transform 이란?

  • 조건
    - FF-벡터공간 V,WV,W가 있다 하자. 모든 x,y,Vx,y, \in V, cFc \in F에 대하여 다음을 만족시키는 함수 T:VWT:V\rightarrow W를 선형변환이라고 한다
  • 정의
    - T(x+y)=T(x)+T(y)T(x+y)=T(x)+T(y)
    - T(cx)=cT(x)T(cx)=cT(x)
  • 이에 따라오는 성질들
    - T(0)=0T(0)=0
    - TT가 선형이기 위한 필요충분조건은 T(cx+y)=cT(x)+T(y)T(cx+y)=cT(x)+T(y)이다
    - T(i=1naixi)=i=1naiT(xi)T(\sum_{i=1}^{n}a_i x_i)=\sum_{i=1}^{n}a_iT(x_i)

1-1. 용어들

  • 변환
    - 항등변환 identitiytransformationidentitiy\,\,transformation: IV:VVI_V:V\rightarrow V는 모든 xVx \in V에 대해 IV(x)=xI_V(x)=x
    - 영변환 zerotransformationzero\,\,transformation : T0:VWT_0:V\rightarrow W는 모든 xWx \in W에 대해 T0(x)=0T_0(x)=0
  • 공간
    - 벡터공간 V,WV,W와 선형변환 T:VWT:V\rightarrow W에 대하여
    - 영공간 nullspace/kernalnull\,\,space/kernal | N(T)={xV:T(x)=0}N(T)=\{x \in V: T(x)=0 \}
    - 상공간 range/imagerange/image | R(T)={T(x):xV}R(T)=\{T(x):x\in V\}

2. 차원정리 dimensiontheoremdimension\,\,theorem

  • 조건
    - 벡터공간 V,WV,W 선형변환 T:VWT:V\rightarrow W가 있다고 하자.
    - VV는 유한차원이라 하자
  • 결과
    - dim(V)=rank(T)+nullity(T)dim(V)=rank(T)+nullity(T)

2-1. 전단사 bijectionbijection

  • 정의
    - 전사surjection/ontosurjection/onto | 공역codomaincodomain(함수에서 대응되는 쪽의 집합)과 치역rangerange(함숫값의 집합)이 같다
    - 단사 injection/onetooneinjection/one-to-one | 정의역의 서로다른 원소를 공역의 서로 다른 원소에 대응시킨다
    - 전단사 bijectionbijection| 전사이면서 단사인 함수
  • 벡터공간 V,WV,W, 선형변환 T:VWT:V\rightarrow W의 경우 다음이 성립한다
    - TT가 단사함수이다는 N(T)={0}N(T)=\{0\}과 필요충분조건이다
  • 벡터공간 V,WV,W이 차원이 같을 때 T:VWT:V\rightarrow W의 다음 세 명제는 동치이다
    - TT는 단사이다
    - TT는 전사이다
    - dim(V)=rank(T)dim(V)=rank(T)

3.선형변환을 행렬\cdot튜플곱 표현하기

좌표벡터 coordinatevectorcoordinate\,\,vector

  • 조건
    - 유한차원 벡터공간 VV의 순서기저(순서를 고려하는 기저) β={v1,v2,...,vn}\beta=\{v_1,v_2,...,v_n\}이라 한다
    - xVx \in V에 대해 a1,a2,...,anFa_1,a_2,...,a_n \in Fx=i=1naivix=\sum_{i=1}^{n}a_iv_i를 만족시키는 유일한 스칼라라 하자
  • 정의
    - β\beta에 대한 xx의 좌표벡터는 다음과 같이 정의된다
    - [x]β=(a1a2...an)\,\,\,\,\,\,\,\,\,\,\,\,\,\,[x]_{\beta}= \begin{pmatrix} a_1\\a_2\\...\\\\a_n\end{pmatrix}

행렬표현 matrixrepresentationmatrix\,\,representation

  • 조건
    - 유한차원 벡터공간 VV가 있고 그 순서기저가 β={v1,v2,...,vn}\beta=\{v_1,v_2,...,v_n\}이라 하자
    - 유한차원 벡터공간 WW가 있고 그 순서기저가 γ={w1,w2,...,wm}\gamma=\{w_1,w_2,...,w_m\}이라 하자
    - 선형변환 T:VWT:V\rightarrow W가 있다고 하자
    - 중간결과
    • T(vj)=i=1maijwiT(v_j)=\sum_{i=1}^{m}a_{ij}w_i를 만족시키는 스칼라 aij,j=1,2,...,na_{ij},\,\,\,j=1,2,...,n 는 존재한다
  • 조건2
    - m×nm \times n행렬 A{A}n×1n\times1 튜플 bb 의 곱을 다음과 같이 정의하자
    - [Ab]i=k=1nAikbk[{A}b]_{i}=\sum_{k=1}^{n}A_{ik}b_{k}
    - [T]βγ[T]_{\beta}^{\gamma}를 순서기저 β\betaγ\gamma에 대한 선형변환 TT의 행렬변환이라 하고 다음과 같이 정의하자
    - ([T]βγ)ij=aij([T]_{\beta}^{\gamma})_{ij}=a_{ij}
  • 최종결과
    - [T(vj)]γ=[T]βγ[vj]β[T(v_j)]_{\gamma}=[T]_{\beta}^{\gamma}[v_j]_{\beta} 로 표현할 수 있다
    - pf.[T]βγ[vj]β=[T]βγej=colj([T]βγ)=([T]βγ)ijei=([T]βγ)ij[wi]γ=[aijwi]γ=[T(vj)]γpf. \,\,[T]_{\beta}^{\gamma}[v_j]_{\beta}=[T]_{\beta}^{\gamma}e_j= col_j([T]_{\beta}^{\gamma})=([T]_{\beta}^{\gamma})_{ij}e_i=([T]_{\beta}^{\gamma})_{ij}[w_i]_{\gamma}=[a_{ij}w_i]_{\gamma}=[T(v_j)]_{\gamma}

3-1 선형변환의 합/ 스칼라곱 정의

  • 조건
    - FF-벡터공간 V,WV,W가 있다 하자. 그리고 임의의 함수 T,U:VWT,U: V\rightarrow W, 스칼라 aFa\in F가 있다 하자 .선형변환의 합과 스칼라곱은 다음과 같이 정의한다
  • 정의
    - 합 | 모든 xVx\in V에 대해 (T+U)(x)=T(x)+U(x)(T+U)(x)=T(x)+U(x)
    - 스칼라 곱 | 모든 xVx \in V에 대해 (aT)(x)=aT(x)aT)(x)=aT(x)
  • 이에 따라오는 성질
    - (aT+U)(aT+U)는 선형이다
    - [T+U]βγ=[T]βγ+[U]βγ[T+U]_{\beta}^{\gamma}=[T]_{\beta}^{\gamma}+[U]_{\beta}^{\gamma}
    - [aT]βγ=a[T]βγ[aT]_{\beta}^{\gamma}=a[T]_{\beta}^{\gamma}
  • 증명
    - T(vj)=([T]βγ)ijwi,(aU)(vj)=a([U]βγ)ijwiT(v_j)= ([T]_{\beta}^{\gamma})_{ij}w_i ,\,\,(aU)(v_j)=a([U]_{\beta}^{\gamma})_{ij}w_i
    - (T+aU)(vj)=(T(Vj)+aU(vj))=(([T]βγ)ij+a([U]βγ)ij)wi(T+aU)(v_j)=(T(V_{j})+aU(v_{j}))=(([T]_{\beta}^{\gamma})_{ij}+a([U]_{\beta}^{\gamma})_{ij})w_i
    - [T+aU]βγ[vj]β=(([T]βγ)ij+a([U]βγ)ij)[wi]γ[T+aU]_{\beta}^{\gamma}[v_j]_{\beta}=(([T]_{\beta}^{\gamma})_{ij}+a([U]_{\beta}^{\gamma})_{ij})[w_i]_{\gamma}
    - colj([T+aU]βγ)=col_j([T+aU]_{\beta}^{\gamma})=colj([T]βγ)+acolj([U]βγ)col_j([T]_{\beta}^{\gamma})+a\cdot col_j([U]_{\beta}^{\gamma})
    - [T+aU]βγ=[T]βγ+a[U]βγ[T+aU]_{\beta}^{\gamma}=[T]_{\beta}^{\gamma}+a[U]_{\beta}^{\gamma}
profile
안녕하세요!

0개의 댓글