[선형대수] Essence of linear algebra

권유진·2023년 2월 5일
0

수학

목록 보기
2/2

vector

  • 학문에 따른 벡터에 대한 시선
    • 물리학: 화살표(길이와 방향)
    • 컴퓨터 과학: 순차 숫자 리스트
      • [2,600300,000]\begin{bmatrix} 2,600 \\ 300,000 \end{bmatrix}
      • ex) 주택 크기, 가격을 벡터로 표현
    • 수학자: 조금 더 일반화하는 방법 찾음
      • 벡터 합, 곱 등 연산 수행
  • 선형 대수에서는 거의 항상 원점에 뿌리를 둔다.
  • 벡터의 합: 두 개의 벡터를 합치는 것
    • v+wv+w일 경우, vv의 화살표가 끝난 지점에서 ww 화살표가 시작하여 끝나는 지점 의미
  • 벡터의 곱: 벡터의 길이를 늘이거나 줄이는 것 또는 방향을 뒤집는 것(음수)

Chapter 2

  • 벡터의 각 값을 하나의 scalar로써 생각
    • [32]\begin{bmatrix} 3 \\ -2 \end{bmatrix}
    • xx축으로 3 만큼, yy축으로 -2 만큼 이동
      • xx축의 길이 1인 벡터를 단위 벡터 i^\hat i, yy축의 길이가 1인 벡터를 단위 벡터 j^\hat j 라고 했을 때
        • 이 둘을 좌표계의 기저(basis) 라고 부름
      • 3i^2j^3\hat i-2\hat j로 표시
    • 스케일링 된 두 벡터의 합으로 볼 수 있음!!!!!
    • 즉, 좌표계를 이 두 개의 특별한 기저 벡터로 구성할 수 있다!!
      • 만약 다른 기저 벡터를 선택한다면 또 하나의 완전한 새로운 좌표계를 얻음
  • 두 벡터를 스케일링하고 나서 더하는 것을 선형 결합(linear combination) 이라고 함
    • av+bwa\overrightarrow{v}+b\overrightarrow{w}
  • 두 벡터 쌍의 조합으로 나타낼 수 있는 벡터 집합을 두 벡터의 span 이라고 함
    • 즉, 두 벡터의 조합으로 만들 수 있는 벡터 공간
    • span이 특정 선 위로 제한되는 경우가 있다.
    • 만약 기존의 벡터(들)이 이미 span하는 공간에 존재하는 벡터: 선형 종속(linearly dependent)
      • 해당 벡터를 추가해도 span이 더 이상 확장되지 않음
      • u=av+bw\overrightarrow{u} = a\overrightarrow{v}+b\overrightarrow{w}
        • u\overrightarrow{u}는 선형 종속이다.
    • 선형 독립(linearly independent): 각각의 벡터가 기존 스펜에 또 다른 차원을 추가하는 것이 가능한 경우
      • wav\overrightarrow{w} \ne a\overrightarrow{v}
  • 즉, 공간의 기저는 선형 독립인 벡터들의 집합으로 span하면 그 공간이 된다.

Chapter 3

  • 선형 변환(linear transformation)
    • transformation: 입력을 받고 결과물을 반환하는 그 무언가(function)
    • 즉, 특정 벡터를 다른 벡터로 바꾸는 변환
    • "선형" 변환이므로 아래 특징 보유
      • 모든 선들은 변환 이후에서도 휘지 않고 직선 형태
      • 원점은 변환 이후에도 원점 위치에 존재
      • 즉, 모두 평행하고 동일한 간격으로 존재해야 함
  • 선형 변환이 발생하여도 기저 벡터의 변형 위치만 알면, 모든 벡터를 추론 가능
    • 선형 변환 후에도 선형 결합은 유지되기 때문
  • 예시
    • i^=[10],j^=[01]i^=[12],j^=[30]\hat i = \begin{bmatrix} 1 \\ 0 \end{bmatrix}, \hat j = \begin{bmatrix} 0 \\ 1 \end{bmatrix} \Rarr \hat i = \begin{bmatrix} 1 \\ -2 \end{bmatrix}, \hat j = \begin{bmatrix} 3 \\ 0 \end{bmatrix}
    • v=1i^+2j^v=1[12]+2[30]\overrightarrow{v} = -1\hat i + 2\hat j \Rarr \overrightarrow{v} = -1\begin{bmatrix} 1 \\ -2 \end{bmatrix} + 2\begin{bmatrix} 3 \\ 0 \end{bmatrix}
    • 즉, [xy]x[12]+y[30]=[1x+3y2x+0y]\begin{bmatrix} x \\ y \end{bmatrix} \rarr x\begin{bmatrix} 1 \\ -2 \end{bmatrix} + y\begin{bmatrix} 3 \\ 0 \end{bmatrix}= \begin{bmatrix} 1x+3y \\ -2x+0y \end{bmatrix}
  • 따라서, 기저 벡터의 4개의 숫자 만으로 모든 선형 변환된 벡터를 설명 가능
    • [3    22    1]\begin{bmatrix} 3 \;\; 2 \\ -2 \;\; 1 \end{bmatrix}와 같이 행렬의 형태로 표현
    • 행렬의 열을 각 기저 벡터로 해석
    • 이 행렬과 선형 변환할 벡터가 있다면, 선형 변환 후의 벡터를 알 수 있다.
    • Ax=bAx=b
      • [3    22    1][57]=5[32]+7[21]=[293]\begin{bmatrix} 3 \;\; 2 \\ -2 \;\; 1 \end{bmatrix} \begin{bmatrix} 5 \\ 7 \end{bmatrix} = 5\begin{bmatrix} 3 \\ -2 \end{bmatrix} + 7\begin{bmatrix} 2 \\ 1 \end{bmatrix} = \begin{bmatrix} 29 \\ -3 \end{bmatrix}
      • 선형 변환 후 새 기저 벡터로 스케일링 후 더해주는 개념
  • 만약 기저 벡터가 선형 종속이 된다면, 공간 수축이 발생(차원이 감소)
  • 행렬-벡터 곱은 그 벡터를 선형 변환함을 의미!!!!!!!!!

Chapter 4

  • 만약 선형 변환을 두 번 수행한다면?
    • [1    10    1]([0    11    0][xy])=[1    11    0][xy]\begin{bmatrix} 1 \;\; 1 \\ 0 \;\; 1 \end{bmatrix} \begin{pmatrix}\begin{bmatrix} 0 \;\; -1 \\ 1 \;\; 0 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix}\end{pmatrix} = \begin{bmatrix} 1 \;\; -1 \\ 1 \;\; 0 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix}
      • Rotation 후, Shear
      • 한 번의 선형 변환 형태로 표현됨
    • 이를 행렬 곱이라고 할 수 있음
      • 기하학적으로 한 변환을 적용하고나서 다른 변환을 적용한 것
        • 우측 행렬부터 왼쪽으로 차례대로 변환 수행
      • 또는 여러 개의 벡터에 해당 선형 변환을 수행한 결과 의미
        • 각 열이 기저 벡터를 의미하기 때문
    • 선형 변환의 순서가 바뀌면 결과도 바뀜
      • 행렬곱의 순서가 중요!!!!!!

Chapter 6

  • 선형 변환은 공간을 확대시키기도 축소시키기도 한다.
    • [3    00    2]\begin{bmatrix} 3 \;\; 0 \\ 0 \;\; 2 \end{bmatrix}: i^\hat i를 3배, j^\hat j를 2배 증가시킨다.
      • (i^,j^)(\hat i, \hat j) 로 이뤄진 영역이 1에서 6(3$\times$2)으로 증가!!
    • [1    10    1]\begin{bmatrix} 1 \;\; 1 \\ 0 \;\; 1 \end{bmatrix}: i^\hat i는 그대로, j^\hat j은 (1,1)로 이동
      • (i^,j^)(\hat i, \hat j)가 이루던 정사각형 영역이 사다리꼴로 변환(넓이는 변하지 않음)
  • 기저 벡터들이 이루는 영역의 크기를 알면 공간 상 지역이 어떻게 변할지 예측 가능
    • 해당 영역으로 무엇이든지 근사할 수 있기 때문(해당 영역의 scale을 작게 할 경우)
  • 이러한 scaling 요소를 행렬식(determinant) 라고 부름
    • det([1    11    1])=2\det\begin{pmatrix}\begin{bmatrix} -1 \;\; 1 \\ -1 \;\; -1 \end{bmatrix}\end{pmatrix} = 2
    • 행렬식이 3이면 특정 지역의 크기를 3배로 증가시킴
    • 행렬식이 0.5이면 특정 크기를 절반으로 축소
    • [매우 중요!!]행렬식이 0이면 모든 공간이 찌부러져서 직선으로 표현됨
      • 2차원일 경우에 직선이고, kk차원일 경우 (k1k-1) 차원의 형태로 찌부러짐
      • 선형 종속이라는 의미!!!!!!
    • 행렬식이 음수일 경우, 공간의 방위가 반전
      • i^\hat ij^\hat j보다 왼쪽에 있었는데, 선형 변환 후 오른쪽에 있게 된 경우
      • 공간이 뒤집어 진다는 의미
      • i^,j^\hat i, \hat j가 가까워질 수록(shear) 행렬식이 0과 가까워지고, 직선을 이루면 0이 됨. 그러다가 반전되면 음수가 되는 것이 자연스러움.

Chapter 7

  • 연립 방정식
    • 각 방정식은 변수들을 스케일링한 후 서로 더함
      • 2x+5y+3z=32x+5y+3z=3
      • 위에서 살펴봤던 개념들과 유사
    • 2x+5y+3z=34x+0y+8z=01x+3y+0z=2\begin{matrix} 2x+5y+3z=-3\\4x+0y+8z=0\\1x+3y+0z=2 \end{matrix}
      • 선형 방정식계라고 함(동일한 변수를 표현하는 선형방정식 모임)
      • [2    5    34    0    81    3    0][xyz]=[302]\begin{bmatrix} 2 \;\; 5 \;\; 3 \\ 4 \;\; 0 \;\; 8 \\ 1 \;\; 3 \;\; 0 \end{bmatrix} \begin{bmatrix} x \\ y \\ z \end{bmatrix} = \begin{bmatrix} -3 \\ 0 \\ 2 \end{bmatrix}로 표현 가능
        • Ax=vA\overrightarrow{x} = \overrightarrow{v}의 형태 보유
        • 선형변환 AA를 통해 벡터 vv가 되는 벡터 xx를 찾을 수 있음
  • 벡터 vv의 선형 변환 이전 벡터 xx를 파악하는 방법
    • 선형 변환을 역으로 수행한다!! : 역행렬(inverse)
    • 즉, 역행렬을 통해 x\overrightarrow{x} 를 구할 수 있다.
      • x=A1v\overrightarrow {x} = A^{-1}\overrightarrow v (행렬식이 0이 아닐 경우)
      • 행렬식이 0인 경우, 더 낮은 차원으로 뭉게지므로 원래 값 추적 불가(역행렬 없음)
  • 선형 변환 AA가 어떤 변환인지 파악
    • det(A)0\det(A) \ne 0인 경우
      • 특정 벡터 vv로 변환될 수 있는 벡터 xx는 1개만 존재(일대일 변환)
    • det(A)=0\det(A)=0인 경우
      • 역행렬이 존재하지 않음
      • 더 낮은 차원으로 축소되는데, 이 영역에 v\overrightarrow v 가 존재한다면 해가 존재
        • 선형변환의 결과가 kk차원이면, rank는 kk
          • 결과가 1차원 선이라면 rank는 1
          • 결과가 2차원 평면이라면 rank는 2
          • 즉, rank는 변환 결과의 차원 수를 의미!!!!!
            • 변환된 기저들이 선형 종속이면 차원 수가 낮아짐
  • 선형 변환 후 행렬의 가능한 결과의 집합을 열 공간(column space) 이라고 부름
    • 행렬의 열은 기저 벡터의 변환 후 위치
    • 즉, 열 공간의 차원 수는 rank를 의미
  • 선형 변환은 반드시 원점을 포함하기 때문에, 영 벡터는 어느 열공간에든지 포함
    • full rank인 경우, 선형 변환을 통해 영 벡터로 변하는 벡터는 영 벡터 뿐이다.
    • full rank가 아니라면, 더 작은 차원으로 축소되므로 영 벡터가 되는 벡터가 매우 많다.
      • 원점으로 이동되는 벡터들의 집합을 영 공간(null space), 커널(kernel) 이라고 부름
  • 정리
    • 선형 방정식계는 선형 변환의 형태로 표현 가능
    • 해(x\overrightarrow x)를 구하기 위해서는 역행렬 수행
      • 역행렬이 불가능하다면, 열 공간이 해의 존재 여부를 알려줌
      • 영 공간은 모든 가능한 해집합이 어떻게 되는지 알려줌

Chapter 8

  • 비정사각행렬을 통한 선형 변환
    • [3    14    15    9][xy]\begin{bmatrix} 3 \;\; 1 \\ 4 \;\; 1 \\ 5 \;\; 9 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix}
      • 2차원이던 기저 벡터를 3차원으로 변환
      • 행렬의 열 공간은 3차원 공간 내에서 원점을 가로지르는 2차원 평면 상의 모든 벡터
        • full rank
        • 기하학적으로 해석하면 2차원 공간을 3차원 공간으로 매핑
    • 즉, m×nm\times n 행렬은 nn 차원의 벡터를 mm 차원으로 변환
      • m>nm>n 라면 더 큰 차원의 공간으로 매핑
      • m<nm<n 라면 더 작은 차원의 공간으로 매핑

Chapter 9

  • 내적(dot product)
    • 같은 차원을 갖는 두 벡터를 곱해 scalar를 출력하는 연산
      • [12][34]=13+24=11\begin{bmatrix} 1 \\ 2 \end{bmatrix} \cdot \begin{bmatrix} 3 \\ 4 \end{bmatrix} = 1\cdot3+2\cdot4=11
    • vw\overrightarrow v \cdot \overrightarrow w 를 수행할 때, w\overrightarrow wv\overrightarrow v가 span하는 공간에 투영(projection)한 후 wprojected\overrightarrow w_{projected}v\overrightarrow v의 길이를 곱한 것
      • wprojected\overrightarrow w_{projected}의 방향이 v\overrightarrow v와 반대면 내적 값은 음수
      • w\overrightarrow wv\overrightarrow v와 직각을 이룰 경우, wprojected\overrightarrow w_{projected}는 0벡터가 되어 내적 값이 0이 됨
      • 이것이 두 벡터의 유사도를 내적으로 구할 수 있는 이유!!
  • 선형 변환의 측면에서 살펴보자!!
    • 선형 변환이므로 동일한 간격을 지니고 있음
    • 선형 변환 후, 기저 벡터들의 도착지가 scalar임
      • v=[1    2]\overrightarrow v = [1 \;\; 2]의 형태이므로
    • u\overrightarrow u가 2차원 공간 SS에 존재한다고 가정
      • u\overrightarrow u가 span하는 1차원 공간 UU에서 u\overrightarrow u가 단위 벡터라고 가정(수선 형성)
      • SS의 단위 벡터(기저) i^,j^\hat i, \hat jUU로 projection하면 각각 [ux0],[0uy]\begin{bmatrix}u_x \\ 0 \end{bmatrix}, \begin{bmatrix}0\\u_y\end{bmatrix}(SS에서 u\overrightarrow u의 좌표)
        • 서로 대칭이므로!!! u\overrightarrow ui^,j^\hat i, \hat j 각각에 projection한 것과 동일하기 때문
      • 하지만, u\overrightarrow u가 단위 벡터가 아닐 경우 그 벡터의 길이만큼 i^projected,j^projected\hat i_{projected}, \hat j_{projected}의 길이를 늘리면 됨
      • 따라서 vw\overrightarrow v\cdot \overrightarrow w에서 v\overrightarrow v에 projection할 때
        • v=c[i^vj^v]\overrightarrow v = c\begin{bmatrix} \hat i_v \\ \hat j_v \end{bmatrix}
          • cc: v\overrightarrow v의 길이
          • i^v,j^v\hat i_v, \hat j_v: 2차원 평면에서의 단위 기저 벡터를 v\overrightarrow v의 span에 projection한 값
        • vw=c[i^v    j^v]w=cwprojected\therefore \overrightarrow v \cdot \overrightarrow w = c[\hat i_v \;\; \hat j_v]\overrightarrow w = c\overrightarrow w_{projected}
        • 따라서, 내적은 v\overrightarrow vwprojected\overrightarrow w_{projected}의 길이의 곱이다.
  • 정리
    • 내적은 투영을 이해하는 매우 좋은 도구
    • 벡터가 같은 방향을 기리키는 지 알아 내는 것에도 유용
    • 두 벡터를 내적 하는 것을 두 벡터 중 하나를 변환 벡터로 보는 것
    • 벡터는 어떤 변환의 개념적 단축 표현

Chapter 10

  • 벡터곱(cross product)
    • v×w\overrightarrow v \times \overrightarrow w
      • v\overrightarrow vw\overrightarrow w 보다 오른쪽에 있으면 결과값이 양수
      • v\overrightarrow vw\overrightarrow w 보다 왼쪽에 있으면 결과값이 음수
      • 따라서, v×w=w×v\overrightarrow v \times \overrightarrow w = - \overrightarrow w \times \overrightarrow v
    • 2차원
      • 두 벡터 v,w\overrightarrow v, \overrightarrow w 가 존재할 때 이 두 벡터가 형성하는 평행사변형의 넓이의 길이를 갖는 새 벡터
        • 벡터곱 계산 방법은 두 벡터를 행렬의 열로 두고 행렬식을 계산하는 것과 동일
          • v=[31],w=[21]\overrightarrow v = \begin{bmatrix} 3 \\ 1 \end{bmatrix}, \overrightarrow w = \begin{bmatrix} 2 \\ -1 \end{bmatrix}
          • v×w=det([3    21    1])\overrightarrow v \times \overrightarrow w = \det\begin{pmatrix}\begin{bmatrix} 3 \;\; 2 \\ 1 \;\; -1 \end{bmatrix}\end{pmatrix}
      • 두 벡터가 수직인 경우 벡터곱 결과값이 최대가 된다.
        • 평행사변형의 면적은 수직의 가까울수록 최대값이 되기 때문
    • 3차원
      • 벡터곱은 두 개의 3차원 벡터를 곱해 새로운 3차원 벡터를 만들어내는 것
        • 이 새로운 벡터의 길이가 평행사변형의 면적과 동일
        • 방향은 평행사변형에 수직
        • [v1v2v3]×[w1w2w3]=det([i^    v1    w1j^    v2    w2k^    v3    w3])=i^(v2w3v3w2)+j^(v3w1v1w3)+k^(v1w2v2w1)\begin{bmatrix} v_1 \\ v_2 \\ v_3 \end{bmatrix} \times \begin{bmatrix} w_1 \\ w_2 \\ w_3 \end{bmatrix} = \det\begin{pmatrix}\begin{bmatrix} \hat i \;\; v_1 \;\; w_1 \\ \hat j \;\; v_2 \;\; w_2 \\\hat k \;\; v_3 \;\; w_3 \end{bmatrix}\end{pmatrix} \\= \hat i(v_2w_3-v_3w_2) + \hat j(v_3w_1-v_1w_3) + \hat k(v_1w_2-v_2w_1)
    • 기하학적 측면에서 살펴보기
      • f([xyz])=det([x                      y    v    w z                      ])f\begin{pmatrix}\begin{bmatrix}x\\y\\z\end{bmatrix}\end{pmatrix} = \det\begin{pmatrix}\begin{bmatrix} x \;\;\;\;\;\;\;\;\;\;\; \\ y \;\; \overrightarrow v \;\; \overrightarrow w\ \\z \;\;\;\;\;\;\;\;\;\;\; \end{bmatrix}\end{pmatrix}
        • x,y,zx,y,z: 변수
        • 모든 입력 벡터 [x,y,z]와 v,w\overrightarrow v, \overrightarrow w 에 의해 정의된 평행육면체
        • 함수 ff는 선형이므로 행렬곱으로 설명 가능
          • 3차원에서 1차원으로 가는 함수이기 때문에, (1×3)(1\times3) 행렬을 [x,y,z]와 행렬곱: 해당 행렬(벡터)를 p\overrightarrow p라고 정의
          • [p1p2p3][xyz]=det([x    v1    w1y    v2    w2z    v3    w3])\begin{bmatrix}p_1 \\ p_2 \\ p_3 \end{bmatrix} \cdot \begin{bmatrix}x\\y\\z \end{bmatrix} = \det\begin{pmatrix}\begin{bmatrix}x \;\; v_1 \;\; w_1 \\ y \;\; v_2 \;\; w_2\\ z \;\; v_3 \;\; w_3\end{bmatrix}\end{pmatrix}
            • [p1p2p3][xyz]=p1x+p2y+p3z\begin{bmatrix}p_1 \\ p_2 \\ p_3 \end{bmatrix} \cdot \begin{bmatrix}x\\y\\z \end{bmatrix} = p_1\cdot x+p_2\cdot y+p_3\cdot z
            • det([x    v1    w1y    v2    w2z    v3    w3])=x(v2w3v3w2)+y(v3w1v1w3)+z(v1w2v2w1)\det\begin{pmatrix}\begin{bmatrix}x \;\; v_1 \;\; w_1 \\ y \;\; v_2 \;\; w_2\\ z \;\; v_3 \;\; w_3\end{bmatrix}\end{pmatrix} = x(v_2\cdot w_3 - v_3\cdot w_2)+y(v_3\cdot w_1 - v_1\cdot w_3)+z(v_1\cdot w_2 - v_2\cdot w_1)
            • 즉, p\overrightarrow p의 좌표는 v,w\overrightarrow v, \overrightarrow w의 조합으로 이뤄짐
              • p1=v2w3v3w2p2=v3w1v1w3p3=v1w2v2w1p_1 = v_2\cdot w_3 - v_3\cdot w_2\\p_2=v_3\cdot w_1 - v_1\cdot w_3\\p_3=v_1\cdot w_2 - v_2\cdot w_1
            • [x,y,z], v,w\overrightarrow v, \overrightarrow w로 이뤄진 부피 계산
              • [x,y,z]를 v,w\overrightarrow v, \overrightarrow w 수직하는 벡터에 투영한 후(높이), v,w\overrightarrow v, \overrightarrow w가 이루는 평행사변형의 넓이를 곱
                • [x,y,z]와 v,w\overrightarrow v, \overrightarrow w에 수직이면서 길이는 평행사변형의 면적인 벡터의 cross product vector과 동일
                • 즉, v×w\overrightarrow v \times \overrightarrow w 와 내적하는 꼴
                  • 내적은 한 벡터를 다른 벡터에 투영한 후, 두 길이를 곱하는 것이기 때문
          • [v1v2v3]×[w1w2w3]=det([i^    v1    w1j^    v2    w2k^    v3    w3])\begin{bmatrix} v_1 \\ v_2 \\ v_3 \end{bmatrix} \times \begin{bmatrix} w_1 \\ w_2 \\ w_3 \end{bmatrix} = \det\begin{pmatrix}\begin{bmatrix} \hat i \;\; v_1 \;\; w_1 \\ \hat j \;\; v_2 \;\; w_2 \\\hat k \;\; v_3 \;\; w_3 \end{bmatrix}\end{pmatrix}
            • [x,y,z]를 기저벡터 i^,j^,k^\hat i, \hat j, \hat k로 바꾸면 cross product
            • 해당 계수들이 좌표값을 의미
              • 즉, 위 내적 식에서 p\overrightarrow p를 구하는 것이 cross product 결과값을 구하는 것과 동일

Chapter 13

  • 벡터는 scalars로 이루어져 있다고 생각하면 이해하기 쉬움

    • [32]=3i^+2j^\begin{bmatrix} 3 \\ 2\end{bmatrix} = 3\hat i+2\hat j
    • 모든 좌표를 i^,j^\hat i, \hat j로 만들 수 있다.
      • 기저 벡터(basis vector)
  • 좌표계(Coordinate system): 벡터와 수의 집합을 연결하는 것

    • 기저에 따라 좌표의 표현이 달라짐
      • 기저들의 원점은 [0,0]으로 모두 동일
  • [21],[11]\begin{bmatrix} 2 \\ 1 \end{bmatrix}, \begin{bmatrix} -1 \\ 1 \end{bmatrix}을 기저로 사용해 좌표가 [12]\begin{bmatrix} -1 \\ 2 \end{bmatrix}인 점의 기저가 [10],[01]\begin{bmatrix} 1 \\ 0 \end{bmatrix}, \begin{bmatrix} 0 \\ 1 \end{bmatrix}일 때의 좌표를 구하는 방법

    • 1[21]+2[11]=[41]-1\begin{bmatrix} 2 \\ 1 \end{bmatrix} + 2\begin{bmatrix} -1 \\ 1 \end{bmatrix} = \begin{bmatrix} -4 \\ 1 \end{bmatrix}
      • i^+2j^-\hat i+2\hat j이므로!!
    • [2    11          1][12]\begin{bmatrix} 2 \;\; -1 \\ 1 \;\;\;\;\; 1 \end{bmatrix} \begin{bmatrix} -1 \\ 2 \end{bmatrix}와 동일
  • 동일한 벡터를 다른 기저를 사용할 때의 좌표값으로 표현하는 방법

    • 선형변환행렬 AA역행렬 A1A^{-1}을 원래 기저에서의 좌표에 행렬곱
    • ex) 기저가 [10],[01]\begin{bmatrix} 1 \\ 0 \end{bmatrix}, \begin{bmatrix} 0 \\ 1 \end{bmatrix}일 때 [32]\begin{bmatrix} 3 \\ 2 \end{bmatrix}인 벡터를, 기저 [21],[11]\begin{bmatrix} 2 \\ 1 \end{bmatrix}, \begin{bmatrix} -1 \\ 1 \end{bmatrix}로 표현할 때의 좌표는?
      • A=[2    11        1]A = \begin{bmatrix} 2 \;\; -1 \\ 1 \;\;\;\; 1 \end{bmatrix}, A1=[13    1313    23]A^{-1} = \begin{bmatrix} \frac{1}{3} \;\; \frac{1}{3} \\ -\frac{1}{3} \;\; \frac{2}{3} \end{bmatrix}
      • [13    1313    23][32]=[5313]\begin{bmatrix} \frac{1}{3} \;\; \frac{1}{3} \\ -\frac{1}{3} \;\; \frac{2}{3} \end{bmatrix}\begin{bmatrix} 3 \\ 2 \end{bmatrix} =\begin{bmatrix} \frac{5}{3} \\ \frac{1}{3} \end{bmatrix}
  • "특정 벡터를 선형변환 한 결과"의 "다른 기저를 갖는 벡터의 좌표"를 알아내는 법

    • 기저의 변환행렬을 곱한 후, 선형 변환을 수행하고 기저의 변환행렬의 역행렬을 곱해줘 해당 기저의 좌표 값을 알아냄
    • ex) 다른 기저: [21],[11]\begin{bmatrix} 2 \\ 1 \end{bmatrix}, \begin{bmatrix} -1 \\ 1 \end{bmatrix}, 선형 변환: [0    11        0]\begin{bmatrix} 0 \;\; -1 \\ 1 \;\;\;\; 0 \end{bmatrix}
      • [2    11        1]1[0    11        0][2    11        1]v\begin{bmatrix} 2 \;\; -1 \\ 1 \;\;\;\; 1 \end{bmatrix}^{-1}\begin{bmatrix} 0 \;\; -1 \\ 1 \;\;\;\; 0 \end{bmatrix}\begin{bmatrix} 2 \;\; -1 \\ 1 \;\;\;\; 1 \end{bmatrix}\overrightarrow v
      • A1MAA^{-1}MA형태
        • MM: 선형변환
        • A,A1A, A^{-1}: 관점의 변환

Chapter 14

  • 일반적으로 벡터는 선형 변환 이후, 자신이 span하는 공간을 벗어남
    • 몇몇 벡터는 span을 벗어나지 않음: 길이가 늘어나거나 줄어들기만 함
      • 이러한 벡터를 고유벡터(eigen vectors)라고 함
      • 변환 도중 늘어나고 줄어드는 정도를 고유값(eigen value)라고 함
  • Av=λvA\overrightarrow v = \lambda\overrightarrow v
    • AA: 선형변환 행렬
    • v\overrightarrow v: 고유벡터, λ\lambda: 고유값
    • 즉, 선형변환한 결과가 λ\lambda배한 결과와 동일하다는 의미
      • λ\lambda가 스칼라이므로, 연산을 위해 [λ    0    00    λ    00    0    λ]\begin{bmatrix} \lambda \;\; 0 \;\; 0 \\0\;\;\lambda \;\; 0 \\ 0\;\;0\;\;\lambda\end{bmatrix} (λI\lambda I)형태로 표현
    • 따라서, (AλI)v=0(A-\lambda I)\overrightarrow v = \overrightarrow 0을 계산
      • 영벡터가 아닌 벡터를 행렬곱을 통해 영벡터로 만드는 것은 "더 낮은 차원으로 축소하는 것"
      • 즉, 행렬식이 0
        • det(AλI)=0\det(A-\lambda I)=0의 실수해가 없는 경우, 고유벡터가 없는 것
  • 하나의 고유값이 여러 개의 고유 벡터를 보유할 수 있다.
  • 기저 벡터가 고유 벡터라면, 대각행렬로 표현
    • 기저의 방향은 유지되고 길이만 달라지기 때문
    • 즉, 선형 변환을 계산하기 쉬움
      • [xy]\begin{bmatrix} x \\ y \end{bmatrix}nn번 선형 변환 수행하면 [λ1nxλ2ny]\begin{bmatrix} \lambda_1^nx \\ \lambda_2^ny \end{bmatrix}
      • 고유벡터가 기저벡터가 되도록 선형변환하여 연산한 후, 원래대로 변환하면 계산이 쉬움
        • A1MAA^{-1}MA 형태 연산 수행

Reference

https://www.youtube.com/playlist?list=PLZHQObOWTQDPD3MizzM2xVFitgF8hE_ab

profile
데이터사이언스를 공부하는 권유진입니다.

0개의 댓글