선형대수의 가장 핵심이 되는 개념이라고 할 수 있는 선형결합(linear combination)과 선형변환(linear transformation) 입니다.다음과 같이 2차원 좌표공간에 특정한 열벡터 $\\overrightarrow{v}$가 있다고 가정해봅시다. $$\
선형변환(linear transformations)에대 알아봅시다.먼저 용어 정리를 하고 넘어갑시다.선형대수학에서 transformation이란 다름아닌 특정 매트릭스를 인풋으로 해서 다른 매트릭스를 아웃풋하는 함수(function)에 지나지 않습니다. 다음과 같이 2
square하지 않은 모양의 행렬에 대한 선형변환(Linear transformation)에 대하여 알아보겠습니다.2\*2 선형변환 매트릭스에서 각 컬럼은 기저벡터 $\\hat{i}$ 와 $\\hat{j}$ 가 향후 위치할 좌표를 나타냅니다.$$\\hat{i} =\\b
먼저 벡터의 내적(dot product)가 어떻게 계산되는지 봅시다.계산은 매우 간단합니다. 벡터의 내적을 위해서는 정확히 같은 차원의 두 벡터가 필요하며같은 좌표 위치에 있는 성분끼리 곱해서 전부 합하면 됩니다.$$\\begin{bmatrix}1\\0\\3\\\\en
동일한 2차원의 벡터 $\\overrightarrow{w}$와 $\\overrightarrow{v}$ 가 있다고 가정해 봅시다. 벡터의 외적은 두 벡터를 서로 평행하게 이동시켜 서로를 맞닿게하여 그릴 수 있는 평행사변형(parallelogram)의 면적과 같습니다. 그
다음과 같은 통상적인 기저(basis)벡터를 가정해봅시다.$$\\hat{i} =\\begin{bmatrix}1\\0\\\\end{bmatrix} \\:\\:\\:\\hat{j} =\\begin{bmatrix}0\\1\\\\end{bmatrix} $$그리고 다음과 같은
Eigenvectors and Eigenvalues
Singular value decomposition Intuition 정방형(square) 매트릭스는 eigenvector 및 eigenvalues를 통해 다음과 같이 대각행렬로 분해가 가능합니다. 이를 eigen decomposition이라고 합니다. $$ A =