본 게시글은 주재걸 교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다.
https://www.boostcourse.org/ai251/joinLectures/195088
Notation
Scalar : 소문자
Vector : 굵은 소문자 (기본 형태가 column vector)
Matrix : 대문자
핵심
- 선형변환의 정의
- 모든 선형변환은 행렬로 나타낼 수 있음
- Affine -> Linear는 m -> n 차원 변환을 m+1 -> n차원 변환으로 바꾸면 됨
- 변환 행렬 A에서 각각의 열벡터들은 단위기저벡터가 결과에 미치는 영향!!
T(cu+dv)=cT(u)+dT(v)
for all u,v in the domain of T and for all scalars c and d
T(x) = 3x + 2 라는 변환은 위 성질을 만족을 못시키기 때문에 선형변환이 아니다.
위 변환은 T:R1→R1 이다.
그런데 이를 다음과 같이 바꾸면 선형변환이 된다.
T:R2→R1(32)(x1)=3x+2
선형변환은 항상 행렬곱으로 나타낼 수 있다.
let T : Rn→Rm 이라 하자.
T(⎝⎜⎜⎜⎛x1x2...xn⎠⎟⎟⎟⎞)=x1T(⎝⎜⎜⎜⎛10...0⎠⎟⎟⎟⎞)+x2T(⎝⎜⎜⎜⎛01...0⎠⎟⎟⎟⎞)+...xnT(⎝⎜⎜⎜⎛00...1⎠⎟⎟⎟⎞)
T(x)=⎝⎜⎜⎜⎛T⎝⎜⎜⎜⎛10...0⎠⎟⎟⎟⎞T⎝⎜⎜⎜⎛01...0⎠⎟⎟⎟⎞...T⎝⎜⎜⎜⎛00...1⎠⎟⎟⎟⎞⎠⎟⎟⎟⎞⎝⎜⎜⎜⎛x1x2...xn⎠⎟⎟⎟⎞
따라서 우린 T 변환에 기저 벡터들의 결과값을 얻으면 T를 행렬곱으로 나타낼 수 있다.
선형변환 with Neural Networks
![](https://velog.velcdn.com/images/tri2601/post/94f49514-22d8-41c2-909d-d565174534eb/image.png)
![](https://velog.velcdn.com/images/tri2601/post/9b5dc614-f565-4ed7-9494-f8ba3806aada/image.png)
위 그림에서 확인할 수 있듯 어떤 선형변환 A에서의 열벡터는 어떠한 특성이 기여하는 정도를 나타낸다!