딥러닝에서는 선형대수학이 많이 쓰입니다. 딥러닝을 공부하는 학생으로서 선형대수에 대한 수학적 기반을 다지기 위해서 정의들을 다시 한 번 살펴보고 공부하기로 마음먹었습니다.
먼저 벡터공간은 선형대수학의 가장 기본적인 개념 중 하나로, 벡터라고 부르는 원소들의 집합에 대해 두 가지 연산 (벡터 덧셈과 스칼라 곱셈)이 정의되어 있으며, 이 연산들이 특정 공리들을 만족하는 구조를 말합니다. 보다 구체적으로 설명하면 다음과 같습니다.
1. 벡터공간의 정의
벡터공간 (또는 선형공간)은 다음의 두 구성 요소로 이루어집니다.
- 집합 V: 벡터라고 부르는 원소들의 모임
- 필드 F: 스칼라라고 부르는 숫자들이 속한 체계 (일반적으로 실수 R나 복소수 C 등이 사용됨)
이때, 벡터공간 V는 아래와 같이 두 연산이 정의되어 있어야 합니다.
- 벡터 덧셈: 임의의 두 벡터 u,v∈V에 대해, u+v 또한 V의 원소여야 합니다.
- 스칼라 곱셈: 임의의 스칼라 a∈F와 벡터 v∈V에 대해, av 역시 V의 원소여야 합니다.
2. 벡터공간이 만족해야 하는 공리들
벡터공간이 되기 위해서는 위의 두 연산이 다음과 같은 공리들을 만족해야 합니다.
(1) 벡터 덧셈에 관한 공리
- 닫힘성: 모든 u,v∈V에 대해 u+v∈V.
- 교환법칙: u+v=v+u.
- 결합법칙: (u+v)+w=u+(v+w) (모든 u,v,w∈V).
- 덧셈의 항등원 존재: 0∈V가 존재하여, 모든 v∈V에 대해 v+0=v.
- 덧셈의 역원 존재: 각 v∈V에 대해 −v∈V가 존재하여, v+(−v)=0.
(2) 스칼라 곱셈에 관한 공리
- 닫힘성: 모든 a∈F와 v∈V에 대해 av∈V.
- 스칼라 곱셈의 결합법칙: (ab)v=a(bv) (모든 a,b∈F와 v∈V).
- 스칼라 곱셈의 항등원: 1v=v (여기서 1은 F의 곱셈 항등원).
- 분배법칙 (벡터에 대해): a(u+v)=au+av (모든 a∈F와 u,v∈V).
- 분배법칙 (스칼라에 대해): (a+b)v=av+bv (모든 a,b∈F와 v∈V).
다음은 선형변환 대해 공부해보겠습니다.