벡터공간(Vector Space)

정진우·2025년 2월 7일

딥러닝에서는 선형대수학이 많이 쓰입니다. 딥러닝을 공부하는 학생으로서 선형대수에 대한 수학적 기반을 다지기 위해서 정의들을 다시 한 번 살펴보고 공부하기로 마음먹었습니다.

먼저 벡터공간은 선형대수학의 가장 기본적인 개념 중 하나로, 벡터라고 부르는 원소들의 집합에 대해 두 가지 연산 (벡터 덧셈과 스칼라 곱셈)이 정의되어 있으며, 이 연산들이 특정 공리들을 만족하는 구조를 말합니다. 보다 구체적으로 설명하면 다음과 같습니다.

1. 벡터공간의 정의

벡터공간 (또는 선형공간)은 다음의 두 구성 요소로 이루어집니다.

  • 집합 VV: 벡터라고 부르는 원소들의 모임
  • 필드 FF: 스칼라라고 부르는 숫자들이 속한 체계 (일반적으로 실수 R\mathbb{R}나 복소수 C\mathbb{C} 등이 사용됨)

이때, 벡터공간 VV는 아래와 같이 두 연산이 정의되어 있어야 합니다.

  1. 벡터 덧셈: 임의의 두 벡터 u,vV\mathbf{u}, \mathbf{v} \in V에 대해, u+v\mathbf{u} + \mathbf{v} 또한 VV의 원소여야 합니다.
  2. 스칼라 곱셈: 임의의 스칼라 aFa \in F와 벡터 vV\mathbf{v} \in V에 대해, ava\mathbf{v} 역시 VV의 원소여야 합니다.

2. 벡터공간이 만족해야 하는 공리들

벡터공간이 되기 위해서는 위의 두 연산이 다음과 같은 공리들을 만족해야 합니다.

(1) 벡터 덧셈에 관한 공리

  • 닫힘성: 모든 u,vV\mathbf{u}, \mathbf{v} \in V에 대해 u+vV\mathbf{u} + \mathbf{v} \in V.
  • 교환법칙: u+v=v+u\mathbf{u} + \mathbf{v} = \mathbf{v} + \mathbf{u}.
  • 결합법칙: (u+v)+w=u+(v+w)(\mathbf{u} + \mathbf{v}) + \mathbf{w} = \mathbf{u} + (\mathbf{v} + \mathbf{w}) (모든 u,v,wV\mathbf{u}, \mathbf{v}, \mathbf{w} \in V).
  • 덧셈의 항등원 존재: 0V\mathbf{0} \in V가 존재하여, 모든 vV\mathbf{v} \in V에 대해 v+0=v\mathbf{v} + \mathbf{0} = \mathbf{v}.
  • 덧셈의 역원 존재: 각 vV\mathbf{v} \in V에 대해 vV-\mathbf{v} \in V가 존재하여, v+(v)=0\mathbf{v} + (-\mathbf{v}) = \mathbf{0}.

(2) 스칼라 곱셈에 관한 공리

  • 닫힘성: 모든 aFa \in FvV\mathbf{v} \in V에 대해 avVa\mathbf{v} \in V.
  • 스칼라 곱셈의 결합법칙: (ab)v=a(bv)(ab)\mathbf{v} = a(b\mathbf{v}) (모든 a,bFa, b \in FvV\mathbf{v} \in V).
  • 스칼라 곱셈의 항등원: 1v=v1\mathbf{v} = \mathbf{v} (여기서 11FF의 곱셈 항등원).
  • 분배법칙 (벡터에 대해): a(u+v)=au+ava(\mathbf{u} + \mathbf{v}) = a\mathbf{u} + a\mathbf{v} (모든 aFa \in Fu,vV\mathbf{u}, \mathbf{v} \in V).
  • 분배법칙 (스칼라에 대해): (a+b)v=av+bv(a + b)\mathbf{v} = a\mathbf{v} + b\mathbf{v} (모든 a,bFa, b \in FvV\mathbf{v} \in V).

다음은 선형변환 대해 공부해보겠습니다.

profile
로봇지능,컴퓨터 비전,AI 공부 중

0개의 댓글