1. Norms
Norm
- length of vectors
![](https://velog.velcdn.com/images/chae0382/post/d9dc6f33-fc91-477a-bd5b-8d97de6d3647/image.png)
Manhattan Norm
![](https://velog.velcdn.com/images/chae0382/post/1f55def5-bf74-4b6e-b720-59fdcd2747a7/image.png)
Euclidean Norm
![](https://velog.velcdn.com/images/chae0382/post/fba53e54-06dd-410c-b702-186fb784d336/image.png)
이 책에서는 언급이 없으면 Euclidean norm을 사용할 것이다.
2. Inner Products
Inner products의 major purpose는 vectors가 서로 orthogonal한지를 결정하는 것임.
2.1 Dot Product
이것은 우리가 흔히 익숙한 scalar product/dot product이다. 우리는 앞으로 이 특정 inner product를 dot product라고 부를 것임.
![](https://velog.velcdn.com/images/chae0382/post/74944287-c777-4803-826f-bd5186b29e05/image.png)
하지만 inner product는 특정 성질을 가지고 있는 더 일반적인 concept이다.
2.2 General Inner Products
Bilinear mapping Ω
- 두 arguments로 된 mappping
- 각 argument에서 linear
- vector space V에서 x,y,z ∈ V, λ,ψ ∈ R 일때 다음을 만족함.
![](https://velog.velcdn.com/images/chae0382/post/6da746bc-77ff-4470-b8e7-6395a4bb3d0b/image.png)
Symmetric, positive definite
![](https://velog.velcdn.com/images/chae0382/post/a288c66b-b368-40ed-be06-34059bac5527/image.png)
Inner product, Inner product space
- positive definite, symmetric bilinear mapping Ω : V x V -> R 를 V에 inner product하고 부르고 Ω(x,y) 대신에 <x,y>라고 쓴다.
- pair (V, <·,·>)를 inner product space 또는 (real) vector space with inner product라고 부름.
- dot product를 사용하는 경우 (V, <·,·>)를 Euclidean vector space라고 부름.
- 이 책에서는 inner product space라고 할 것.
![](https://velog.velcdn.com/images/chae0382/post/0a2ea922-2dfe-45ce-bd5d-f11ed7881a45/image.png)
![](https://velog.velcdn.com/images/chae0382/post/cb00db68-1c6f-402f-b90b-79898662475f/image.png)
2.3 Symmetric, Positive Definite Matrices
![](https://velog.velcdn.com/images/chae0382/post/46a7d438-8a46-4792-9483-552fb70e3501/image.png)
👉 Example 3.4 (Symmetric, Positive Definite Matrix)
Inner product와 symmetric,positive definite matrix의 관계
![](https://velog.velcdn.com/images/chae0382/post/54562371-f1a0-41c8-83d7-d14bfb3a0327/image.png)
3. Lengths and Distances
inner product가 norm을 유도할 수 있다는 점에서 inner product와 norm은 밀접하게 관련되어 있음.
하지만 Manhattan norm과 같이 inner product에 의해 유도되지 않은 norm도 있음.
여기서는 inner products에 의해 유도되는 norm에 집중할 것임.
![](https://velog.velcdn.com/images/chae0382/post/d23e9e30-e937-4b0c-a2cc-bc3b9824248a/image.png)
👉 Example 3.5 (Lengths of Vectors Using Inner Products)
Cauchy-Schwarz Inequality
![](https://velog.velcdn.com/images/chae0382/post/495ae241-1dd9-4e0c-adb8-8abf5397ef42/image.png)
Distance and Metric
Distance
Euclidean distance
![](https://velog.velcdn.com/images/chae0382/post/599a40b4-8fa8-48f8-bd4f-38e607137d6c/image.png)
Metric
![](https://velog.velcdn.com/images/chae0382/post/89c1b473-d1bd-47ce-a104-241f36ea7532/image.png)
![](https://velog.velcdn.com/images/chae0382/post/925c962e-1e1f-4d8c-bd7c-c89f0c473649/image.png)
4. Angles and Orthogonality
inner product spaces에서 두 vector간의 angle을 정의하기 위해 Cauchy-Schwarz inequality를 사용한다.
Angle
![](https://velog.velcdn.com/images/chae0382/post/4df430a5-6579-4f9f-ab8e-9b8c2bdfaa86/image.png)
👉 Example 3.6 (Angle between Vectors)
Orthogonality
Orthogonality
Orthonormal
![](https://velog.velcdn.com/images/chae0382/post/319ec968-e78f-4230-8b92-1af1d83e6dfd/image.png)
👉 Example 3.7 (Orthogonal Vectors)
한 inner product에 대해서 orthogonal한 두 vector가 다른 inner product에 대해서도 orthogonal 할 필요 없다.
Orthogonal Matrix
![](https://velog.velcdn.com/images/chae0382/post/51c747c6-1597-476a-8b22-15f6e64c1724/image.png)
더 정확하게 말하면 orthonormal임.
즉, Orthogonal matrix의 inverse는 transpose와 같다.
- 두 vector를 orthogonal matrices에 의해 transformation하면 distance와 angle이 보존된다.
- orthogonal matrices는 rotation인 transformation을 정의한다.
5. Orthonormal Basis
여기서는 각 basis vector의 길이가 1이고, basis vectors가 서로 orthogonal한 특별한 경우를 다룸. 이러한 basis를 orthonormal basis라고 부름.
Orthonormal Basis(ONB)
Orthonormal Basis(ONB)
Orthogonal Basis
![](https://velog.velcdn.com/images/chae0382/post/41451e04-4796-4e7f-bab3-33546402a5cf/image.png)
- Inner product가 dot product일 때, Euclidean vector space에서의 canonical/standard basis는 orthonormal basis
- 두 basis가 orthonormal basis인지 보기 👉 Example 3.8 (Orthonormal Basis)
Gram-Schmidt process
A set of non-orthogonal and unnormalized basis vectors가 주어졌을 때, 각 basis vector를 column으로 하는 matrix를 만들고 다음과 같은 augmented matrix에 Gaussian elimination을 적용하여 orthonormal basis를 얻는 방법
![](https://velog.velcdn.com/images/chae0382/post/0d5ec21f-fa22-4f8e-98d3-7ed594788af6/image.png)
6. Orthogonal Complement
이제 서로 orthogonal한 vector space에 대해 알아봄.
Orthogonal Complement
- D차원 vector space V와 M차원 subspace U ⊆ V 가 있을 때, orthogonal complement U⊥ 는 V의 (D-M)차원 subspace임
- V에 있는 모든 vector는 U에 있는 모든 vector에 orthogonal함
- U ∩ U⊥ = {0} 이므로 모든 vector x ∈ V는 다음과 같이 uniquely decomposed될 수 있다.
- (b1,...,bM)은 U의 basis, (b1⊥,...,bD−M⊥)은 U⊥의 basis
![](https://velog.velcdn.com/images/chae0382/post/eec7fef2-d498-4b2b-bb0a-8926c0071bd6/image.png)
normal vector
![](https://velog.velcdn.com/images/chae0382/post/d6770b0c-f398-479a-ab74-fd62c069102c/image.png)
- plane U에 orthogonal한 ∥w∥ =1 인 vector w는 U⊥의 basis vector
- w에 orthogonal한 모든 vectors는 plane U에 놓여있어야 함. 이 때의 w를 U의 normal vector라고 함.
일반적으로 orthogonal complements는 n-dimensional vector에서의 hyperplanes와 affine spaces를 설명하는 데 사용된다.
7. Inner Product of Functions
두 function u : R -> R과 v : R-> R 의 inner product는 다음과 같은 definite integral로 정의할 수 있음.
![](https://velog.velcdn.com/images/chae0382/post/ddff0076-ba0a-421b-b26e-dc345e7a859b/image.png)
- vector일때와 똑같이 norm과 orthogonality를 정의할 수 있음.
- 계산 값이 0이면 두 function은 orthogonal
👉 Example 3.9 (Inner Product of Functions)
8. Orthogonal Projections
Projection
![](https://velog.velcdn.com/images/chae0382/post/7157b729-2971-4639-81c8-b221d3b627bb/image.png)
Projection matrix
Linear mapping은 transformation matrix로 표현될 수 있음.
Pπ2 = Pπ 성질을 만족하는 특별한 종류의 transformation matrix Pπ를 projection matrix라고 부름.
앞으로 특별한 언급 없으면 dot product를 inner product라고 가정함.
8.1 Projection onto One-Dimensional Subspaces (Lines)
![](https://velog.velcdn.com/images/chae0382/post/8129ab66-81a9-48a9-85cf-f2b23c3fb304/image.png)
![](https://velog.velcdn.com/images/chae0382/post/b0cb4b68-6b7b-410c-96c2-847b9f37066e/image.png)
3-step procedure to determine coordinate λ, projection πU(x) ∈ U, projection matrix Pπ
- coordinate λ of the projection
![](https://velog.velcdn.com/images/chae0382/post/a0c6125b-38c7-430a-ab67-0838f50a66fa/image.png)
-
projection point πU(x) ∈ U
![](https://velog.velcdn.com/images/chae0382/post/7a199d98-9b18-41d4-8c28-836a7801effd/image.png)
-
Finding the projection matrix Pπ
![](https://velog.velcdn.com/images/chae0382/post/970a83eb-191e-4117-af3b-1fe3b7781f0f/image.png)
- projection matrix는 항상 symmetric함.
- projection πU(x)은 여전히 n-dimensional vector이다. 하지만 우리는 더이상 이 projection을 표현하기 위해 n coordinates가 필요하지 않고, subspace U를 span하는 basis vector b에 대해 표현을 하고 싶으면 1차원의 λ만 필요하다.
👉 Example 3.10 (Projection onto a Line)
8.2 Projection onto General Subspaces
![](https://velog.velcdn.com/images/chae0382/post/acddc431-c209-4fdd-a21a-3821f67a3b72/image.png)
3-step procedure to find the projection πU(x) and the projection matrix Pπ
-
coordinates λ1, ... , λm of the projection (with respect to the basis of U)
normal equation
pseudo-inverse of B
![](https://velog.velcdn.com/images/chae0382/post/0cce01ff-c65e-46fb-9bcd-51b669dfd80c/image.png)
-
projection πU(x) ∈ U
![](https://velog.velcdn.com/images/chae0382/post/5cf958ed-ae93-40a5-b9c9-52684e49e307/image.png)
- projection matrix Pπ
![](https://velog.velcdn.com/images/chae0382/post/dd7e4843-737c-41e3-b5d9-82c6a2475c0c/image.png)
👉 Example 3.11 (Projection onto a Two-dimensional Subspace)
- projections πU(∗∗x∗∗)은 여전히 n-dimensional vector이다. 하지만 우리는 더이상 이 projected vector을 표현하기 위해 n coordinates가 필요하지 않고, subspace U의 basis vectors b1, ... , bm에 대한 m coordinates λ1, ... , λm만 필요함.
Projections는 linear system Ax=b가 solution이 없을 때 approximate solution을 구할 수 있음.
A의 column들로부터 span되는 subspace에 대한 b의 orthogonal projection을 계산함으로써 가장 가까운 b를 구할 수 있음. 이로써 구한 solution을 least-squares solution이라고 함.
basis가 ONB인 경우
![](https://velog.velcdn.com/images/chae0382/post/4354f22f-4c10-4095-8fc7-d0deabe970f8/image.png)
8.3 Gram-Schmidt Orthogonalization
n-dimensional vector space V의 아무 basis (b1, ... , bn)을 V의 orthogonal/orthonormal basis (u1, ... , un)로 transform해준다. 이러한 basis는 항상 존재.
방식은 다음과 같음.
![](https://velog.velcdn.com/images/chae0382/post/37ab2219-b557-4786-9a62-c587454479bc/image.png)
그리고 구한 uk를 normalize해주면 ONB를 얻을 수 있음.
👉 Example 3.12 (Gram-Schmidt Orthogonalization)
8.4 Projection onto Affine Subspaces
지금까지는 vector를 lower-dimensional subspace U에 어떻게 projection하는지를 배움. 지금은 vector를 affine subspace에 projection하는 방법을 배움
affine space L = x0 + U 가 주어졌을 때 x를 L로의 orthogonal projection πL(x)을 결정하는 문제를 풀기위해 vector subspace로의 projection으로 문제를 바꾼다.
-> vector subspace L - x0 = U를 define, projection πU(x - x0)을 얻음
orthogonal projection onto an affine space L은 구한 πU(x - x0)에서 x0를 더함으로써 얻을 수 있음
![](https://velog.velcdn.com/images/chae0382/post/ba076956-3565-437a-9f55-c5944c257af9/image.png)
- πU는 L의 direction space
![](https://velog.velcdn.com/images/chae0382/post/3c3ee611-4b06-41a3-a7d1-93f9c2e163c8/image.png)
- affine space L로부터 x의 거리는 U로부터 x - x0의 거리와 같다
9. Rotations
Rotation
- plane을 origin에 대해 angle θ만큼 rotate한 linear mapping (automorphism of a Euclidean vector space)
9.1 Rotations in R2
![](https://velog.velcdn.com/images/chae0382/post/5d416f68-f10f-4eb0-b6da-93cb577ae735/image.png)
-
rotated vectors는 여전히 linearly independent, 즉, R2의 basis임. 이것은 rotation이 basis change를 수행함을 의미함.
-
Rotation Φ는 linear mapping이므로, rotation matrix R(θ)로 표현할 수 있음
Rotation matrix
rotated coordinates R(θ)로 basis change를 수행하는 rotation matrix
![](https://velog.velcdn.com/images/chae0382/post/831d22d6-856a-4dba-bdf3-abb39cea5e3b/image.png)
9.2 Rotations in R3
-
R3에서의 general rotation matrix를 구하는 방법 : images Re1, Re2, Re3를 구하고 이것들이 서로 orthonormal하도록 함
-
Rotation about the e1-axis
![](https://velog.velcdn.com/images/chae0382/post/2ac44ed8-7d76-4685-b79a-f33ca3de6568/image.png)
-
Rotation about the e2-axis
![](https://velog.velcdn.com/images/chae0382/post/06ca32d4-d1a1-40b7-8739-071c60969f8b/image.png)
-
Rotation about the e3-axis
![](https://velog.velcdn.com/images/chae0382/post/179f3a15-b25f-4303-ba8f-3b5bb27a04ed/image.png)
9.3 Rotations in n Dimensions
Givens Rotation
![](https://velog.velcdn.com/images/chae0382/post/ab8a17b1-f7c9-49a7-8278-a5564f7e8fe1/image.png)
![](https://velog.velcdn.com/images/chae0382/post/88f4e103-f431-465e-9d24-ba55bbb52b1b/image.png)
9.4 Properties of Rotations
- rotation은 distance를 보존
- rotation은 angle을 보존
- 3차원 이상에서의 rotation은 일반적으로 commutative하지 않음
- 2차원 vector에서만 rotation이 commutative. 그래서 같은 point에 대해 rotate하는 경우에만 rotation은 multiplication에 대해 Abelian group을 형성