[Linear Algebra] 5. Orthogonality and Least Squares

김강태·2021년 11월 19일
0

Linear Algebra

목록 보기
5/5

이 글은 Linear Algebra and Its Applications 책을 정리한 글입니다.



  • 어떠한 inconsistent system of equation이 solution이 없을때 approximate solution을 구할 필요가있다. 이번 챕터에서는 orthogonality라는 성질을 통해 nearest point를 찾고 approximate solution을 찾을것 이다.

6.1 Inner product, length, and orthogonality



The Inner Product

  • 위와같은 Rn\mathbb{R}^n 의 vector u,v\bold{u, v}가 있을때 우리는 이를 n×1n \times 1 matrix로 간주할 수 있으며, tranpose인 uT\bold{u}^T1×n1 \times n matrix이다. 또한 이들의 matrix product인 uTv\bold{u}^T\bold{v} 는 a single real number로 쓸 수 있는데 이를 Inner product라고 하며 uTv\bold{u}^T\sdot\bold{v} 라고 쓸 수 있으며 이를 dot product라고 한다.


Theorem1
Let u,v,w\bold{u, v, w} be vector in Rn\mathbb{R}^n, and let c be scalar then,

  • uv\bold{u} \sdot \bold{v} = vu\bold{v} \sdot \bold{u}
  • (u+v)w=uw+vw(\bold{u} + \bold{v})\sdot \bold{w} = \bold{u}\sdot \bold{w} + \bold{v}\sdot \bold{w}
  • (cu)v=c(u+v)(c\bold{u})\sdot\bold{v} = c(\bold{u}+\bold{v})
  • uu0\bold{u}\sdot \bold{u} \ge 0 and uu=0\bold{u}\sdot \bold{u} = 0 if and only if u=0\bold{u} = 0

The Length of a Vector

Definition

  • The length (or norm) of v\bold{v} in Rn\mathbb{R}^n is nonnegative scalar v\rVert\bold{v}\lVert defined by
  • cv=cv\rVert c\bold{v}\lVert = \rVert c\lVert\rVert \bold{v}\lVert
  • unit vector \to u\rVert\bold{u}\lVert = 1
  • normalizationing \to u=1vv\bold{u} = \frac{1}{\rVert\bold{v}\lVert}\bold{v}

Distance in Rn\mathbb{R}^n

Definition

  • For u\bold{u} and v\bold{v} in Rn\mathbb{R}^n, the distance between u\bold{u} and v\bold{v}, written as dist(u\bold{u},v\bold{v}), is the length of the vector uv\bold{u}-\bold{v}. That is dist(u\bold{u},v\bold{v}) = uv\lVert\bold{u}-\bold{v}\rVert

Example

  • 두 vector u=(7,1)\bold{u} = (7,1), v=(3,2)\bold{v} = (3,2) 사이의 distance를 구하라.

  • 아래 그림에서 나타나다시피 u\bold{u}v\bold{v}의 distance는 uv\bold{u-v} 와 0 사이의 distance와 같다.

Example4



Orthogonal Vectors


  • 위 그림에서 distance from u\bold{u} to v\bold{v} 이 distance from u\bold{u} to v-\bold{v}랑 같다묜 이는 geometrically perpendicular하며 이 둘은 squares of distance가 같다.

  • 두 dist가 같을 조건은 2uv\bold{u}\sdot\bold{v} = -2uv\bold{u}\sdot\bold{v} 이므로 uv=0\bold{u}\sdot\bold{v} = 0
    이 되어야한다.

Definition
-Two vectors u\bold{u} and v\bold{v} in Rn\mathbb{R}^n are orthogonal if uv=0\bold{u}\sdot\bold{v} = 0

  • 추가로 zero vector는 Rn\mathbb{R}^n의 모든 vector에 대하여 orthogonal하다 (0Tv=0\bold{0}^T\sdot\bold{v} = 0)

Theorem
Pythagoream Theorem

  • Two vector u,v\bold{u, v} are orthogonal if and only if u+v2=u2+v2\lVert\bold{u+v}\rVert^2 = \lVert\bold{u}\rVert^2 + \lVert\bold{v}\rVert^2



Orthogonal Complement


  • vector z\bold{z}Rn\mathbb{R}^n의 subspace W에 모든 vector에 orthogonal하다면, z\bold{z}는 W에 orthogonal하다고 말한다. 또한 W에 orthogonal인 set of all vector z\bold{z}orthogonal complemnet of W 라고 하며 WW^\bot으로 표기한다.

  • 위 그림처럼 W가 R3R^3의 원점을 지나는 subspace인 평면이고 L이 W에 perendicular(직각)이며 원점을 지나는 직선이다. vector z\bold{z}가 W of R3\mathbb{R}^3의 모든 벡터에 orthogonal한다면 z\bold{z}는 orthogonal to W라고 부른다 (z\bold{z}\sdotW = 0).
    - ortogonal이 vector관의 관계 뿐 아니라 벡터와 subspace사이에서도 사용됨.

Example

  • vector y\bold{y} 가 vectors u\bold{u} and v\bold{v}에 orthogonal하다고 가정했을때. y\bold{y} 가 vector u+v\bold{u + v}에 orthogonal함을 보여라.

yu=0yv=0y(u+v)=yu+yv\bold{y} \sdot \bold{u} = 0 \\ \bold{y} \sdot \bold{v} = 0 \\ \bold{y} \sdot (\bold{u+v}) = \bold{y} \sdot \bold{u} + \bold{y} \sdot \bold{v}

Example6~8



Theorem3

  • Let A be an n×nn \times n matrix. The orthogonal complement of the row space of A is the null space of A, and the orthogonal complement of the column space of A is the null space of AA^\top :
(Row A)=Nul A  and  (Col A)=Nul A(Row \ A)^\perp = Nul \ A \ \ and \ \ (Col \ A)^\perp = Nul \ A^\top


6.2 Orthogonal Sets



  • A Set of vectors u1, , up{\bold{u}_1, \ \dots, \ \bold{u}_p} in Rn\mathbb{R}^n is said to be an orthogonal set if each pair of distinct vectors from the set is orthogonal, if uiuj=0\bold{u}_i \sdot \bold{u}_j = 0 whenever iji \ne j
    - 해당 set안의 임이의 두 vector가 orthogonal하아면 그 set은 orthogonal set이다는 소리.

Example

  • 위 세 vector set이 orthogonal set인지 보여라.

  • 각각의 vector들이 orthogonal함을 보였으니 이는 orthogonal set이며 아래 그림과 같다.


Theorem

  • If S = {u1, , up\bold{u}_1, \ \dots, \ \bold{u}_p} is an orthogonal set of nonzero vectors in Rn\mathbb{R}^n, then S is linearly independent and hence is a basis for the subspace spanned by S.

c1u1++cpup=0c_1\bold{u}_1 + \dots + c_p\bold{u}_p = 0
  • 위 식인 linear combination을 만족하는 c1c_1 ~ cpc_p가 0인 경우 linearly independent set임을 보일 수 있다.

  • 위처럼 양변에 u1\bold{u}_1을 dot product 시키면 c1(u1u1)=0c_1(\bold{u}_1 \sdot \bold{u}_1) = 0 이 되고, 이때 u1u1\bold{u}_1 \sdot \bold{u}_1는 당연하게도 무조건 0이상이기에 c1=0c_1 = 0이 된다.
c1=0, , cp=0\therefore c_1 = 0, \ \dots, \ c_p = 0

Definition
Orthogonal Basis

  • An orthogonal basis for a subspace W of Rn\mathbb{R}^n is a basis for W that is also an orthogonal set.
  • Rn\mathbb{R}^n의 subspace의 basis이면서 orthogoanl set이면 orthogonal basis라는 소리.

Theorem

  • Let {u1, , up\bold{u}_1, \ \dots, \ \bold{u}_p} be an orthogonal basis for a subspace W of Rn\mathbb{R}^n. For each y\bold{y} in W , the weights in the linear combination y=c1u1++cpup\bold{y} = c_1\bold{u}_1 + \dots + c_p\bold{u}_p are given by cj=yujujujc_j = \frac{\bold{y} \sdot \bold{u}_j}{\bold{u}_j \sdot \bold{u}_j}.
  • 이 전까지 weights를 찾으려면 augmented matrix를 row operation하여 solution을 찾았는데 orthogonal basis이면 위처럼 명시적으로 주어진다.

  • 위 식에서 orthogonal set이기에 u1\bold{u}_1 끼리의 dot product빼고는 전부 0이 된다.
 c1=yu1u1u1\therefore \ c_1 = \frac{\bold{y} \sdot \bold{u}_1}{\bold{u}_1 \sdot \bold{u}_1}

Example

  • set S = {u1, u2, u3\bold{u}_1, \ \bold{u}_2, \ \bold{u}_3}이 위와 같고, orthogonal basis for R3\mathbb{R}^3일때 vector y\bold{y} = (6,1,-8)를 orthogoanl basis로 표현해보자.

  • 간단하게 위 이론에서처럼 계산해보면 위와같다.


Orthogonal Projection


  • nonzero vector u\bold{u} in Rn\mathbb{R}^n이 주어졌고 vector y\bold{y} in Rn\mathbb{R}^n 을 두 벡터로 decomposing해보면 아래처럼 나타낼 수 있고,
y=y^+z\bold{y = \hat{y} + z}
  • some scalar α\alphay^=αu\bold{\hat{y}} = \alpha\bold{u} 이고 z\bold{z}u\bold{u}에 orthogonal 할때 z=yαu\bold{z} = \bold{y} - \alpha\bold{u}라면 위 식을 만족한다.

  • 이때 yy^\bold{y - \hat{y}}u\bold{u}에 orthogonal하다면,
    0=(yαu)u=yu(αu)u=yuα(uu)0 = (\bold{y} - \alpha\bold{u})\sdot\bold{u} = \bold{y}\sdot\bold{u} - (\alpha\bold{u})\sdot\bold{u} = \bold{y}\sdot\bold{u} - \alpha(\bold{u}\sdot\bold{u}) 가 되며 이때, α=yuuu\alpha = \frac{\bold{y}\sdot\bold{u}}{\bold{u}\sdot\bold{u}} 이고 y^=yuuuu\bold{\hat{y}} = \frac{\bold{y}\sdot\bold{u}}{\bold{u}\sdot\bold{u}}\bold{u} 이 된다.

  • 이때 vector y^\bold{\hat{y}}orthogonal projection of y onto u 로 부르며, vector z\bold{z}component of y orthogonal to u 라고 하며 vector를 subspace L ( span{u\bold{u}} )로 확장하면 다음과같이 나타낼 수 있다.

* 위 내용은 어떤 vector가 있을 때 어떤 다른 vector 혹은 그 vector의 span에다 orthogonal projection이 어떤식으로 정의되는지를 보여준 것이다.

Example

  • 아래 두 vector가 주어졌을때 orthogonal projection of y\bold{y} onto u\bold{u}를 찾고 y\bold{y} 를 두 orthogonal vector의 합으로 나타내라 (하나는 in Span{y\bold{y}}, 다른 하나는 orthogonal to u\bold{u})

  • orthogonal projection of y\bold{y} onto u\bold{u}y^\bold{\hat{y}} 를 구하기위해 계산하면 다음과같고,

  • component of y\bold{y} orthogonal to u\bold{u} (orthogonal to u\bold{u}) 를 구하면 다음과 같다.

  • y\bold{y} 를 두 벡터로 나타내면 다음과같다.

  • 이를 그림으로 나타내면 다음과 같다.



Orthonomal sets


  • A Set {u1,,up\bold{u_1}, \dots, \bold{u_p}} is an orthonormal set if it is an orthogonal set of unit vectors.
    - 다시 언급하면 unit vector는 vector의 norm(length)이 1인 vector

Theorem

  • An m×nm \times n matrix UU has orthonormal columns if and only if UU=IU^\top U = I

  • UUU^\top U 를 위와같이 전개하여 보면 diagonal term들이 전부 1이고 나머지 entry가 0이면 UU는 orthonomal columns를 갖는단 소리.

Theorme

  • Let UU be an m×nm \times n matrix with orthonormal columns, and let x\bold{x} and y\bold{y} be in Rn\mathbb{R}^n. Then

    a. Ux=x\lVert U\bold{x} \rVert = \lVert \bold{x} \rVert
    b. (Ux)(Uy)=xy(U\bold{x})\sdot(U\bold{y}) = \bold{x \sdot y}
    c. (Ux)(Uy)=0(U\bold{x})\sdot(U\bold{y}) = 0 if and only if xy=0\bold{x \sdot y} = 0


6.3 Orthogonal Projection



  • vector y\bold{y}와 subspace W in Rn\mathbb{R}^n 이며 yy^\bold{y} - \hat\bold{y} 이 W에 orthogonal할때 unique vector y^\hat\bold{y} 가 있다. 이는 후에 다룰 least-squares solution에서 중요하게 다뤄진다.

  • vector y\bold{y} 는 vectors u1, , un\bold{u}_1, \ \dots, \ \bold{u}_n 의 linear combination으로 나타내었을 때 y\bold{y}y=z1+z2\bold{y} = \bold{z}_1 + \bold{z}_2 처럼 두개의 그룹으로 나타낼 수 있는데 이때 z1\bold{z}_1 은 linear combination의 일부이며 z2\bold{z}_2는 linear combination의 나머지이다. 이는 {u1, , un\bold{u}_1, \ \dots, \ \bold{u}_n} 가 orthogoanl basis( WW^\perp ) 일때 유용하게 사용된다.

Example

  • {u1, , u5\bold{u}_1, \ \dots, \ \bold{u}_5} 가 R5\mathbb{R}^5 의 orthogonal basis이며 y=c1u1++c5u5\bold{y} = c_1\bold{u}_1 + \dots + c_5\bold{u}_5 이고 subspace W = Span{u1,u2\bold{u}_1, \bold{u}_2} 이라고 하였을때 y\bold{y} 는 vector z1\bold{z}_1 in W와 vector z2\bold{z}_2 in WW^\perp 로 아래와같이 나타낼 수 있다.

  • z2\bold{z}_2 in WW^\perp 을 보이기 위해선 z2\bold{z}_2 가 basis {u1,u2\bold{u}_1, \bold{u}_2} for W의 vector에 대해 orthogonal함을 보이면 된다.


Theorme

  • Let W be a subspace of Rn\mathbb{R}^n. Then each y\bold{y} in Rn\mathbb{R}^n can be written uniquely in the form y=y^+z\bold{y} = \hat\bold{y} + \bold{z}, where y^\hat\bold{y} is in W and z\bold{z} is in WW^\perp. In fact, if {u1, , up\bold{u}_1, \ \dots, \ \bold{u}_p} is any orthogonal basis of W, then y^=yu1u1u1u1++yupupupup\hat\bold{y} = \frac{\bold{y} \sdot \bold{u}_1}{\bold{u}_1 \sdot \bold{u}_1}\bold{u}_1 + \dots + \frac{\bold{y} \sdot \bold{u}_p}{\bold{u}_p \sdot \bold{u}_p}\bold{u}_p and z=yy^\bold{z} = \bold{y} - \hat\bold{y}.
  • The vector y^\hat\bold{y}orthogonal projection of y onto W 라고 하며 projwyproj_w\bold{y}로 나타내며 아래의 그림과같다.
    - 이는 이전에 보았던 orthogonal projection of y onto L 을 subspace로 확장한것.


Example

  • 아래와 같이 vector가 주어졌고 {u1,u2\bold{u_1, u_2}} 가 orthogoanl basis for W = Span{u1,u2\bold{u_1, u_2}} 일때 y\bold{y} 를 W의 vector와 W에 orthogonal한 vector의 합으로 나타내라.

  • theorme에 따라 y^\bold{\hat{y}} 을 구하고 yy^\bold{y - \hat{y}} 을 구하면 다음과 같고

  • y를 두 vector의 합으로 decompose시키면 다음과 같다.


A Geometric Interpretation of the Orthogonal Projection

  • 이번엔 이전까지 보았던 R2\mathbb{R}^2 space를 확장해 R3\mathbb{R}^3 space상에서 시각적으로 살펴본다.

  • R3\mathbb{R}^3 space의 임의의 vector y\bold{y}를 Span{u1,u2\bold{u_1, u_2}} 평면에 orthogonal projection 시켜보자.

  • 위 그림처럼 y^\hat\bold{y}yu1u1u1u1+yu2u2u2u2\frac{\bold{y} \sdot \bold{u}_1}{\bold{u}_1 \sdot \bold{u}_1}\bold{u}_1 + \frac{\bold{y} \sdot \bold{u}_2}{\bold{u}_2 \sdot \bold{u}_2}\bold{u}_2로 정의에서처럼 명시할 수 있고 이때 각각의 component는 y^1\hat\bold{y}_1, y^2\hat\bold{y}_2 로 나누어지며 이 y^1\hat\bold{y}_1, y^2\hat\bold{y}_2는 결국 orthogonal basis의 각 벡터 (u1,u2\bold{u_1, u_2}) 가 span 하는 Line에 orthogonal projection 시킨 것 이다.


Theorme - The best approximation theorem

  • Let WW be a subspace of Rn\mathbb{R}^n, y\bold{y} any vector in Rn\mathbb{R}^n, and y^\hat\bold{y} be the orthogonal projection of y\bold{y} onto WW. Then y^\hat\bold{y} is the colset point WW to y\bold{y}, in the sense that yy^<yv\lVert \bold{y} - \hat\bold{y} \rVert < \lVert \bold{y} - \bold{v} \rVert for all v\bold{v} in WW distinct from y^\hat\bold{y}.
  • length 측면으로 보았을때 y\bold{y}y^\hat\bold{y}간의 차이가 WW에 어떤 vector v\bold{v}와의 차보다 작다는 뜻으로 아래 그림을 보고 이해할 수 있다.


Example


  • 아래와 같이 vector u1,u2,y\bold{u_1, u_2, y} 가 주어지고 WW가 Span{u1,u2\bold{u_1, u_2}} 이고 y\bold{y}가 nearest point to WW라고 하였을 때 distance from y\bold{y} to WW 를 구해라.


  • yy^\lVert \bold{y} - \hat\bold{y} \rVert 를 구하기 위해 y^\hat\bold{y}를 구하면 다음과 같고

  • distance를 구하면 다음과같다.

  • \therefore distance from y\bold{y} to WW = 353\sqrt5

Theorme

  • 일단 u1\bold{u_1} ~ up\bold{u_p} 가 orthonomal basis이기에 projWyproj_W{\bold{y}} 에서 각 vector의 coefficient의 분모가 unit vector끼리의 dot product이니 1이되어 위 (4)식으로 나타낼 수 있다.

  • 또한 projWyproj_W{\bold{y}} = UUyUU^\top\bold{y} 로 쓸 수있는데 이는 (4)번 식을 dot product 정의에 의해 (u1y)u1(\bold{u^\top_1 y})\bold{u}_1 로 나타낼 수 있고 이를 matrix로 정리하여 y를 바깥으로 빼내면 UUyUU^\top\bold{y}로 나타낼 수 있다.



6.4 The Gram-Schmidt Process



  • 이전까진 subspace를 이루는 orthogonal basis가 주어졌을 때 를 가정하였지만 이번 챕터는 gram-schmidt 라는 방법을 통해 orthogonal basis를 구하는 방법을 볼 것이다.

  • vector {v1,v2\bold{v_1, v_2}}를 subspace WW = Span{v1,v2\bold{v_1, v_2}}의 basis라고 가정하자
    - Span{v1,v2\bold{v_1, v_2}}의 basis가 orthogonal하다는 말이 없으니 orthogonal set이 아니라 그냥 linearly independent set이다.

  • 이때 subspace WW를 이루는 orthogonal basis를 찾아보자.

  • v1\bold{v}_1u1\bold{u}_1이라고 하고 v2\bold{v}_2u1\bold{u}_1에 projection 시켜 v^2\hat\bold{v}_2 (proju1v2proj_{\bold{u_1}}\bold{v_2})를 구한 후 u2\bold{u}_2v2v^2\bold{v}_2 - \hat\bold{v}_2 로 나타낼 수 있다.

  • 이때 u2=v2v^2=v2v2v1v1v1v1\bold{u}_2 = \bold{v}_2 - \hat\bold{v}_2 = \bold{v}_2 - \frac{\bold{v}_2 \sdot \bold{v}_1}{\bold{v}_1 \sdot \bold{v}_1}\bold{v}_1 의 linear combination 형태로 나타날수 있으므로 u2\bold{u}_2는 subspace WW에 있다는 것을 알수 있다.

  • u1\bold{u}_1, u2\bold{u}_2WW에 있음을 보였고 orthogonal하게 만들었으니 u1\bold{u}_1은 당연히 nonzero이고 u2\bold{u}_2가 nonzero임을 보여 linearly independent 함을 보여야한다 (u1\bold{u}_1u2\bold{u}_2가 orthogonal set이기에 nonzero이면 당연히 independent하다) .

  • 만일 u2\bold{u}_2가 nonzero가 아니라면 v2\bold{v}_2v^2\hat\bold{v}_2이 같다는 것인데 이는 v2\bold{v}_2가 Span{v1\bold{v}_1} 에 있다는 뜻이므로 둘은 dependent set이되고 이는 처음 정의에 의해 v1\bold{v}_1v2\bold{v}_2 가 subspace의 basis이니 성립이되지 않아 둘은 linearly independent하다.

    \therefore W = Span{u1,u2\bold{u_1, u_2}} = Span{v1,v2\bold{v_1, v_2}}


  • R3\mathbb{R}^3 space의 orthogonal basis를 찾는것도 똑같다.

  • 벡터 이름이 바뀌어 햇갈리지만 이번엔 basis를 이루는 또다른 주어진 벡터 x3\bold{x}_3R2\mathbb{R}^2 space 에서 구한 평면 WW (위 그림에선 W2W_2) 에 projection시켜 v3\bold{v_3}를 찾으면 된다.

  • 그 다음엔 v3=x3x^3\bold{v_3} = \bold{x_3} - \hat\bold{x}_3을 구하면 되는데 x^3\hat\bold{x}_3는 이 전 챕터에서 한 것 처럼 v1\bold{v_1}v2\bold{v_2}에 projection시켜주면 된다.



Theorem - The Gram-Schmidt Process

  • 위 내용처럼 Rn\mathbb{R}^n space의 subspace WW의 basis로 하나씩 projection시켜주며 vp\bold{v}_p 까지 구하여 WW의 orthogonal basis를 찾을 수 있다.

  • 또한 v1\bold{v}_1 ~ vp\bold{v}_p까지를 구할때 vk\bold{v}_kv1\bold{v}_1 ~ vk1\bold{v}_{k-1}xk\bold{x}_k의 linear combination으로 나타낼수 있었고 이를통해 Span{v1,,vk\bold{v_1, \dots, v_k}} = Span{x1,,xk\bold{x_1, \dots, x_k}} 임을 알 수 있다.



Orthonormal basis


  • Orthonomal basis는 말 그대로 orthogonal basis에서 각각의 vector들의 norm을 1로 만들어 normalize 시킨 것 이다.


QR Factorization of Matrices


Theorme - The QR Factorization

  • If A is an m×nm \times n matrix with linearly independent columns, then A can be factored as A = QR, where Q is an m×nm \times n matrix whose columns form an orthonormal basis for Col A and R is an n×nn \times n upper triangular invertible matrix with positive entries on its diagonal.

  • m×nm \times n matrix A가 linearly independent coulmns를 갖고있다 했으니 이는 A = [x1 x2  xn\bold{x}_1 \ \bold{x}_2 \ \dots \ \bold{x}_n]으로 나타낼 수 있고 이때의 Col A 의 basis는 {x1,,xn\bold{x}_1, \dots, \bold{x}_n}가 되며 이를 Gram-Schmidt를 통해 구한 Col A의 orthonormal basis를 {u1, , un\bold{u}_1, \ \dots, \ \bold{u}_n} 이라고 하자.

  • 이때 Col A의 orthonormal basis를 columns 으로 둔 matrix 를 Q라 하고 다음과같이 나타낼수 있다 Q = [u1 u2  un\bold{u}_1 \ \bold{u}_2 \ \dots \ \bold{u}_n].

  • 이전에 배웠던 것처럼 xk\bold{x}_k = u1,,uk\bold{u}_1, \dots, \bold{u}_k으로 나타낸 linear combination 임을 알 수 있고 x\bold{x}가 n까지 나타날수 있으니 아래 식처럼 나타낼 수 있다.

  • 이때 vector rk\bold{r}_k를 아래와같이 나타낼 수 있으며,

  • 이는 xk\bold{x}_k = Qrk\bold{r}_k 식으로 나타낼 수 있고 이를통해 아래와 같이 유도된다.

  • 이때 A의 column들이 linealy independent하니 R은 invertible matrix가 되며 이는 n개의 pivot을 갖는단 소리고 이는 R의 diagonal term들이 nonzero가 되어 아래 그림처럼 upper triangular matrix가 된다.

  • 또한 (rkk)(uk)(-\bold{r}_{kk})(-\bold{u}_k) 처럼 unit vector에 방향을 바꿔주어 R의 diagonal term을 nonnegative하게 만들 수 있다.

  • 또한 이전에 보았던 UU=IU^\top U = I 이론을 통해 QA=Q(QR)=RQ^\top A = Q^\top(QR) = R 과 같이 A에 QQ^\top를 multiplication해주어 R을 찾을 수 있다.

profile
개썅마이웨이로 shine my way

0개의 댓글