[선형대수] Lecture 33: Left and right inverses; pseudoinverse

이재호·2025년 3월 29일

선형대수

목록 보기
31/31

https://ocw.mit.edu/courses/18-06-linear-algebra-spring-2010/video_galleries/video-lectures/

이번 강의에서는 다음과 같은 내용을 다룬다.

  • About 4 subspaces (rowspace, N(AT)N(A^T), columnspace, N(A)N(A))
  • left-inverses
  • right-inverses
  • pseudo-inverses

먼저 2-sided inverse 를 알아보자.

AA1=I=A1AAA^{-1}=I=A^{-1}A
(full rank) r=n=m\text{(full rank) } r=n=m

보다시피 full rank 일 경우, invertible matrix A 는 위와 같은 수식을 만족한다.


다음으로 left inverse 에 대해서 알아보자.
우선 전제 조건은 다음과 같다.

(full column rank) r=n<m\text{(full column rank) } r=n<\text{m}

그리고 위로부터 다음과 같은 추론이 가능하다.

  • nullspace (N(A)N(A)) = {0}\{0\}
  • indepentdent columns
  • 0 or 1 solutions to Ax=bAx=b

그리고 r=n<mr=n<m 일 경우 ATAA^TA 도 위와 같은 특징을 갖는다.

이어서 다음 수식을 보자.

(ATA)1ATA=I(A^TA)^{-1}A^TA=I
Aleft1A=I\to A^{-1}_{left}A=I
Aleft1=(ATA)1AT\therefore A^{-1}_{left}=(A^TA)^{-1}A^T

Aleft1=(ATA)1ATA^{-1}_{left}=(A^TA)^{-1}A^T 가 left inverse 이다.


right inverse 는 다음과 같다.

(full row rank) r=m<n\text{(full row rank) } r=m<\text{n}

그리고 위로부터 다음과 같은 추론이 가능하다.

  • nullspace (N(AT)N(A^T)) = {0}\{0\}
  • indepentdent rows
  • many solutions to Ax=bAx=b

그리고 r=m<nr=m<n 일 경우 AATAA^T 도 위와 같은 특징을 갖는다.

AAT(AAT)1=IAA^T(AA^T)^{-1}=I
AAright1=I\to AA^{-1}_{right}=I
Aright1=AT(AAT)1\therefore A^{-1}_{right}=A^T(AA^T)^{-1}

그렇다면 AAleft1AA_{left}^{-1}Aright1AA_{right}^{-1}A 로 수식을 두면 어떻게 될까?

AAleft1=A(ATA)1AT=AATATA=P:projection onto the columnspaceAA_{left}^{-1}=A(A^TA)^{-1}A^T=\frac{AA^T}{A^TA}=P : \text{projection onto the columnspace}
Aright1A=AT(AAT)1A=ATAAAT:projection onto the rowspaceA_{right}^{-1}A=A^T(AA^T)^{-1}A=\frac{A^TA}{AA^T}: \text{projection onto the rowspace}

즉, 각 columnspace 와 rowspace의 projection 행렬에 해당한다는 것을 알 수 있다.


이제 Pseudo inverse 에 대해서 알아보자.

우선 다음과 같은 명제를 보자.

If x,y (xy) in rowspace then AxAy.\text{If $x,y~(x\ne y)$ in rowspace then $Ax\ne Ay$.}

그리고 rowspace 와 columnspace 를 서로 오갈 때 다음과 같이 적용된다.

  1. rowspace -> columnspace
    • xAAxx\underbrace{\to}_A Ax
    • yAAyy\underbrace{\to}_A Ay
  2. columnspace -> rowspace
    • AxA+A+Ax=xAx\underbrace{\to}_{A^{+}} A^{+}Ax=x
    • AyA+A+Ay=yAy\underbrace{\to}_{A^{+}} A^{+}Ay=y

위에서 A+A^+ 는 pseudo inverse 를 의미한다.

다음으로 "If x,y (xy) in rowspace then AxAy.\text{If $x,y~(x\ne y)$ in rowspace then $Ax\ne Ay$.}" 명제가 참인 이유를 증명해보자.

Suppose:Ax=Ay\text{Suppose}:Ax=Ay
A(xy)=0A(x-y)=0
xy is in nullspace.\to x-y\text{ is in nullspace.}
but, xy is in rowspace in also.\text{but, $x-y$ is in rowspace in also.}
xy=0 vector\therefore x-y= \text{0 vector}

즉, Ax=AyAx=Ay 를 만족하는 경우는 x=yx=y 일 경우에만 해당한다는 것을 알 수 있다.


그렇다면 어떻게 pseudo inverse matrix A+A^+ 를 구할 수 있을까?
지난 강의에서 배운 SVD ( Singular Value Decomposition ) 을 활용하자.

A=uΣvT (u,v : orthogonal, Σ : diagonal)A=u\Sigma v^T ~\text{(u,v : orthogonal, $\Sigma$ : diagonal)}
Σ=[σ1......0..................σr...0......0]:(m×n)\Sigma= \begin{bmatrix} \sigma_1 & ... & ... & 0 \\ ... & ... & ...& ...\\ ... & ... & \sigma_r & ...\\ 0 & ...& ...& 0\\ \end{bmatrix} : (m\times n)
Σ+=[1σ1......0..................1σr...0......0]:(n×m)\Sigma^+= \begin{bmatrix} \frac{1}{\sigma_1} & ... & ... & 0 \\ ... & ... & ...& ...\\ ... & ... & \frac{1}{\sigma_r} & ...\\ 0 & ...& ...& 0\\ \end{bmatrix} : (n \times m)
ΣΣ+=[1......0..................1...0......0]:(m×m)\Sigma\Sigma^+= \begin{bmatrix} 1 & ... & ... & 0 \\ ... & ... & ...& ...\\ ... & ... & 1 & ...\\ 0 & ...& ...& 0\\ \end{bmatrix} : (m\times m)
Σ+Σ=[1......0..................1...0......0]:(n×n)\Sigma^+\Sigma= \begin{bmatrix} 1 & ... & ... & 0 \\ ... & ... & ...& ...\\ ... & ... & 1 & ...\\ 0 & ...& ...& 0\\ \end{bmatrix} : (n\times n)

위에서 Σ+\Sigma^+ 를 구했다. 그리고 u,vu, v 는 orthogonal 이므로 inverse 와 transpose 가 같다는 것을 알 수 있다. (uT=u1u^T=u^{-1})

따라서 A+A^+ 는 다음과 같다.

A=uΣvTA=u\Sigma v^T
A+=vΣ+uTA^+=v\Sigma^+ u^T
profile
천천히, 그리고 꾸준히.

0개의 댓글