5.4 Complex Eigenvalue

Jaehyun_onelion·2023년 3월 17일
0

선형대수학

목록 보기
29/42

이번 포스트에서는 complex eigenvalue에 대해서 알아보겠습니다.


1) Complex eigenvalue


Matrix의 characteristic equation은 λ\lambda에 대한 polynomial equation 형태로 나오게 됩니다. polynomial equation의 solution은 복소수이며, 실수가 아닌 복소수인 경우도 존재할 수 있습니다.

Complex eigenvector와 eigenvalue 역시 정의는 기존의 eigenvector와 eigenvalue와 같지만, eigenvector의 성분 값, eigenvalue가 복소수인 경우를 뜻합니다.


example

A=[0110]A=\begin{bmatrix}0 & -1 \\ 1 & 0\end{bmatrix}

다음 matrix의 characteristic equation은

det(AλI)=λ2+1=0\det(A-\lambda I) = \lambda^2 +1 =0

이 되어

λ=i,i\lambda = i, -i

로 complex eigenvalue를 가집니다. 이 때, 각각의 eigenvalue에 대응하는 eigenvector는

λ=iAx=ixx2=ix1x1=ix2\lambda=i \\ A\boldsymbol x = i\boldsymbol{x} \\ -x_2 = ix_1 \\ x_1 = ix_2

가 되어

x=x2[i1],x2 is free\boldsymbol x = x_2\begin{bmatrix}i \\ 1 \end{bmatrix}, x_2 \ is \ free

가 되고, λ=i\lambda=-i인 경우

Ax=ixx2=ix1x1=ix2A\boldsymbol{x} = -i\boldsymbol{x} \\ -x_2 = -ix_1 \\ x_1 = -ix_2

가 되어

x=x2[i1],  x2  if free\boldsymbol{x} = x_2 \begin{bmatrix} -i \\ 1 \end{bmatrix}, \ \ x_2 \ \ if \ free

임을 알 수 있습니다. 따라서 eigenvector를

[i1],[i1]\begin{bmatrix}i \\ 1 \end{bmatrix},\begin{bmatrix} -i \\ 1 \end{bmatrix}

으로 뽑을 수 있습니다.


(1) Real and Imaginary Parts of Vectors


다음 복소수

x=a+bix=a+bi

에서 aa를 실수부(real part), bb를 허수부(imaginary part)로 둔 것처럼, vector에서도 실수부, 허수부를 나눌 수 있습니다. 또한 복소수에서 정의한 켤레복소수(conjugate)

xˉ=abi\bar x =a-bi

또한 벡터에서 정의할 수 있습니다.

complex vector xCn\boldsymbol{x} \in \mathbb C^n의 real part와 imaginary part를 각각의 성분의 real part, imaginary part로 나누어 vector로 나타낸 것을 뜻합니다. 또한 x\boldsymbol{x}의 conjugate는 x\boldsymbol{x}의 imaginary part의 부호를 바꾼 벡터를 뜻합니다.

x=[a1+b1ian+bni]=[a1an]+i[b1bn]=Rex+iImx\boldsymbol{x} = \begin{bmatrix}a_1+b_1i \\ \vdots \\ a_n + b_n i \end{bmatrix} = \begin{bmatrix}a_1 \\ \vdots \\ a_n \end{bmatrix} + i\begin{bmatrix}b_1\\ \vdots \\ b_n \end{bmatrix} = Re\boldsymbol{x} + i Im\boldsymbol{x}

a\boldsymbol ax\boldsymbol x의 real part, b\boldsymbol bx\boldsymbol x의 imaginary part라고 하고 imaginary part의 부호를 바꾼

xˉ=RexiImx\bar {\boldsymbol{x}} = Re\boldsymbol{x} -iIm\boldsymbol{x}

x\boldsymbol{x}의 conjugate라고 합니다.

이러한 정의를 matrix에서도 똑같이 정의할 수 있으며, Cm×n\mathbb C^{m\times n }에 속하는 matrix BB에 대해서

Bˉ\bar B

BB의 entry 중 imaginary part의 부호를 바꾼 matrix입니다.

이 때 conjugate에 대해 다음 성질을 만족합니다.

rx=rˉxˉ, Bx=Bˉxˉ, BC=BˉCˉ, rB=rˉBˉ\overline{r\boldsymbol{x}} = \bar{r}\bar{\boldsymbol x}, \ \overline{B\boldsymbol{x}} =\bar{B}\bar{\boldsymbol x}, \ \overline{BC}=\bar{B}\bar{C}, \ \overline{rB}=\bar{r}\bar{B}

(2) Eigenvalues and Eigenvectors of a Real Matrix that acts on Cn\mathbb C^n


AA를 $n \times n $ real matrix라고 합시다. 이 때,

Ax=Aˉxˉ=Axˉ\overline{A\boldsymbol{x}} = \bar{A}\bar{\boldsymbol{x}} = A\bar{\boldsymbol{x}}

를 만족합니다. λ\lambdaAA의 eigenvalue이고, x\boldsymbol{x}λ\lambda에 대한 eigenvector일 때

Axˉ=Ax=λx=λˉxˉA\bar{\boldsymbol{x}} = \overline{A\boldsymbol{x}} = \overline{\lambda \boldsymbol{x}} =\bar{\lambda}\bar{\boldsymbol{x}}

임을 알 수 있습니다. 즉, λˉ\bar{\lambda} 또한 AA의 eigenvalue이고, x\boldsymbol{x}λˉ\bar{\lambda}에 대응하는 eigenvector가 됩니다.


example

C=[abba], with a,bR, a,b0C = \begin{bmatrix} a & -b \\ b & a \end{bmatrix}, \ with \ a, b\in\mathbb R, \ a, b \neq0

위 matrix의 eigenvalue는

det(CλI)=(aλ)2+b2=0    λ=a±bi\det(C-\lambda I) = (a-\lambda)^2 +b^2 = 0 \iff \lambda = a \pm bi

가 됩니다. 이 때, r=λ=a2+b2r=\mid \lambda \mid = \sqrt {a^2+b^2} 이라 하면

C=r[a/rb/rb/ra/r]=[r00r][cosθsinθsinθcosθ]C = r\begin{bmatrix} a/r & -b/r \\ b/r & a/r \end{bmatrix} = \begin{bmatrix} r & 0 \\ 0 & r \end{bmatrix}\begin{bmatrix} \cos \theta & -\sin \theta \\ \sin\theta & \cos\theta \end{bmatrix}

입니다. 여기서 θ\theta는 가로축이 실수부 축, 세로축이 허수부 축인 복소평면에서 a+bia+bi를 좌표로 표시한 (a,b)(a, b)와 원점을 이읏 선분과 실수부 축 사이의 각을 뜻합니다.

만약 어떤 x\boldsymbol {x}CxC\boldsymbol{x}로 바꾸는 transformation으로 생각하면 복소평면에서 θ\theta만큼 회전 후 rr배 하는 transformation으로 해석할 수 있습니다.


example

A=[.5.6.751.1],  λ=.8.6i, v1=[24i5]A = \begin{bmatrix} .5 & -.6 \\ .75 & 1.1 \end{bmatrix}, \ \ \lambda =.8-.6i, \ \boldsymbol{v}_1 = \begin{bmatrix}-2-4i \\ 5 \end{bmatrix}

여기서 λ\lambdaAA의 eigenvalue이고, v1\boldsymbol{v}_1λ\lambda에 대응하는 eigenvector입니다. 여기서, v1\boldsymbol{v}_1의 real part와 imaginary part로 이루어진 matrix

P=[Rev1Imv1]=[2450]P = \begin{bmatrix} Re \boldsymbol{v_1} & Im \boldsymbol{v_1} \end{bmatrix} = \begin{bmatrix} -2 & -4 \\ 5 & 0 \end{bmatrix}

로 설정하고, CCAA와 similar한 matrix

C=P1AP=[.8.6.6.8]C = P^{-1} AP= \begin{bmatrix}.8 & -.6 \\ .6 & .8 \end{bmatrix}

로 정하면, CC matrix를 이용한 transformation은 회전 변환을 뜻하게 됩니다. (cosθ=.8,sinθ=.6\cos \theta =.8, \sin\theta =.6) 여기서 양변에 P1P^{-1}PP를 곱하면

A=PCP1A = PCP^{-1}

가 됩니다. AA가 standard matrix인 matrix transformation을 생각하면

Ax=PCP1xA\boldsymbol {x} = PCP^{-1}\boldsymbol{x}

가 되는데, 이 때

x=Pu    u=P1x\boldsymbol{x} = P\boldsymbol{u } \iff \boldsymbol u = P^{-1}\boldsymbol{x}

를 고려하면 u\boldsymbol{u}x\boldsymbol{x}의 change of variable로 생각할 수 있습니다. 그 후

CuC\boldsymbol u

u\boldsymbol{u}θ\theta만큼 회전시키는 transformation이 되고, 그 후 다시 PP를 곱해 CuC\boldsymbol u를 다시 change of variable로 바꾸는 과정을 의미합니다. (본래 x\boldsymbol{x} variable로 말이죠.) 이를 도식화하면 다음과 같습니다.

이를 일반화한 정리가 다음과 같습니다.


Theorem

Let AA be a real 2×22 \times 2 matrix with a complex eigenvalue λ=abi  (b0)\lambda =a-bi \ \ (b\neq0) and an associated eigenvector v\boldsymbol{v} in C2\mathbb C^2. Then

A=PCP1, where P=[RevImv],  C=[abba]A = PCP^{-1}, \ where \ P=\begin{bmatrix} Re \boldsymbol{v} & Im\boldsymbol{v} \end{bmatrix}, \ \ C = \begin{bmatrix} a & -b \\ b & a \end{bmatrix}

즉 complex eigenvalue를 가지면, AACC와 similar합니다. 이 때 AA를 standard matrix로 가지는 transformation을 생각하면, 해당 transformation은 먼저 PP의 column의 linear combination의 coefficient로 변환 후, CC에서 정의된 각 만큼 회전 후 다시 원래의 variable로 변환하는 과정을 거치는 transformation입니다.


지금까지 complex eigenvalue에 대해서 알아보았습니다. 다음 포스트에서는 새로운 챕터의 첫번째 단원인 inner product와 length, orthogonality에 대해 알아보겠습니다. 질문이나 오류 있으면 댓글 남겨주세요! 감사합니다.


Appendix : Proof of Theorem


Theorem

Let AA be a real 2×22 \times 2 matrix with a complex eigenvalue λ=abi  (b0)\lambda =a-bi \ \ (b\neq0) and an associated eigenvector v\boldsymbol{v} in C2\mathbb C^2. Then

A=PCP1, where P=[RevImv],  C=[abba]A = PCP^{-1}, \ where \ P=\begin{bmatrix} Re \boldsymbol{v} & Im\boldsymbol{v} \end{bmatrix}, \ \ C = \begin{bmatrix} a & -b \\ b & a \end{bmatrix}
  • Proof

위 정리를 증명하기 위해서는 다음을 먼저 밝혀야 합니다.

Claim : Let AA be an n×nn\times n real matrix, and xCn\boldsymbol x \in \mathbb C^n. then

Re(Ax)=A(Rex)Im(Ax)=A(Imx)Re (A\boldsymbol{x}) = A (Re\boldsymbol{x}) \\ Im(A\boldsymbol{x}) = A(Im\boldsymbol{x})

Proof of claim

x=Re(x)+iIm(x)\boldsymbol {x} = Re(\boldsymbol x) + i Im(\boldsymbol x)

으로 설정할 수 있고, 양변에 AA를 곱하면

Ax=ARe(x)+iAIm(x)A\boldsymbol{x} = A Re(\boldsymbol x) + i A Im(\boldsymbol{x})

가 됩니다. 또한 AxA\boldsymbol{x}

Ax=Re(Ax)+iIm(Ax)A\boldsymbol{x} = Re(A\boldsymbol{x}) + i Im(A \boldsymbol{x})

로 설정할 수 있습니다. 이 때, A,Re(x),Im(x)A, Re(\boldsymbol{x}), Im(\boldsymbol{x})의 entry, element가 모두 실수이므로, ARe(x),AIm(x)ARe(\boldsymbol{x}), AIm(\boldsymbol{x}) 의 element 모두 실수입니다. 따라서

Re(Ax)=A(Rex)Im(Ax)=A(Imx)Re (A\boldsymbol{x}) = A (Re\boldsymbol{x}) \\ Im(A\boldsymbol{x}) = A(Im\boldsymbol{x})

을 만족합니다.

이를 이용하면

AP=[ARe(v)AIm(v)]=[Re(Av)Im(Av)]AP = \begin{bmatrix} ARe(\boldsymbol{v}) & AIm(\boldsymbol{v}) \end{bmatrix} = \begin{bmatrix}Re(A\boldsymbol{v}) & Im(A\boldsymbol{v})\end{bmatrix}

임을 알 수 있고,

Av=λv=(abi)(Re(v)+iIm(v))A\boldsymbol{v} = \lambda\boldsymbol{v} = (a-bi)(Re(\boldsymbol{v}) +iIm(\boldsymbol{v}))

를 전개하면

Av=aRe(v)+bIm(v)+i(bRe(v)+aIm(v))A\boldsymbol{v} = aRe(\boldsymbol{v})+bIm(\boldsymbol{v}) +i(-bRe(\boldsymbol{v}) + aIm(\boldsymbol{v}))

가 되어

[Re(Av)Im(Av)]=[aRe(v)+bIm(v)bRe(v)+aIm(v)]=[Re(Av)Im(Av)][abba]=PC\begin{aligned} \begin{bmatrix}Re(A\boldsymbol{v}) & Im(A\boldsymbol{v})\end{bmatrix} &= \begin{bmatrix}aRe(\boldsymbol{v}) + bIm(\boldsymbol{v}) & -bRe(\boldsymbol{v})+ aIm(\boldsymbol{v})\end{bmatrix} \\ &= \begin{bmatrix}Re(A\boldsymbol{v}) & Im(A\boldsymbol{v})\end{bmatrix}\begin{bmatrix}a & -b \\ b & a \end{bmatrix} \\ &= PC \end{aligned}

AP=PCAP = PC

가 됩니다.

profile
데이터 분석가 새싹

0개의 댓글