본문 바로가기

공부를 합니다/수학 (mathematics)

선형대수(HYU) 18_고유값과 고유벡터 및 대각화

Chapter 5. Eigenvalues and Eigenvectors


5.1 Introduction

first half of linear algebra: Ax=b

second half: Ax=λx

  • 여전히 matrix를 simplify해서 해결
  • matrix를 diagonal로 simplify
  • no more row exchanges: elimination은 eigenvalue(λ)를 바꾸기 때문
  • determinant를 이용

Fundamental equation

Ax=λx

  • number λ: matrix Aeigenvalue
  • vector x: matrix Aeigenvector

The Solution of Ax=λx


λxλIx로 생각하면 Ax=λx를 다음과 같이 쓸 수 있다.

(AλI)x=0

위와 같은 문제의 key는 다음과 같다.

  • vector xAλx의 nullspace이다.
  • number λAλx가 nullspace를 가질 수 있는 값으로 선택된다.

모든 matrix는 nullspace를 갖지만 목표는 nonzero eigenvector x를 구하는 것이다.

  • x=0인 equation의 solution으로서 가치가 거의 없다.
  • 관심이 있는 것은 nonzero eigenvector x를 만드는 특정한 값 λ이다.
  • 즉, AλI가 singular이어야 한다.

number λAλI가 singular일 때만 A의 eigenvalue이다.
det(AλI)=0
λ는 eigenvector x와 연관이 있다
(AλI)x=0orAx=λx


Example

Subtract λIA=[4523],AλI=[4λ523λ]Determinantdet(AλI)=(4λ)(3λ)+10=λ2λ2

위 polynomial의 근이 determinant를 0으로 만드는 eigenvalue 값이다.

λ=2orλ=1

  • Singular인 (i.e. determinant = 0) AλI의 nullspace 에는 nonzero vector x가 존재한다.

λ1=1:(Aλ1I)x=[5522][yz]=[00],x1=[11]λ2=2:(Aλ1I)x=[5522][yz]=[00],x2=[52]

  • Aλ1I의 column은 x2Aλ2I의 columne은 x1의 multiple이다.
    • 2 by 2 matrix에서 유용

AλI의 nullspace는 (i.e., eigenspace) 모두 Ax=λx를 만족한다. 위의 예시에서 eigenspace는 x1=(1,1), x2=(5,2)를 지나는 line이다.


Steps in solving Ax=λx

  1. Compute the determinant of AλI
    • diagonal을 따라서 λ을 뺀 matrix로 determinant는 n degree polynomial이다.
  2. Find the roots of this polynomial
    • n개의 근이 A의 eigenvalue
  3. For each eigenvalue solve the equation (AλI)x=0
    • determinant가 zero이므로 nonzero x가 존재하며 이것이 eigenvector이다.

Example 3

A가 triangular인 경우
A=[14503460012]

A가 triangular이면 eigenvalue는 main diagonal에 존재한다.

det(A=λI)=|1λ45034λ60012λ|=(1λ)(34λ)(12λ)

determinant가 diagonal entry의 곱이므로 determinant를 0으로 만드는 λ값은

λ=1,λ=34,orλ=12


위의 예시로부터 알 수 있는 한 가지 핵심은 A를 eigenvalue 변화'없이' diagonal이나 triangular matrix로 바꾸는 것이다.

다만, eigenvalue 자체를 구하기는 어렵고

  • Gaussian elimination은 이 경우엔 소용이 없다.
  • eigenvalue를 구할 수 있는 별도의 formula도 존재하지 않는다.

eigenvalue에 대한 몇 가지 간단한 정보를 얻을 수 있다: sum & product

n개의 eigenvalue의 합(sum) 은 n개의 diagonal entry의 합과 같다.
Trace ofA=λ1++λn=a11++ann
n개의 eigenvalue의 곱(product)Adeterminant와 같다
Determinant ofA=λ1λn=product of pivots


proof

det(AλI)=0이 n개의 근 λ1,λ2,,λn을 갖는다고 가정하자.

det(AλI)=(λ1λ)(λ2λ)(λnλ)=0=(λ)n+(λ1+λr++λn)(λ)n1++λ1λ2λn(1)det(AλI)=|a11λa12a1na21a22λa2nan1an2annλ|

  • (1)에서 λ=0일 경우 det(AλI)=detA=λ1λ2λn

det(AλI)를 다음과 같이 나타낼 수도 있다.

det(AλI)=(a11λ)C11+a12C12++a1nC1n

여기서,

C11=(1)1+1|a22λa23a2na32a33λa3nan2an3annλ|=(λ)n1+()(λ)n2+C12=(1)1+2|a21a23a2na31a33λa3nan1an3annλ|=a21(λ)n2+()(λ)n3+

이므로 (1)의 (λ)n(λ)n1 항은 (a11λ)C11에서만 발생한다.

정리하면,

det(AλI)=(a11λ)(a22λ)(an1n1λ)(annλ)+=(λ)n+(a11+a22++ann)(λ)n1+(2)

  • (1) = (2)에서 모든 (λ)1, (λ)2, , (λ)n에 대해서
    i=1nλi=i=1naii

Eigshow


강의에서 다루지 않음.


5.2 Diagonalization of a Matrix


  • Another matrix decomposition method.
  • The eigenvectors diagonalize a matrix.

n개의 linearly independent eigenvector (ei) 를 갖는 n by n matrix A를 가정하자. (i.e., Aei=λei)

이 eigenvector를 column으로 하는 matrix S에 대해 S1AS 는 diagonal matrix Λ 이다.

S=[|||e1e2en|||],S1AS=Λ=[λ1λ2λn]

  • S: eigenvector matrix
  • Λ: eigenvalue matirx

proof

AS=A[|||e1e2en|||]=[|||λ1e1λ2e2λnen|||]=[|||e1e2en|||][λ1λ2λn]=SΛ

S는 모든 column (eigenvector)이 independent 하다고 가정했으므로 invertible 하다.

AS=SΛ,orS1AS=Λ,orA=SΛS1

이를 만족하는 matrix S가 존재할 때 A는 diagonalizable 하다.


Remark 1

Matrix A의 eigenvalue가 모두 다르면 (λ1,λ2,,λn이 distinct), n개의 eigenvector은 모두 independent 하다.

proof

n개의 eigenvector e1,,en 중, e1이 linearly dependent 하다고 가정해보자.

e1=c2e2++cnen(1)

(1)의 양변에 matrix A를 곱하면

Ae1=A(c2e2++cnen)λ1e1=c2λ2e2++cnλnen(2)

(1)의 양변에 λ1을 곱하면

λ1e1=λ1(c2e2++cnen)=c2λ1e2++cnλ1en(3)

(2)와 (3)은 λ1e1으로 같으므로

c2(λ1λ2)e2+c3(λ1λ3)e3++cn(λ1λn)en=0

For distinct λi, c2=c3==cn=0

e1은 linearly independent 하다.


Remark 2

Diagonalizing matrix S는 unique 하지 않다. eigenvector e는 상수배 되어도 (multiplied by a constant) 계속 eigenvector이다.


Remark 3

S의 eigenvector와 Λ의 eigenvalue의 순서는 같다.

[|||e1e2en|||][λ1λ2λn]

위의 eiej의 순서가 바뀌면 λiλj의 순서도 바뀐다.


Remark 4

모든 matrix가 n개의 linearly independent vector를 갖는 것이 아니므로, 모든 matrix가 diagonalizable 한 것은 아니다.

중복된 eigenvalue가 존재하면 diagonalizable 하지 않을 수 있다.

A=[0100],det(AλI)=λ2=0,λ1=λ2=0

이 경우 A의 eigenvalue는 (1,0)의 multiple이다.

x=[c0]

Independent eigenvector가 한 개밖에 존재하지 않기 때문에 S를 만들 수 없다.

유의해아 할 점은 diagonalization이 되지 않는 이유가 λ=0 이기 때문이 아니라 λ1=λ2 이기 때문이라는 점이다.

Adiagonalizabilityenough eigenvector 에 의해 결정된다.

Ainvertibilitynonzero eigenvalue 에 의해 결정된다.

  • Diagonalizability와 invertibility는 아무 관계가 없고
  • Diagonalization은 중복된(repeated) eigenvalue가 존재 할 때만 불가능하다.
    • 이 경우에도 항상 불가능 한 것은 아니다.
    • e.g., A=I 이면 eigenvalue는 모두 1로 반복되지만 A는 항상 diagonal 하다.

Examples of Diagonalization


Example 1

for projection matrix A=[12121212]

det(AλI)=0,λ=1orλ=0,Λ=[1000]S=[1111],AS=SΛ=[1010],S1AS=Λ

Example 2

for rotation matrix K=[0110]

det(KλI)=λ2+1=0λ=iorλ=iS=[11ii]andS1KS=[i00i]

  • Real matrix를 표현하기 위해 complex number가 필요할 수도 있다.
  • Real space Rn에 존재하는 eigenvalue의 수가 적으면, Cn space에서 생각해야한다.

Powers and Products: Ak and AB


A2의 eigenvalue는 λ12,λ22,,λn2 이고, A의 eigenvector는 A2의 eigenvector와 동일하다.

Ax=λx에서 시작하면

A2x=Aλx=λAx=λ2x

Diagonalization 과정이서도 동일한 결과를 얻을 수 있다.

(S1AS)(S1AS)=S1A2S=Λ2

정리하면,

  • eigenvalues of Ak: λik
  • eigenvector of Ak: S

SA를 diagonalize 하면 Ak 역시 diagonalize 할 수 있다.

Λk=(S1AS)(S1AS)(S1AS)=S1AkS

A가 invertible하면 inverse (k=1)인 경우에도 성립한다.

  • A1의 eigenvalue는 1/λi

ifAx=λxthenx=λA1xand1λx=A1x


optional

두 matrix의 product (e.g., AB)에 대해서는 성립하지 않는다.

A의 eigenvalue를 λ, B의 eigenvalue를 μ라고 할 때 다음과 같이 AB의 eigenvalue가 λμ라고 잘못 생각할 수 있다.

False ProofABx=Aμx=μAx=μλx

AB가 동일한 eigenvector x를 공유하고 있다고 가정하고 있지만 실제로는 그렇지 않기 때문이다.


이는 역으로, AB의 eigenvalue가 λμ가 되려면 동일한 eigenvector x를 공유하고 있어야 한다는 것을 의미한다.

Diagonalizable matrix는 AB=BA일 때만 동일한 eigenvector matrix S를 공유한다.

Proof

동일한 matrix SA=SΛ1S1B=SΛ2S1를 diagonalize할 때,

AB=SΛ1S1SΛ2S1=SΛ1Λ2S1BA=SΛ2S1SΛ1S1=SΛ2Λ1S1

Diagonal matrix는 항상 commute 하므로

Λ1Λ2=Λ2Λ1AB=BA

반대 방향으로는,

Ax=λx(AB)x=(BA)x=B(Ax)=Bλx=λBxA(Bx)=λ(Bx)

xBx 모두 동일한 eigenvector λ 를 공유하는 A의 eigenvector 이다.

편의를 위해서 A의 eigenvalue가 distinct 하다고 가정하면, Ax=λx를 만족하는 각 eigenspace는 모두 one-dimensional* 이므로 Bxx의 multiple이어야 한다. (i.e., Bx=μx)

결과적으로, xB의 eigenvector다.


참고


\> 정리

  • eigenvalue가 distinct 하면
  • Axi=λixi를 만족하는 xi는 모두 independent하고
  • 특정 eigenvalue λi에 대응하는 eigenvector들은 하나의 vector xi로만 이루어져야 한다.
    • xi가 eigenvector이면 kxi도 eigenvector 이므로 이들이 모여서 eigenspace를 이루는 것.
    • 특정 eigenvalue에 대한 eigenspace와 A의 diagonalization을 위한 eigenvector matrix를 헷갈리지 말아야 한다.
    • Matrix A의 eigenvector matrix S의 dimension이 n인 것이지 각 eigenvalue에 대한 eigenspace의 dimension은 1이고 이런 eigenspace가 n개 있는 것.
  • 즉, 동일한 λ에 대한 x는 one dimensional이어야 하므로, Ax=λx, A(Bx)=λ(Bx)에서 Bxx의 multiple이어야 하고
  • 이를 식으로 나타내면 Bx=μx (μ는 상수) 이므로 xB의 eigenvector이다.
  • 결과적으로, AB는 동일한 eigenvector x를 공유한다.

2020.09.27 16:32 작성.