5.5 Complex Matrix
space $C^n$: $n$개의 complex components로 이루어진 vector space
- Addition과 multiplication은 real space와 동일하게 한다.
- Length는 real space와 다른 방법으로 구해야한다.
예를 들어 $C^2$의 vector $(1,i)$의 length를 구할 때,
- 기존의 방법으로는 length가 $1^2 + i^2 = 0$ 이 되지만
- 실제 길이의 제곱은 $1^2 + \lvert i \lvert ^2 = 2$ 이다.
즉 length를 계산하는 방법이 다음과 같이 바뀐다.
$$
\lVert x \lVert ^2 = \lvert x_1 \lvert^2 + \cdots + \lvert x_n \lvert ^2
$$
Complex Numbers and Their Conjugates
-
Complex number: $a + ib$
- $a$: real number
- $ib$: imaginary number ($b$는 real, $i^2 = -1$)
-
Complex conjugate (of $a + ib$): $a - ib$
- 기존의 complex number의 imaginary part 부호가 반대인 숫자.
- 기존의 complex number를 real axix에 대해 반사시킨 것과 같다.
- bar 혹은 star notation을 이용해 나타낸다: $\overline{a + ib} = (a + ib)^* = a - ib$
-
Absolute value: complex number $a + ib$와 그 complex conjugate $a - ib$를 곱한 값이다.
- distance $r$이 $a + ib$ 의 absolute value 이다.
$$
\text{Absolute value} \qquad (a + ib)(a - ib) = a^2 + b^2 = r^2 \\
\text{distance} \qquad r = \lvert a + ib \lvert = \sqrt{a^2 + b^2}
$$
- distance $r$이 $a + ib$ 의 absolute value 이다.
-
Polar form: $r$과 trigonometry를 이용해 $a$와 $b$를 나타낼 수 있다.
- $a = rcos\theta, \ b = rsin\theta$
$$
\text{Polar form} \qquad a + ib= r(cos\theta + isin\theta) = re^{i\theta}, \quad
\theta = tan^{-1}(b/a)
$$
- $a = rcos\theta, \ b = rsin\theta$
Lengths and Transposes in the Complex Case
complex vector space $C^n$는 $n$개의 complex components로 이루어진 vector $x$를 포함한다.
$$
\text{Complex vector} \qquad x =
\begin{bmatrix}
x_1 \\ x_2 \\ \vdots \\ x_n
\end{bmatrix}
\quad
\text{with components}
\quad
x_j = a_j + ib_j
$$
Length
vector의 length는 위의 새로운 length definition에 의해 각 component $x_j^2$는 modulus $\lvert x_j \lvert ^2$로 바꾸면
$$
\text{Length squared} \qquad \lVert x \lVert ^2 = \lvert x_1 \lvert^2 + \cdots + \lvert x_n \lvert ^2
$$
Real vector에서 볼 수 있었던 length와 inner product 사이의 연관성은 complex vector에서도 유지된다. 새롭게 정의한 length에 맞기 위해서는 inner product를 수정해주어야 한다.
- inner product를 구하는 첫 번째 vector를 conjugate 해주면 된다.
$$
\text{Inner product} \qquad \overline{x}^Ty = \overline{x}_1y_1 + \cdots + \overline{x}_ny_n
$$
- 기본적으로 $\overline{x}^Ty \ne \overline{y}^Tx$
- $\overline{x}^Ty$이 real number 일 경우 $\overline{x}^Ty = \overline{y}^Tx$
이를 이용해 위의 length를 다시 나타내면
$$
\begin{aligned}
\lVert x \lVert ^2 & = \lvert x_1 \lvert^2 + \lvert x_2 \lvert^2 + \cdots + \lvert x_n \lvert ^2 \\
& = \overline{x}_1x_1 + \overline{x}_2x_2 + \cdots + \overline{x}_nx_n \\
& = \overline{x}^Tx
\end{aligned}
$$
Hermitian
Inner product를 표현하기 위해 사용한 bar (for conjugate)와 $T$ (for transpose) notation을 conjugate transpose 한 개로 표현할 수 있다. 기호로는 윗첨자 $H$를 사용한다.
$$
\text{A Hermitian} \qquad A^H = \overline{A}^T \quad \text{has entries} \quad (A^T){ij} = \overline{A{ji}}
$$
$$
\text{Conjugate transpose} \qquad
\begin{bmatrix}
2 + i & 3i \\
4 - i & 5 \\
0 & 0
\end{bmatrix} ^H =
\begin{bmatrix}
2 - i & 4 + i & 0 \\
-3i & 5 & 0
\end{bmatrix}
$$
정리하면, vector $x = (x_1, x_2, \cdots, x_n)$에 대해
- $x$와 $y$의 inner product는 $\overline{x}^Ty$ 이다. Orthogonal vector는 $\overline{x}^Ty = 0$을 만족한다.
- $x$의 squared length: $\lVert x \lVert^2 = x^Hx = \lvert x_1 \lvert^2 + \cdots + \lvert x_n \lvert ^2$
- $(AB)^H = B^HA^H$ 이다. ($(AB)^T = B^TA^T$를 conjugate)
Hermitial Matrices
- With real components: Symmetric matrix $A^T = A$
- With complex components: Hermitial matrix $A^H = A$
자신의 conjugate transpose와 동일한 matrix $A$를 Hermitial matrix라고 한다.
$$
\text{Hermitian matrix} \qquad A =
\begin{bmatrix}
2 & 3 - 3i \\
3 + 3i & 5
\end{bmatrix} = A^H
$$
- Diagonal entry는 conjugation에 의해 바뀌면 안되므로 항상 real 이다.
- Off diagonal entry는 $a_{ij} = \overline{a_{ji}}$를 만족한다.
Properties of Hermitian matrix
Hermitian matrix의 property는 symmetric matrix의 property와 동일하다. 실제로 real인 symmetric matrix는 Hermitian 이라고 할 수 있다.
- $A = A^H$ 이면 $x^HAx$는 real 이다.
Proof
1 by 1 matrix (= scalar number) $x^HAx$를 conjugate 시키면
$$
(x^HAx)^H = x^HA^Hx = x^HAx
$$
conjugate 값이 자신과 같으면 real number 이다.
위의 martix가 correlation matrix $R = A^HA$ 인 경우,
$$
x^HRx = x^HA^HAx = (Ax)^HAx = \lVert Ax \lVert ^2 \gt 0
$$
- $A = A^H$ 이면 모든 eigenvalue는 real 이다.
Proof
complex vector $x$에 대해 $Ax = \lambda x$ 이므로 양 변에 $x^H$를 곱하면
$$
\begin{aligned}
x^HAx & = x^H\lambda x \\
& = \lambda x^Hx = \lambda \lVert x \lVert ^2 \\
\lambda & = {x^HAx \over \lVert x \lVert ^2}
\end{aligned}
$$
- 첫 번째 property 에서 $x^HAx$ 가 real 이고
- $\lVert x \lVert ^2$ 역시 $x$ 의 length로 real 이다.
결과적으로 $\lambda$ 는 real 이다.
correlation matrix $R = A^HA$의 경우 positive eigenvalue를 갖는다.
$$
{\lVert Ax \lVert ^2 \over \lVert x \lVert ^2} = \lambda \gt 0
$$
- 다른 두 eigenvalue로 부터 온 Hermitian matrix의 eigenvector는 서로 orthogonal (& independent) 하다.
Proof
$Ax_1 = \lambda_1x_1, \ Ax_2 = \lambda_2x_2 \ (\lambda_1 \ne \lambda_2)$ 를 만족하는 $A = A^H$ 의 eigenvector 에 대해
$$
\begin{aligned}
(Ax_1)^Hx_2 & = x_1^HA^Hx_2 = x_1^HAx_2 = x_1^H\lambda_2x_2 = \lambda_2x_1^Hx_2 \\
& = (\lambda_1x_1)^Hx_2 = x_1^H\lambda_1^Hx_2 = \lambda_1x_1^Hx_2
\end{aligned} \\
$$
위의 두 식에서
$$
(\lambda_1 - \lambda_2)x_1^Hx_2 = 0
$$
$\lambda_1 \ne \lambda_2$ 이므로 $x_1^Hx_2 = 0$ 이다.
Choose unit eigenvectors
eigenvector를 length가 1인 unit vector로 골라 (orthonormal vectors) matrix를 구성 할 수 있다.
$A$가 real symmetric matrix 일 경우,
- property 2에 의해 eigenvalue는 real이고
- property 3에 의해 eigenvector는 orthogonal하다.
- 이 때 eigenvector를 unit vector로 구성하면
$$
\begin{aligned}
A & = S\Lambda S^{-1} = Q\Lambda Q^{-1} = Q\Lambda Q^T \\
& =
\begin{bmatrix}
\lvert & & \lvert \\
x_1 & \cdots & x_n \\
\lvert & & \lvert
\end{bmatrix}
\begin{bmatrix}
\lambda_1 & & \\
& \ddots & \\
& & \lambda_n
\end{bmatrix}
\begin{bmatrix}
- & x_1^T & - \\
& \vdots & \\
- & x_n^T & - \\
\end{bmatrix} \\
& = \lambda_1x_1x_1^T + \lambda_2x_2x_2^T + \cdots + \lambda_nx_nx_n^T
\end{aligned}
$$
- $Q: \text{orthogonal matrix} \\$
- $QQ^T = I \quad \rightarrow \quad Q^{-1} = Q^T$
Spectral theorem
위의 $A = \lambda_1x_1x_1^T + \lambda_2x_2x_2^T + \cdots + \lambda_nx_nx_n^T$를 spectral theorem 이라고 한다.
- matrix $A$를 서로 orthogonal한 eigenvector 로 one-dimensional projection 한 것의 combination으로 볼 수 있다.
- 이 때, eigenvalue가 각 eigenvector 가 matrix의 어느 정도를 차지하고 있는지를 나타내는 가중치(weight) 역할을 한다.
geometry 나 mechanics 에서는 이를 principal axis theorem 이라고 하며 ellipse에서 주 축 (axes)를 올바르게 구하기 위해 쓰인다.
- 가중치인 $\lambda$가 큰 component를 principal component 라고 한다.
- principal component 들이 기존의 matrix를 더 잘 approximate 하는 componenet 이기 때문에 이를 찾아 n-dimensional의 vector 공간을 간소화 할 수 있다 (data compression)
Remark
- matrix $A$가 real 이면 그 eigenvalue와 eigenvector 역시 real이다.
- $(A-\lambda I)x = 0$ 을 풀 수 있으며 그 과정에서 elimination 을 사용할 수 있다.
- 하지만 $A$가 symmetric 하지 않으면 eigenvector가 orthogonal 하다는 것은 보장할 수 없다.
- matrix $A$가 real 이면 모든 complex eigenvalues 는 conjugate pair 이어야 한다.
- $Ax = \lambda x$ and $A\overline{x} = \overline{\lambda}\overline{x}$
- $a + ib$ 가 real matrix의 eigenvalue 이면 $a - ib$ ($b \ne 0$) 도 그 matrix의 eigenvalue.
Unitary Matrix
orthogonormal columns 로 구성된 complex matrix를 unitary matrix 라고 한다.
- Hermitian (symmetric) matrix 를 real number에 비교했던 것 처럼
- unitary (orthogonal) matrix는 unit circle* 위의 number에 비교할 수 있다.
\* absolute value가 1인 complex number를 나타내는 circle
$$
\text{Unitary matrix} \qquad U^HU = I, \quad UU^H = I, \quad and \quad U^H = U^{-1}
$$
Properties of unitary matrix
- U has no effect on inner products, angles and lengths
Proof
$$
\begin{aligned}
\text{Inner product} \qquad & (Ux)^H(Uy) = x^HU^HUy = x^Hy \\
\text{Length unchanged} \qquad &\lVert Ux \lVert ^2 = (Ux)^H(Ux) = x^HU^HUx = x^Hx = \lVert x \lVert^2
\end{aligned}
$$
- Every eigenvalue of U has absolute value $\lvert \lambda \lvert = 1$
Proof
$$
\begin{aligned}
Ux & = \lambda x \\
\lVert Ux \lVert & = \lVert \lambda x \lVert =
\lvert \lambda \lvert \lVert x \lVert \\
& = \lVert x \lVert (\text{length preserved})
\end{aligned}
$$
$$
\lvert \lambda \lvert \lVert x \lVert = \lVert x \lVert
\quad \rightarrow \quad
\lvert \lambda \lvert = 1
$$
- 다른 값의 eigenvalue에 대응하는 eigenvectors는 orthonormal 하다.
Proof
$$
Ux_1 = \lambda_1x_1, \quad Ux_2 = \lambda_2x_2, \quad (\lambda_1 \ne \lambda_2)
$$
이 둘의 inner product를 구하면
$$
\begin{aligned}
(Ux_1)^H(Ux_2) & = (\lambda_1x_1)^H(\lambda_2x_2) = \overline{\lambda_1}\lambda_2x_1^Hx_2 \\
& = x_1^Hx_2 \ (\text{by property 1})
\end{aligned}
$$
$$
\overline{\lambda_1}\lambda_2x_1^Hx_2 = x_1^Hx_2
\quad \rightarrow \quad
(\overline{\lambda_1}\lambda_2 - 1)x_1^Hx_2 = 0
$$
위의 식에서 $\overline{\lambda_1}\lambda_2 = 1$ 혹은 $x_1^Hx_2 = 0$ 이고, property 2에서 $\overline{\lambda_1}\lambda_1 = 1$ 이고 두 eigenvector의 값은 달라야 하므로 전자는 만족할 수 없다.
결과적으로 $x_1^Hx_2 = 0$ 이고 $x_1$과 $x_2$는 orthogonal 하다.
Skew-Hermitian
강의에서 다루지 않음.
'공부를 합니다 > 수학 (mathematics)' 카테고리의 다른 글
선형대수(HYU)_21 연립미분방정식과 행렬 (0) | 2020.11.14 |
---|---|
선형대수(HYU)_19-20 차분방정식과 고유값 (0) | 2020.10.14 |
선형대수(HYU) 18_고유값과 고유벡터 및 대각화 (0) | 2020.09.27 |
선형대수(HYU)_17 판별식의 응용 (0) | 2020.08.15 |
선형대수(HYU)_16 판별식의 공식 (0) | 2020.07.12 |