3. Orthogonality
3.1 Orthogonal Vectors and Subspaces
Orthogonality
- 기하학적으로 생각하면 basis는 space를 이루는 coordinate axes로 볼 수 있다.
- 일반적으로 봐왔던 x-y plane이나 3-dimensional space의 axes처럼 수직을(perpendicular) 이루고 있는 basis를 **orthogonal**하다고 한다.
- Orthogonal한 basis로 계산을 보다 쉽게 할 수있다.
Orthogonal Vectors
그럼 어떤 vector가 orthogonal한 벡터일까.
두 벡터
Length of Vector
Vector x의 길이(lentgh)는
Orthogonal vectors
orthogonal한 두 basis vector
위 식의 vector 크기를 내적을 이용해서 나타내면
vector
즉,
의 값이 zero이면 와 는 orthogonal 하다. is zero if and only if and are orthogonal vectors.
for Orthogonal (right angle) for angle > for angle <
Orthogonality and Linearly Independent
nonzero vercor
가 mutually orthogonal하면 (모든 verctor가 서로 수직) 이 vectors들은 linearly independent하다.
Proof
임의의
nonzero
모든
Orthonormal
Basis vector
Orthonormal한 basis vector
이 때, Basis vector가 orthonormal하면 linear coefficient
for orthonormal
Orthogonal Subspaces
동일한 space
의 두 개의 subspace 와 에 대해서 의 모든 vector 가 의 모든 vector 에 orthogonal하면 두 subspace 와 는 orthogonal하다. for all and .
- {0}는 모든 subspace에 orthogonal하다.
의 subspace는 원점을 지나는 line(1-dimension)이나 plane(2-dimension)으로 나타낼 수 있으며 line과 line 혹은 line과 plane 사이에 orthogonality가 성립할 수 있다.
Orthogonal Subspace in Four Fundamental Subspace
어떤 Space의 orthogonal subspace는 항상 두 개가 동시에 존재한다*.
그리고 fundamental subspaces가 orthogonal subspace를 이루기 때문에 orthogonal subspace는 항상 존재한다 (unavoidable).
* 생각해보면 subspace가 '수직'을 이루려면 당연히 두 개가 존재해야한다.
m by n matrix에
에 대해서,
Row space는에서 nullspace와 orthogonal 하다.
Column space는애서 left nullspace와 orthogonal 하다.
proof 1
nullspace의 vector
A의 각 row는
Nullspace의 vector x는 모든 row space의 vector에 orthogonal하므로 nullspace는 row space에 orthogonal하다.
Left nullspace의 vector
Vector
Left nullspace의 vector
Proof 2
coordinate-free proof
이 경우
Null space
Example
Rank가 1인 matrix A에 대해서
-
row는
의 상수배이기 때문에 nullspace는 의 모든 row에 orthogonal한 를 포함한다. -
nullspace와 row space는
안의 수직한 line이다. -
column space는
을 지나는 line이므로 left nullspace는 그에 수직인 plane인 이다.
Orthogonal Complement
위의 예시에서 처음 두 개의 sub spaces (two lines)는
이를 일반적으로 적용하면,
- dimension of (row space) + (nullspace) =
(number of columns) in - dimension of (column space) +(left nullspace) =
(number of rows) in
이 처럼 subspace 사이에 orthogonal 하면서 dimension에 보완 관계가 있는 경우 orthogonal complement라고 한다.
의 sub space 에 대해서 에 orthogonal한 모든 vector를 의 orthogonal complement라고 하고 perp 라고 표시한다.
- row space
nullspace: - column space
left nullspace:
결과적으로 four fundamental subspaces의 관계를 정리하면 다음과 같다.
- nullspace는
에서 row space의 orthogonal complement이며 row space의 vector에 orthogonal한 모든 vector를 포함한다. - left nullspace는
에서 column space의 orthogonal complement이며 column space의 vector에 orthogonal한 모든 vector를 포함한다.
Ax = b
Column space와 left nullspace의 orthogonal complement를 이루는 성질을
의 solution이 존재하기 위해서는 가 의 column space에 있어야 한다. ( 가 column space의 linear combination)- 즉
가 의 left nullspace에 perpendicular 해야한다.
는 일 때, 이면 해가 존재한다. is solvable if and only if whenever
The Matrix and the Subspaces
Orthogonal complement와 orthogonal은 다르다.
Dimension이 작은 경우 orthogonal하지만 orthogonal complement는 아닐 수 있다.
Example
Dimension이 충분하면(right) orthogonal sub space들은 무조건 orthogonal complement를 이룬다.
이면 이고 이다.
즉,
Summary of Fundamental Theorem of Linear Algebra
What is happening inside the multiplication

- Nullspace는 zero vector로 이동.
- 모든
는 의 column space안에 존재. - 그 어느 것도 left nullspace로는 이동하지 않음.
일반적으로
에 를 곱하면,- Nullspace component는 zero로 간다:
- Row space component는 column space로 간다:
Transpose, Pseudoinverse
추후에 작성
3.2 Cosines and Projections onto Lines
- Vector의 inner product를 vector가 이루는 각과 연결시키기 위함.
- Vector가 이루는 각이 right angle이 아니고 그 inner product 값도 zero가 아닌 경우.
Projection
Vector
- Line
의 위에 있는 point 중 와 가장 가까운 point 를 찾으면 와 를 연결하는 직선은 에 수직이다.

Line이 아니라 plane이나 임의의 subspace
point
는 를 subspace로 projection한 것이다.
기하학적으로 projection은 point
Linear system에서는 overdetermined system의 least-squares solution을 구하는데 사용할 수 있다.
즉,
Inner Products and Cosines
Inner product는 각이 아니지만 각의 cosine값은 inner product와 직결된다.

위의 그림에서
벡터를 삼각형으로 보고 law of cosines를 이용해도 동일한 결과를 구할 수 있다.
vector의 length를 모두 inner product로 바꿔서 식을 정리하면
Projection onto a Line
Projection point

point
를 이용해서
projection onto a line
Schwarz inequality
projection식을 이용해서 Schewarz inequality를 이끌어낼 수 있다.
위의 Figure에서
이로부터
모든 vector
와 는 에서 인 Schwarz inequality를 만족한다.
Example
Projection Matrix of Rank 1
이전에 표기하던
이처럼
Example
예시에서 두 가지 성질을 발견할 수 있다.
는 symmetric matrix이다- Matrix를 제곱하면 자기 자신이 나온다.
Projection matrix를 나타내는 식으로 계산해도 동일한 결과를 얻을 수 있다.
을 지나는 line으로 이루어진 column space 에 수직인 plane으로 이루어진 nullspace 이고- rank
이다.
satisfying
이는
Remark on Scaling
Projection matrix는 scaling에 영향을 받지 않는다.
위의 예시에서
Example: Project onto -line
,- 분모의
Transposes from Inner Products
Transpose는 matrix의 diagonal을 기준으로 reflection 시킨 것이다:
Transpose를 inner product랑 연결시키면 transpose에 대한 좀 더 추상적(abstract)한 정의를 얻을 수 있다:
와 를 inner product한 것은 와 inner product한 것과 같다.
동일한 방법으로
'공부를 합니다 > 수학 (mathematics)' 카테고리의 다른 글
선형대수(HYU)_13-14 QR 분할과 함수공간 (0) | 2020.06.06 |
---|---|
선형대수(HYU)_11-12 벡터투영과 최소제곱법 (0) | 2020.05.15 |
선형대수(HYU)_09 선형변환과 행렬 (0) | 2020.04.22 |
선형대수(HYU)_08 벡터공간의 차원과 네 가지 부벡터공간 (0) | 2020.03.12 |
선형대수(HYU)_07 벡터의 선형독립과 기저벡터 (0) | 2020.03.12 |