Symmetric Matrix(대칭 행렬)에 대한
Spectral Theorem은
Symmetric Matrix에서 유용한 성질을 정리하고 있음.
Spectral Theorem
Symmetric Matrix를
- Eigen Vector ei 각각의 Outer Product의 결과물인
Rank-1 Matrix (=e1e⊤1)들과- Eigen Vector를 구할 때, ‖로 normalization이 되도록 \mathbf{e}_i, \lambda_i구함.
- 대응하는 Eigen Value \lambda_i 들의 Weighted Sum으로
- 분해하여 바라볼 수 있도록 해줌 (Spectral Decomposition)
Spectral decomposition은
Symmetric matrix (or Hermitian matrix)에서 성립하는
Eigenvalue decomposition의 특수한 경우임.
\mathbf{D}=\mathbf{Q}^\top \mathbf{A} \mathbf{Q} \\ \left(\mathbf{Q}^\top\right)^{-1}\mathbf{D}\mathbf{Q}^{-1}=\mathbf{A}\\ \mathbf{Q}\text{ is orthogonal matrix: } \mathbf{Q}^{-1}=\mathbf{Q}^\top \\ \mathbf{Q} \mathbf{D} \mathbf{Q}^\top=\mathbf{A}
이를 LHS와 RHS를 바꾸면 다음과 같고, 이를 Eigenvalues와 이에 대응하는 Eigenvectors의 Weighted Sum of Rank-1 Matrices로 나타낼 수 있음.
\mathbf{A}= \mathbf{Q}\mathbf{D}\mathbf{Q}^\top = \sum^n_{i=1} \lambda_i \mathbf{e}_i \mathbf{e}_i^\top, \quad \text{where } |\lambda_1| \le \dots \le |\lambda_n|
- 위의 Summation의 식이 바로 Spectral Decomposition of \mathbf{A}이라고 불리며,
- Weights 에 속하는 Eigenvalues의 Set을 Spectrum of \mathbf{A}라고 부름: Spectrum의 정의 ***
- 각 Rank-1 Outer Product는 일종의 "Orthogonal Projection 연산"에 해당 *** :
- \mathbf{A}\mathbf{x}= \sum^n_{i=1} \lambda_i \color{red}{\mathbf{e}_i\mathbf{e}_i^\top \mathbf{x}}에서
- \color{red}{\mathbf{e}_i\mathbf{e}_i^\top \mathbf{x}}는
- \mathbf{e}_i로 spaned 된 subspace에 \mathbf{x}를 Orthogonal Projection하는 것임.
Eigenvalue의 절대값이 큰 순으로 놓는 이유는 \mathbf{A}에 강한 영향을 주는 순서로 배치하고 낮은 영향력의 성분을 제거하는 Approximation 등에 사용가능하기 때문임.
(Spectral Decomposition에선 항상은 아니나, SVD에선 거의 일반적인 경우임).
참고로, The Sum of Rank-1 Outer Products 는 The Column-Row Expansion of a Product 라고도 불림.
주의할 특성
Spectral Theorem에서 중요한 각 특성에 대한 설명은 다음과 같음:
- Real Eigenvalues (실수 고유값):
- n \times n symmetric matrix \mathbf{A} (=\mathbf{A}^\top)의 모든 eigenvalue \lambda_i는 real number임.
- 이는 \mathbf{A}의 characteristic equation (or characteristic polynomial, 특성 다항식으로 degree가 n)이multiplicities(중복도)를 고려하여 셀 경우(중근을 2개로, 삼중근은 3개로 세는 것을 의미), n개의 real root를 가짐을 의미.
- Symmetric matrix에서 eigenvalue는 항상 실수이지만,
- 각각이 distinct는 아님 (not all distinct).
- Symmetric Matrix의 eigenvalue는 0이 될 수도 있음 (참고로 eigenvector는 절대 zero vector가 아님.
- Dimension of Eigenspace (고유공간의 차원):
- \mathbf{A}의 각 eigenvalue \lambda_i 에 대해, \lambda_i에 대응하는 eigenspace(\lambda_i)의 차원은 \lambda_i의 algebraic multiplicity(대수적 중복도)와 같음.
- eigenvalue가 0인 경우, matrix \mathbf{A}의 "nullspace의 차원 (nullity)"이 1이상으로 해당하는 0 eigenvalue에 대응하는 eigenvector가 존재함.
- eigenspace의 차원을 모두 더한다는 것은 이들도 고려해야함.
- 모든 \lambda_i에 대한 eigenspace의 차원들을 모두 더하면 전체 matrix의 열(또는 행)의 수와 같음.
- 이는 항상 n개의 mutually orthogonal이 성립하는 n개의 eigenvector를 구할 수 있음의 의미함.
- Symmetric Matrix는 항상 (orthgonally) diagonalization이 가능함을 의미함 (이 둘은 항등임: 즉 orthogonal diagoalizable인 경우 symmetric matrix이며 이 역도 성립).
- \mathbf{A}의 각 eigenvalue \lambda_i 에 대해, \lambda_i에 대응하는 eigenspace(\lambda_i)의 차원은 \lambda_i의 algebraic multiplicity(대수적 중복도)와 같음.
- Orthogonal Eigenspace (직교하는 고유공간):
- \mathbf{A}의 서로 다른 eigenvalue에 대응하는 eigenspace는 mutually orthogonal임.
- 즉, 만약 \mathbf{v}_1와 \mathbf{v}_2가 서로 다른 eigenvalue \lambda_1 과 \lambda_2 에 대응하는 eigenvector라면 ( \lambda_1 \neq \lambda_2 ),
- \mathbf{v}_1와 \mathbf{v}_2는 mutually orthogonal이며,
- 이는 \mathbf{v}_1 \cdot \mathbf{v}_2 = 0임을 의미.
- Orthogonal Diagonalizability (직교 대각화 가능성):
- 대칭 행렬 \mathbf{A}(=\mathbf{A}^\top)는 orthogonal matrix를 통해 diagonalization이 가능함
- 즉, \mathbf{Q}라는 orthogonal matrix(모든 column vectors가 orthonormal vector임.)이 존재하여 이를 이용한 \mathbf{A}의 대각화 \mathbf{D}=\mathbf{Q}^\top \mathbf{AQ}의 결과 \mathbf{D}는 diagonal matrix가 성립함.
- \mathbf{Q}의 column vectors는 모두 \mathbf{A}의 normalized eigenvectors이며,
- Diagonal matrix \mathbf{D}의 main diagonal의 entry들은 모두 \mathbf{A}의 eigenvalue 이며 그 순서는 \mathbf{Q}의 eigenvector이 columnvector로 놓인 순서임 (보통 eigenvalue의 크기 순으로 배치됨).
활용 및 응용사례
Spectral Theorem은
- Symmetric Matrix (실수가 element)의 Eigenvalue와 Eigenvector를 통해
- Rank-1 Outer Products의 Weighted Sum으로 분해할 수 있음을 보장함.
이 정리는 Eigenvalue Decomposition, Singular Decomposition 등과 함께,
복잡한 신호나 대상을 간단한(rank-1) 구성의 linear combination으로 분해하여 분석할 수 있게 해줌:
Pricipal Component Analysis와 Fourier Analysis 등이 대표적인 응용사례임.
같이보면 좋은 자료들
[LA] Diagonalization, Orthogonal Diagonalization, and Symmetric Matrix
Diagonalizablesqaure matrix가 n개의 eigenvalue를 가지고, 이들 각각의 eigenvalue들이 각자의 multiplicity에 해당하는 dimension을 가지는 eigne space를 가지고 있는 경우에 해당.각기 다른 eigenvalue의 eigen space들은
dsaint31.tistory.com
2024.05.29 - [.../Linear Algebra] - [LA] Matrix-Vector Multiplication
[LA] Matrix-Vector Multiplication
Matrix-Vector MultiplicationLinear TransformMatrix와 vector의 곱은 일종의 Linear Transformation으로 볼 수 있음.곱해지는 Vector를 Matrix가 나타내는 Linear Transformation 처리하는 것으로 볼 수 있음.Matrix A 와 vector $\ma
dsaint31.tistory.com
2022.11.25 - [.../Math] - [LA] Properties of Hermitian Matrix
[LA] Properties of Hermitian Matrix
0. Definition of Hermitian Matrix 모든 entity들에 complex conjugate를 취하고 Transpose를 할 경우, 자기자신이 나오는 matrix. A={A^*}^T(=A^H) 더보기 Hermitian symmetry가 성립하는 matrix라고 볼 수 있음. https://bme808.blo
dsaint31.tistory.com
'... > Linear Algebra' 카테고리의 다른 글
[Summary] Linear Algebra (작성중) (0) | 2025.01.21 |
---|---|
[LA] Eigenvalue and Eigenvector (0) | 2024.11.06 |
[LA] Skew-Symmetric Matrix 란 (0) | 2024.07.16 |
[LA] Null Space (0) | 2024.07.08 |
[LA] Rank: Matrix의 속성 (0) | 2024.07.08 |