Square Full-Rank Matrix의 Inverse를 Cramer's rule에 기반하여 구하는 방식은
실제 Inverse를 구하는 용도로는 많이 사용되지는 않는다.
- 재귀적 방식인지라, 대상이 되는 Square Matrix의 크기가 커질 경우 매우 비효율적이기 때문임.
- 단, $3\times 3$ 이하의 작은 크기이거나, Complex Number 로 인해 Row Reduction 등이 효과적이지 못한 경우에는 inverse를 구하는데 사용되기도 함.
주요 용도는 Theoretical Tool로서 inverse를 다 구하지 않고도, $A\mathbf{x}=\mathbf{b}$에서 $\mathbf{b}$의 작은 변화가
$\mathbf{x}$에 얼마나 영향을 주는지 등을 살피는 것임.
주요행렬
이 방식에서 중간에 이용되는 주요 Matrix는 다음과 같음.
- Minors Matrix (소행렬)
- Grid Matrix
- Cofactors Matrix
- Adjugate Matrix
Minors Matrix
"Sub-Matrices의 Determinants"(=minor, 소행렬식) 를 elements 로 가짐.
- $i$-th row, $j$-th column의 element $m_{ij}$ (=소행렬식, minor) 는
- $i$-th row와 $j$-th column을 제외한 submatrix $A_{ij}$의 determinant임.
$$M = \begin{bmatrix} m_{11} & \cdots & m_{1n} \\ \vdots & \ddots & \vdots \\ m_{n1} & \cdots & m_{nn} \end{bmatrix} = \begin{bmatrix} \det A_{11} & \cdots & \det A_{1n} \\ \vdots & \ddots & \vdots \\ \det A{n1} & \cdots & \det A_{nn}\end{bmatrix}$$
Grid Matrix
항상 left-top element가 1이고 이웃한 행과 열에서 -1과 1이 반복되면서 나오는 체크무늬의 Matrix.
$i$-th row, $j$-th column의 element $g_{ij}$는 다음과 같음.
$$g_{ij} = (-1)^{(i+j)}$$
- $i,j$는 1부터임.
Cofators Matrix
Cofactor (Cofactor)들을 elements로 가지는 Matrix.
Minors Matrix와 Grid Matrix의 Hadamard Multiplication의 결과물임.
$$C_{ij} = (-1)^{(i+j)} \det A_{ij}$$
Source Matrix $A$의 determinant는 다음이 성립
$$\det A = a_{11}C_{11} + a_{12}C_{12} + \cdots + a_{1n}C_{1n}$$
where
$a_{ij}$: Matrix $A$의 $i$-th row, $j$-th column의 Element.
위의 식을 Cofactor Expansion (여인수 전개) across the first row of $A$
Adjugate Matrix
Classical Adjoint 라고도 불리기도 함.
Transpose of the Cofactors Matrix 임.
$$\text{Adj } A = C^\top$$
Inverse Matrix
위의 intemediate matrix를 통해 다음과 같은 일반식을 얻을 수 있음.
$$\begin{aligned}A^{-1} &= \dfrac{1}{\det A} \text{Adj } A \\ &=\dfrac{1}{\det A}\begin{bmatrix} C_{11} & C_{21} & \cdots & C_{n1} \\ C_{12} & C_{22} & \cdots & C_{n2} \\ \vdots & \vdots & \ddots & \vdots \\ C_{1n} & C_{2n} & \cdots & C_{nn} \end{bmatrix}\end{aligned}$$
참고: Cramer's Rule
위의 Square Full-Rank Matrix에 대한 Inverse 를 구하는 일반식은 Cramer's Rule을 이용하여 유도된다.
- $A^{-1}$의 $j$-th column $\mathbf{x}$가 $A\mathbf{x}=e_j$를 만족하므로,
- 여기에 Cramer's Rule을 통해 $\mathbf{x}를 구하는 것을 통해 이루어짐.
- $i$-th entry of $\mathbf{x}$는 $A^{-1}$의 $(i,j)$-entry에 해당.
다음은 Cramer's Rule임.
$A$ 가 invertible $n \times n$ matrix 이고, 다음의 Matrix Equation이 있다고 하자.
$$A\mathbf{x} =\mathbf{b}, \quad \mathbf{x} \in \mathbb{R}^n, \mathbf{b} \in \mathbb{R}^n$$
이때 the unique solution $\mathbf{x}$의 element는 다음과 같음.
$$x_i = \dfrac{\det A_i(\mathbf{b})}{\det A}, \quad i=1,2,\cdots, n$$
where
- $A_i(\mathbf{b})$ 는 $A$에서 $i$-th column을 Vector $\mathbf{b}$로 교체한 Matrix임.
같이보면 좋은 자료들
2024.02.17 - [.../Linear Algebra] - [LA] Row Operations and Row Equivalent
[LA] Row Operations and Row Equivalent
linear algebra에서는 "row operations"와 유사하게 "column operation"도 존재. 이 두 유형의 operations은 matrix를 다룰 때 중요한 tool로, matrix의 성질을 조사하거나 특정한 형태(Echelon form등)로 변환하는 데 사용.
dsaint31.tistory.com
2022.12.02 - [.../Math] - [LA] Pseudo Inverse Matrix
[LA] Pseudo Inverse Matrix
참고로 아래에 Singular Vector Decomposition으로 Pseudo Inverse를 구하는 방법이 있음. Pseudo Inverse Matrix square matrix 가 아닌 matrix $A_{m\times n}$에서 inverse에 해당하는 matrix를 구하는데 사용됨. $$ A^+_{n\times m}=\
dsaint31.tistory.com
2024.07.20 - [.../Math] - [Math] Identity (항등원) and Inverse (역원)
[Math] Identity (항등원) and Inverse (역원)
Identity and Inverseoperation에 대해 identity(항등원) 과 inverse(역원)이 존재inverse는 없을 수도 있음.operand가 function인 경우, identity와 inverse도 function.identity (항등원)어떤 object에 대해 어떤 operation를 identity
dsaint31.tistory.com
2025.01.21 - [.../Linear Algebra] - [Summary] Linear Algebra (작성중)
[Summary] Linear Algebra (작성중)
ML 을 위해 Linear Algebra 공부시 참고할만한 책더보기전체적으로 공부를 한다면 다음을 권함.Linear Algebra and Its Application, 5th ed 이상, David C. Lay5th ed. 는 웹에서 쉽게 pdf도 구할 수 있음. 다음은 1~2개
dsaint31.tistory.com
'... > Linear Algebra' 카테고리의 다른 글
[LA] Gram-Schmidt Process and QR Decomposition (0) | 2025.01.26 |
---|---|
[LA] Inverse Matrix (0) | 2025.01.25 |
[LA] Quadratic Form and Positive/Negative Definite (0) | 2025.01.24 |
[Summary] Linear Algebra (작성중) (0) | 2025.01.21 |
[LA] Eigenvalue and Eigenvector (0) | 2024.11.06 |