[LA] sympy로 Reduced Row Echelon Matrix 구하기.
·
.../Math
David C. Lay의 Linear Algebra에서 1.2장의 Example 3에 sympy적용. RREF는 unique하기 때문에 sympy에서 지원함. import numpy as np import sympy as sp # ---------------------------------- # colab에서 sympy의 값을 latex 지원하여 출력하기 위해 정의 def custom_latex_printer(exp, **options): from google.colab.output._publish import javascript url = "https://cdnjs.cloudflare.com/ajax/libs/mathjax/2.7.3/latest.js?config=default" javascript(u..
[LA] tf.linalg.solve 로 linear system 의 solution 구하기.
·
.../Math
David C. Lay의 Linear Algebra의 1장의 예제를 tensorflow로 확인. colab으로 간단히 확인 가능함. import tensorflow as tf import numpy as np A = np.array([ [1 ,-2, 1], [0 , 2,-8], [-4, 5, 9] ], dtype=float) cmtx = tf.constant(A) b = np.array([0,8,-9],dtype=float) # tf.constant 를 이용. (1) # b = b.reshape(-1,1) # bvec = tf.constant(b) # tf.constant 를 이용. (2) bvec = tf.constant(b, shape=(3,1)) # tf.Varialbe을 이용. # b = b.re..
[LA] Data Types (or The Types of Variable)
·
.../Math
Scalar : 숫자 하나로 구성. (일반적으로 real number) Vector : the ordered list of numbers. (개념적인 정의. 다르게는 한 sample data의 record에 해당한다고 볼 수 있음.) Matrix : the collection of vectors. (주로 column vector들이 모인 형태로 이용됨.) Tensor : the collection of matrices. (같은 크기의 행렬들이 모인 것으로 여기면 됨.) 위의 정의는 수학적으로 정확한 정의는 아니지만, ML( including DL)에서 이용되는 LA을 이해하기 위해선 충분한 정의임. Tensor는 원래 mapping represented by a multi-dimensional matri..
[LA] Introduction of Linear Algebra
·
.../Math
linear algebra는 다음을 다루고 제공하는 분야임. ** vector, matrix, tensor** 등을 사용하여, 대용량의 숫자로 이루어진 데이터를 효과적으로 계산 및 처리하는 방법을 다룸. 기하학적으로 이해가능한 1~3차원”에서 출발하여 “딥러닝과 같은 기계학습에서 이용하는 고차원 벡터 공간“에서의 대용량 데이터 분석을 위한 이론적 그리고 수학적 기반을 제공. Linear Algebra 관련해서 원서의 용어(terminology)에 대한 정확한 개념을 가지고 있는 것이 기계학습이나 AI 분야의 응용기술을 이해하는데 필요함. 컴퓨터의 발달로 점점 linear algebra에서 실제 손으로 하는 계산 보다는 개념이 중요해지고 있으며, 사람은 가장 효율적인 계산법을 고르고, 적절한 입력 데이터를..
[Math] Orthogonal Projection (정사영)
·
.../Math
Projection $\textbf{x}_1$ onto $\textbf{w}$ (vector $\bf{x}$를 vector $\bf{w}$에 투영) 를 수식으로 표현하면 다음과 같음. $$\text{proj}_\textbf{w}\textbf{x}=\dfrac{\bf{x}\cdot\bf{w}}{\bf{w}\cdot\bf{w}}\bf{w}=\dfrac{\bf{x}\cdot\bf{w}}{\bf{w}^T\bf{w}}\bf{w}=\dfrac{\bf{x}\cdot\bf{w}}{\|\bf{w}\|^2}\bf{w}$$ 유도과정 은 다음과 같음. 위의 그림에서 벡터 $\bf{x}$가 벡터 $\bf{w}$에 내린 orthogonal projection(정사영)인 벡터 $\bf{h}$는 벡터 $\bf{w}$에 평행하므로 $..