gradient

    [ML] Gradient Descent Method : 경사하강법

    Gradient Descent Method (경사하강법) 정의 및 수식 Steepest Gradient Descent Method로도 불리는 Gradient Descent Method(경사하강법)는 여러 Optimization 방법 중 가장 많이 사용되는 방법들 중 하나임. training set $X$와 현재 $t$에서의 모델의 parameters $\boldsymbol{\omega}_t$의 Loss function $L(\boldsymbol{\omega}, X)$에서 모델의 parameters $\boldsymbol{\omega}$에 대한 Gradient vector $\nabla_{\boldsymbol{\omega}} L(\boldsymbol{\omega}_t,X)$를 구하고, 이 Gradient ..

    [Math] Derivative of Logistic Function

    Derivative (도함수) of Logistic Function (Sigmoid라고도 불림) $y=\sigma(x)=\dfrac{1}{1+e^{-x}}$ 를 미분하면 다음과 같음. $$\frac{d}{dx}\sigma(x)= \sigma(x)(1-\sigma(x))$$ graph 유도 유도는 다음과 같음. $$\begin{aligned}\frac{d}{dx}\sigma(x)&= \dfrac{0\times(1+e^{-1}) - 1\times(-e^{-1})}{(1+e^{-x})^2}\\&=\dfrac{e^{-x}}{(1+e^{-x})^2}\\ &= \frac{1}{(1+e^{-x})}\frac{e^{-x}}{(1+e^{-x})}\\ &= \frac{1}{(1+e^{-x})}\left( 1-\dfrac{..

    [Math] Gradient (구배, 기울기, 경사, 경도) Vector

    Gradient (구배, 기울기, 경사, 경도), $\nabla f(\textbf{x})$ multivariate function (=scalar field) $f(\textbf{x})$에서 input $\textbf{x}$의 미세한 변화에 대해 output이 1) 가장 가파르게 증가하는 direction(방향)과 2) 그 증가하는 변화율의 정도를 magnitude(크기)로 가지는 vector field (multivariate vector valued function)를 구하는 것이 바로 Gradient $f(\textbf{x})$=$\nabla f(\textbf{x})$임. Gradient를 통해, scalar field $f(\textbf{x})$(← Potential Energy, Voltage,..

    [Math] Jacobian : Summary

    이 문서는 Numerator Layout Convention을 따름. Jacobian은 vector field (or multi-variate vector-valued function)에 대한 1st order derivative에 해당함. 정의 input과 output이 vector인 vector function(←vector field, $\textbf{f}:\mathbb{R}^n\to\mathbb{R}^m$)을 input vector로 미분! → Jacobian matrix ($m \times n$ matrix) : row는 output, column은 input에 해당(column vector사용시) Take $\textbf{f}: \mathbb{R}^n \rightarrow \mathbb{R}^..