Processing math: 100%
[DL] Softsign : tanh의 유사품
·
.../Math
hyperbolic tangent (=tanh)와 유사한 함수. tanh 대신 activation function으로 사용되는 경우도 있음. softsign(x)=x1+|x| softsign의 derivative는 다음과 같음. ddxsoftsign(x)=1(1+|x|)2 차트 비교 관련소스 import numpy as np import matplotlib.pyplot as plt x = np.linspace(-20.,20., 100) softsign = x/ (1.+np.abs(x)) logistic = 1/ (1+np.exp(-x)) tanh = np.tanh(x) fig,ax = plt...
[DL] Hyperbolic Tangent Function (tanh)
·
Computer
logistic function과 함께 sigmoid의 대표적인 함수가 바로 tanh임.값이 [1,1]의 range를 가지며, logistic에 비해 기울기가 보다 급격하기 때문에 좀 더 빠른 수렴속도를 보임.하지만, sigmoid의 일종이기 때문에 gradient vanishing에 자유롭지 못함.logistic보단 그래도 양호한 편이나sigmoid의 일종이기 때문에, 양 끝단에 갈 경우 기울기가 0에 수렴.RNN의 activation function으로 많이 이용된다.Exploding gradient가 쉽게 발생하는 RNN(Recurrent Neural Network)에서는 ReLU가 적합하지 않음.Weight matrix의 eigenvalue (특히, max eigenvalue..