원격작용 (Action at a distance)
·
.../Physics
Action at a distance 서로 떨어져 있는 두 물체가 중간 매질 없이 순간적으로 힘을 주고받는 (혹은 상호작용하는) 것을 가르킴. 고전 역학에서 중력, 전자기력(coulomb force)이 원격작용에 해당했으나, 현재에는 field 개념을 도입하여 field를 통한 action through medium(근접작용)으로 해석함. Gravitational force : 아인슈타인에 의해 (일반상대성 이론을 통해 중력을 시공간의 휘어짐(warp)로 해석) Electromagnetic force : Maxwell에 의해. Field가 매개하는 경우, field를 생성한 소스의 움직임에 따른 field내의 vector들의 변화는 순식간에 일어나는 것이 아닌 유한한 속도로 퍼져나가는 것이라고 할 수 있..
[Physics] Field에 대한 참고자료.
·
.../Physics
Vector filed로 표현되는 중력장, 전기장 에 대한 개념 정립에 매우 좋은 글임. 반드시 정독을 해볼 필요가 있음. https://terms.naver.com/entry.naver?docId=3567916&cid=58941&categoryId=58960 '장'의 의미 뉴턴의 중력이론에 의하면 중력은 한 물체에서 멀리 떨어진 다른 물체에 순식간에 작용한다. 예를 들면 태양이 1억 5천만 km나 떨어진 지구를 잡아당기는 힘도 텅 빈 우주공간을 가로질러 순식간 terms.naver.com
[Physics] 자연계의 기본적인 4가지 힘. (Four Force)
·
.../Physics
힘은 상호작용이며 자연계에 다음과 같은 4가지의 기본 힘이 존재. 위의 기본 4가지 힘 중 가장 약한 중력의 크기를 1이라하고 이를 기준으로 비교하면 다음과 같음. weak force (약력) : $10^{39}$ 정도 electromagnetic force (전자기력)은 $10^{41}$ strong force (강력) : $10^{44}$ Four force 중, 거시 세계에서 관측가능한 힘은 gravitational force와 electromagnetic force가 대부분임(strong force와 weak force는 그 작용 범위가 매우 한정적). gravitational force는 뉴턴의 만유인력의 법칙으로, electromagnetic force는 coulomb's law등으로 기술되듯..
[ML] Softmax function
·
...
Softmax 함수란?ML 에서 multiclass classification을 수행하는 모델의 최종 output을 출력하는 activation함수로 사용되는 함수.Softmax regression (=multinomial logistic regression)에서 사용됨.Logistic Function의 Generalization임.2022.06.06 - [Computer] - [ML] Logit에서 Logistic Function. [ML] Logit에서 Logistic Function.다음이 바로 logistic function임. $$\text{logistic}(t)=\sigma(t)=\frac{1}{1+e^{-t}}$$ Sigmoid functions 중에서 가장 유명한 것이다보니 sigmoid라..
[ML] Entropy, KL-Divergence, and Cross-entropy
·
Programming
2022.05.12 - [.../Math] - [Math] Entropy 란 (평균정보량, 정보량의 기댓값) [Math] Entropy 란 (평균정보량, 정보량의 기댓값)Entropy란? Random variable에서 기대되는 정보량 (or 정보량의 기댓값, 평균 정보량). 해당 random variable을 encoding하는데 필요한 평균정보량(단위 bit)의 lower bound. 정의식은 다음과 같음. $$H(X)=H(p)=-\sum_{i=0}dsaint31.tistory.com 2022.05.12 - [.../Math] - [Math] Kullback-Leibler Divergence [Math] Kullback-Leibler Divergence어떤 random variable $x$ (확률변..
[Math] Entropy 란 (평균정보량, 정보량의 기댓값)
·
.../Math
Entropy란? Random variable에서 기대되는 정보량 (or 정보량의 기댓값, 평균 정보량). 해당 random variable을 encoding하는데 필요한 평균정보량(단위 bit)의 lower bound. 정의식은 다음과 같음. $$H(X)=H(p)=-\sum_{i=0}^n p(x_i)\ln{p(x_i)}$$ where $p$ : random variable $X$의 probability distribution $n$ : random variable $X$가 가질 수 있는 값의 종류. $p(x_i)$ : random variable $X$가 $x_i$라는 값을 가질 확률. Entropy는 일종의 Transcendental function임. 아예 정보량에 대한 개념이 없는 경우 아래에 있..