Markov

    [LA] Markov Chain

    Markov Chain은 Markov Property를 가지고 있는 dicrete-time stochastic process (또는 discrete-time random process)를 의미함. 달리 애기하면, 다양한 random experiment들의 trial들에 대한 확률 모델로 "현재의 state만 고려하여 다음 state가 확률적으로 결정되는 discrete-time stochastic process"임. 주로 많은 수의 trial이 이루어지는 먼 미래의 state를 예측(초기상태에 상관없이)하거나 순차적으로 발생하는 확률변수에 대한 값을 예측할 때 이용됨. 2022.10.14 - [.../Math] - [Math] Definition : Random Process [Math] Definiti..