术语 | Markov chain |
释义 | Markov chain 马尔可夫链 A probabilistic model of events in which the probability of an event is dependent only on the event that precedes it. 事件的一种概率模型,其中一个事件的概率完全取决于它前面的事件。 |
随便看 |
|
计算机英汉双解词典包含21137条计算机术语英汉翻译词条,基本涵盖了全部常用计算机术语的翻译及用法,是计算机学习及翻译工作的有利工具。