| 释义 |
Markov chain ['mɑ:kɔ:f] 【统计学】 马尔可夫链(一个随机事件的序列,其中每一个事件均由紧靠它的前一个事件决定) [亦作 Markoff chain] 以上来源于:《21世纪大英汉词典》 Markov chain/ˈmɑːkɒf/n.【统】马尔可夫链详细释义源自:《新世纪英汉大词典》Collins外研社 n. /ˈmɑːkɒf ˌtʃeɪn/马尔可夫链【统计学】英汉大汉英同义词反查☞bolo tieMarkov chain马尔可夫链Markov chain马可夫炼Markov |