WordNet
Markov chain
名詞
-
マルコフ連鎖
a Markov process for which the parameter is discrete time values.
パラメーターが離散時間値であるマルコフ過程。
言い換え
DICTIONARY / 英ナビ!辞書
マルコフ連鎖
a Markov process for which the parameter is discrete time values.
パラメーターが離散時間値であるマルコフ過程。
日本語ワードネット1.1版 (C) 情報通信研究機構, 2009-2010 License
WordNet 3.0 Copyright 2006 by Princeton University. All rights reserved. License