A partir de cette page vous pouvez :
Retourner au premier écran avec les dernières notices... |
Descripteurs (mots clés)
Thésaurus Mesh
> C > Chaines de Markov
Chaines de Markov
A stochastic process such that the conditional probability distribution for a state at any future instant, given the present state, is unaffected by any additional knowledge of the past history of the system.
Synonyme(s)
Chaines markoviennes; Chaînes de Markov; Processus de Markov; Processus markovien; Processus markoviensRelation(s)
- voir aussi au terme générique : [Descripteurs (mots clés)] Probabilité
- voir aussi au terme générique : [Descripteurs (mots clés)] Processus stochastiques
Descripteur (mot clé) vide
Etendre la recherche sur niveau(x) vers le bas
Etendre la recherche sur niveau(x) vers le bas