Home >  Term: Chaîne de Markov
Chaîne de Markov

Un processus stochastique avec un nombre fini d'États dans lesquels la probabilité d'occurrence d'un état futur est conditionnelle seulement sur l'état actuel ; les États passés sont sans conséquence. En météorologie, Markov, les chaînes ont été utilisées pour décrire une distribution de taille de goutte d'eau dans laquelle l'État à l'étape n + 1 est déterminée uniquement par des collisions entre des paires de gouttes comprenant la distribution de la taille à intervalle de temps n.

0 0
  • Μέρος του λόγου: noun
  • Κλάδος/Τομέας: Weather
  • Category: Meteorology
  • Company: AMS

Δημιουργός

  • Adelard
  •  (V.I.P) 19205 points
  • 100% positive feedback
© 2025 CSOFT International, Ltd.