Aller au contenu

chaîne de Markov

Définition, traduction, prononciation, anagramme et synonyme sur le dictionnaire libre Wiktionnaire.
Révision datée du 31 août 2020 à 04:02 par LeptiBot (discussion | contributions) (Remplacement des modèles de lexiques par le modèle lexique)
Voir aussi : chaine de Markov

Français

Étymologie

D’après Andreï Markov.

Locution nominale

Singulier Pluriel
chaîne de Markov chaînes de Markov
\ʃɛn də maʁ.kɔf\
Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d’un état à un autre.

chaîne de Markov \ʃɛn də maʁ.kɔf\ féminin (orthographe traditionnelle)

  1. (Probabilités) Représentation de la prédiction du futur grâce à l’état présent du processus.

Variantes orthographiques

Dérivés

Traductions

Prononciation

Voir aussi