En probabilités, la constante de Kemeny d'une chaîne de Markov ergodique est l'espérance du temps d'atteinte d'un état choisi aléatoirement selon la probabilité stationnaire de cette chaîne. Ce qu'il y a de remarquable à propos de cette espérance est qu'elle ne dépend pas de l'état initial de la chaîne — d'où le nom de constante de Kemeny : il s'agit d'une quantité qui ne dépend que de la chaîne étudiée.
Définition formelle
La définition suivante est conforme à la formulation originelle, mais comme détaillé plus bas il est possible d'adopter une autre convention. Soit le temps d'atteinte de l'état j, défini ici par , où est l'état de la chaîne au temps t. On note l'espérance de cette variable aléatoire sachant que , i.e. le temps moyen qu'il faut pour atteindre l'état j en partant de l'état i (qu'on prend égal au temps de retour en i lorsque i = j. La constante de Kemeny est donnée par
,
où est la probabilité stationnaire de la chaîne. Comme expliqué plus haut, cette quantité ne dépend pas de i.
Remarque : Il aurait également été possible d'adopter la définition suivante :
,
où . On a alors . En effet, le seul terme différant dans les deux sommes précédentes est le terme pour j = i. Dans avec la première définition, ce terme est égal au produit du temps de retour à l'état i () par la probabilité stationnaire de se trouver dans cet état (), soit 1; tandis qu'avec la deuxième il est égal à 0. La deuxième définition présente l'avantage de permettre d'exprimer la constante comme , où , où est la matrice de transition et la matrice dont les lignes sont .[réf. nécessaire]
Anecdote historique
Ce résultat est contre intuitif, si bien que lorsqu'il a été énoncé par John Kemeny en 1960, un prix a été promis à quiconque pourrait en donner une explication intuitive[1].