chaîne de Markov
PROBABILITES
On appelle chaîne de Markov une suite de variables aléatoires (Xn) telle que, pour chaque n, Xn+1 soit indépendante de Xk, pour k inférieur ou égal à n-1.
Exemple : Tirage avec remise différée.
PROBABILITES
On appelle chaîne de Markov une suite de variables aléatoires (Xn) telle que, pour chaque n, Xn+1 soit indépendante de Xk, pour k inférieur ou égal à n-1.
Exemple : Tirage avec remise différée.