Un tipo de cadenas de Markov que sí alcanzan un estado de equilibrio se llaman cadenas regulares de Markov. Se dice que una cadena de Markov es una cadena regular de Markov si alguna potencia de su ma...Un tipo de cadenas de Markov que sí alcanzan un estado de equilibrio se llaman cadenas regulares de Markov. Se dice que una cadena de Markov es una cadena regular de Markov si alguna potencia de su matriz de transición T solo tiene entradas positivas.