En esta sección, estudiaremos un tipo de cadena de Markov en la que cuando se alcanza cierto estado, es imposible salir de ese estado. Tales estados se llaman estados absorbentes, y una Cadena de Mark...En esta sección, estudiaremos un tipo de cadena de Markov en la que cuando se alcanza cierto estado, es imposible salir de ese estado. Tales estados se llaman estados absorbentes, y una Cadena de Markov que tiene al menos uno de esos estados se llama una cadena Absorbente de Markov.