Saltar al contenido principal
LibreTexts Español

11: Cadenas Markov

  • Page ID
    150070
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    La teoría moderna de la probabilidad estudia procesos de azar para los cuales el conocimiento de resultados previos influye en las predicciones para experimentos futuros. En principio, cuando observamos una secuencia de experimentos de azar, todos los resultados pasados podrían influir en nuestras predicciones para el siguiente experimento. Por ejemplo, este debería ser el caso al predecir las calificaciones de un estudiante en una secuencia de exámenes en un curso. Pero permitir tanta generalidad haría muy difícil probar resultados generales. En 1907, A. A. Markov inició el estudio de un nuevo tipo importante de proceso casual. En este proceso, el resultado de un experimento dado puede afectar el resultado del siguiente experimento. Este tipo de proceso se llama cadena de Markov.

    Miniatura: Diagrama que representa un proceso Markov de dos estados, con los estados etiquetados E y A. Cada número representa la probabilidad de que el proceso de Markov cambie de un estado a otro, con la dirección indicada por la flecha. Si el proceso de Markov está en el estado A, entonces la probabilidad de que cambie al estado E es 0.4, mientras que la probabilidad de que permanezca en el estado A es 0.6. (CC BY-SA 3.0; Joxemai4 vía Wikipedia).


    This page titled 11: Cadenas Markov is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.