Saltar al contenido principal
LibreTexts Español

6.9: Resumen

  • Page ID
    86293
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Hemos visto que los procesos de Markov con espacios estatales contables son notablemente similares a las cadenas de Markov con espacios estatales contables, y a lo largo del capítulo, frecuentemente hicimos uso tanto de la cadena incrustada correspondiente al proceso como a la aproximación de tiempo muestreada al proceso.

    Para los procesos irreducibles, se encontró que las ecuaciones de estado estacionario,\ ref {6.23} y\(\sum_i p_i\nu_i = 1\), especificaban las probabilidades de estado estacionario\(p_i\), las cuales tienen significancia tanto como medias de tiempo como probabilidades limitantes. Si las tasas de transición\(\nu_i\) están delimitadas, entonces existe la aproximación de tiempo muestreado y tiene las mismas probabilidades de estado estacionario que el propio proceso de Markov. Si las tasas de transición\(\nu_i\) son no acotadas pero\(\sum_i p_i\nu_i < \infty\), entonces la cadena incrustada es recurrente positiva y tiene probabilidades de estado estacionario, pero la aproximación de tiempo muestreado no existe. Asumimos a lo largo del resto del capítulo que\(\sum_i p_i\nu_i < \infty\). Esto descartó procesos irregulares en los que no existe un estado estacionario significativo, y también algunos procesos peculiares como el del Ejercicio 6.9 donde la cadena incrustada es nula recurrente.

    La Sección 6.3 desarrolló las ecuaciones diferenciales hacia atrás y hacia adelante de Kolmogoroff para las probabilidades transitorias\(P_{ij} (t)\) de estar en estado\(j\) en tiempo\(t\) dado estado\(i\) en el tiempo 0. Se demostró que para los procesos de estado finito, estas ecuaciones pueden resolverse encontrando los autovalores y vectores propios de la matriz de tasas de transición\(Q\). Existen analogías cercanas entre este análisis y el tratamiento algebraico de las cadenas de Markov en estado finito en el capítulo 3, y el ejercicio 6.7 mostró cómo los transitorios del proceso se relacionan con los transitorios de la aproximación del tiempo muestreado.

    Para procesos irreducibles con tasas de transición acotadas, se introdujo la uniformización como una forma de simplificar la estructura del proceso. La adición de autotransiciones no cambia el proceso en sí, sino que puede usarse para ajustar las tasas de transición\(\nu_i\) para que sean las mismas para todos los estados. Esto cambia la cadena incrustada de Markov, y las probabilidades de estado estacionario para la cadena incrustada se vuelven las mismas que las del proceso. Las épocas en las que ocurren las transiciones forman entonces un proceso de Poisson que es independiente del conjunto de estados ingresados. Esto produce una separación entre las épocas de transición y la secuencia de estados.

    En las dos secciones siguientes se analizaron los procesos de parto y muerte y la reversibilidad. Los resultados sobre las cadenas de Markov de parto y muerte y la reversibilidad de las cadenas de Markov se llevaron casi sin cambios a los procesos de Markov. Estos resultados son centrales en la teoría de colas, y el teorema de Burke nos permitió ver redes simples de colas sin retroalimentación y comprender cómo la retroalimentación complica el problema.

    A continuación se discutieron las redes Jackson. Estos son importantes por derecho propio y también proporcionan un buen ejemplo de cómo se pueden resolver problemas complejos de colas estudiando el proceso de tiempo inverso y haciendo conjeturas educadas sobre el comportamiento en estado estacionario. El resultado algo sorprendente aquí es que en estado estacionario, y en un tiempo fijo, el número de clientes en cada nodo es independiente del número en cada otro nodo y satisface la misma distribución que para una cola M/M/1. También las salidas exógenas de la red son Poisson e independientes de nodo a nodo. Enfatizamos que el número de clientes en un nodo a la vez suele depender del número en otros nodos en otros momentos. La independencia se mantiene solo cuando todos los nodos son vistos al mismo tiempo.

    Finalmente, se introdujeron los procesos Semi-Markov. La teoría de la renovación brindó nuevamente la clave para analizar estos sistemas. El teorema 6.8.1 mostró cómo encontrar las probabilidades de estado estacionario de estos procesos, y se demostró que estas probabilidades podrían interpretarse tanto como medias de tiempo como, en el caso de tiempos de transición no aritméticos, como probabilidades limitantes en el tiempo.

    Para mayor lectura sobre los procesos de Markov, véase [13], [16], [22] y [8].


    6.9: Resumen is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts.