Saltar al contenido principal
LibreTexts Español

2.10: Procesos estocásticos

  • Page ID
    152189
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\Z}{\mathbb{Z}}\)\(\newcommand{\bs}{\boldsymbol}\)\( \newcommand{\cov}{\text{cov}} \)\( \newcommand{\var}{\text{var}} \)\( \newcommand{\sd}{\text{sd}} \)

    Introducción

    Esta sección requiere teoría de medidas, por lo que es posible que deba revisar las secciones avanzadas en el capítulo sobre Fundaciones y en este capítulo. En particular, recordemos que un conjunto\( E \) casi siempre viene con un\( \sigma \) -álgebra\( \mathscr E \) de subconjuntos admisibles, por lo que ese\( (E, \mathscr E) \) es un espacio medible. Generalmente de hecho,\( E \) tiene una topología y\( \mathscr E \) es la correspondiente\( \sigma \) -álgebra de Borel, es decir, la\( \sigma \) -álgebra generada por la topología. Si\( E \) es contable, casi siempre tomamos\( \mathscr E \) como colección de todos los subconjuntos de\( E \), y en este caso\( (E, \mathscr E) \) es un espacio discreto. El otro caso común es cuando\( E \) es un subconjunto medible incontable de\( \R^n \) para algunos\( n \in \N \), en cuyo caso\( \mathscr E \) es la colección de subconjuntos medibles de\( E \). Si\( (E_1, \mathscr E_1), \, (E_2, \mathscr E_2), \ldots, (E_n, \mathscr E_n) \) son espacios medibles para algunos\( n \in \N_+ \), entonces al producto cartesiano\( E_1 \times E_2 \times \cdots \times E_n \) se le da el producto\( \sigma \) -álgebra\( \mathscr E_1 \otimes \mathscr E_2 \otimes \cdots \otimes \mathscr E_n \). Como caso especial, se le da al poder\( E^n \) cartesiano el poder correspondiente\( \sigma \) -álgebra\( \mathscr E^n \).

    Con estos comentarios preliminares fuera del camino, supongamos que\( (\Omega, \mathscr F, \P) \) es un espacio de probabilidad, de modo que ese\( \Omega \) es el conjunto de resultados,\( \mathscr F \) el\( \sigma \) álgebra de eventos, y\( \P \) es la medida de probabilidad en el espacio muestral\( (\Omega, \mathscr F) \). Supongamos también eso\( (S, \mathscr S) \) y\( (T, \mathscr T) \) son espacios medibles. Aquí está nuestra definición principal:

    Un proceso aleatorio o proceso estocástico\( (\Omega, \mathscr F, \P) \) con espacio de estado\( (S, \mathscr S) \) y conjunto de índices\( T \) es una colección de variables aleatorias\( \bs X = \{X_t: t \in T\} \) tales que\( X_t \) toma valores\( S \) para cada una\( t \in T \).

    A veces es notacionalmente conveniente escribir\( X(t) \) en lugar de\( X_t \) para\( t \in T \). A menudo\( T = \N \) o\( T = [0, \infty) \) y los elementos de\( T \) se interpretan como puntos en el tiempo (tiempo discreto en el primer caso y tiempo continuo en el segundo). Entonces\( X_t \in S \) es el estado del proceso aleatorio en el tiempo\( t \in T \), y el espacio índice\( (T, \mathscr T) \) se convierte en el espacio de tiempo.

    Ya que\( X_t \) es en sí misma una función desde\( \Omega \) dentro\( S \), se deduce que en última instancia, un proceso estocástico es una función desde\( \Omega \times T \) dentro\( S \). Dicho de otra manera,\( t \mapsto X_t \) es una función aleatoria en el espacio de probabilidad\( (\Omega, \mathscr F, \P) \). Para que esto sea preciso, recordemos que\( S^T \) es la notación que a veces se usa para la colección de funciones desde\( T \) dentro\( S \). Recordemos también que una\( \sigma \) -álgebra natural utilizada para\( S^T \) es la generada por conjuntos de la forma\[ \left\{f \in S^T: f(t) \in A_t \text{ for all } t \in T\right\}, \text{ where } A_t \in \mathscr S \text{ for every } t \in T \text{ and } A_t = S \text{ for all but finitely many } t \in T \] Esta\( \sigma \) -álgebra, denotada\( \mathscr S^T \), generaliza la potencia ordinaria\( \sigma \) -álgebra\( \mathscr S^n \) mencionada en el párrafo inicial y será importante en la discusión de existencia a continuación.

    Supongamos que\( \bs X = \{X_t: t \in T\} \) es un proceso estocástico en el espacio de probabilidad\( (\Omega, \mathscr F, \P) \) con espacio de estado\( (S, \mathscr S) \) y conjunto de índices\( T \). Entonces el mapeo que toma\( \omega \) en la función\( t \mapsto X_t(\omega) \) es medible con respecto a\( (\Omega, \mathscr F) \) y\( (S^T, \mathscr S^T) \).

    Prueba

    Recordemos que un mapeo con valores adentro\( S^T \) es medible si y solo si cada una de sus funciones de coordenadas es medible. En el presente contexto eso significa que debemos demostrar que la función\( X_t \) es medible con respecto a\( (\Omega, \mathscr F) \) y\( (S, \mathscr S) \) para cada uno\( t \in T \). Pero claro, eso se desprende del significado mismo del término variable aleatoria.

    Para\( \omega \in \Omega \), la función\( t \mapsto X_t(\omega) \) se conoce como ruta de muestra del proceso. Entonces\( S^T \), el conjunto de funciones desde\( T \) dentro\( S \), puede pensarse como un conjunto de resultados del proceso estocástico\( \bs X \), punto al que volveremos en nuestra discusión de la existencia a continuación.

    Como se señala en la prueba del último teorema,\( X_t \) es una función medible desde\( \Omega \) dentro\( S \) para cada uno\( t \in T \), por el significado mismo del término variable aleatoria. Pero no sigue en general que\( (\omega, t) \mapsto X_t(\omega) \) sea mensurable en función de\( \Omega \times T \) hacia dentro\( S \). De hecho, el\( \sigma \) -álgebra on no\( T \) ha jugado ningún papel en nuestra discusión hasta el momento. Informalmente, una declaración sobre\( X_t \) para un fijo\( t \in T \) o incluso una declaración sobre\( X_t \) para contablemente muchos\( t \in T \) define un evento. Pero no se deduce que una declaración sobre\( X_t \) para incontables muchos\( t \in T \) defina un evento. Muchas veces queremos hacer tales declaraciones, por lo que la siguiente definición es inevitable:

    Un proceso estocástico\( \bs X = \{X_t: t \in T\} \) definido en el espacio de probabilidad\( (\Omega, \mathscr F, \P) \) y con espacio índice\( (T, \mathscr T) \) y espacio de estado\( (S, \mathscr S) \) es medible si\( (\omega, t) \mapsto X_t(\omega) \) es una función medible desde\( \Omega \times T \) dentro\( S \).

    Todo proceso estocástico indexado por un conjunto contable\( T \) es medible, por lo que la definición solo es importante cuando\( T \) es incontable, y en particular para\( T = [0, \infty) \).

    Procesos Equivalentes

    Nuestro siguiente objetivo es estudiar diferentes formas en que dos procesos estocásticos, con los mismos espacios de estado e índice, puedan ser equivalentes. Supondremos que la diagonal\( D = \{(x, x): x \in S\} \in \mathscr S^2 \), una suposición que casi siempre se sostiene en las aplicaciones, y en particular para los espacios discretos y euclidianos que son más importantes para nosotros. Las condiciones suficientes son que\( \mathscr S \) tienen un sub\( \sigma \) álgebra que se genera de manera contable y contiene todos los conjuntos singleton, propiedades que se mantienen para el\( \sigma \) álgebra de Borel cuando la topología\( S \) es localmente compacta, Hausdorff, y tiene una base contable.

    Primero, a menudo sentimos que entendemos\( \bs X = \{X_t: t \in T\} \) bien un proceso aleatorio si conocemos las distribuciones dimensionales finitas, es decir, si conocemos la distribución de\( \left(X_{t_1}, X_{t_2}, \ldots, X_{t_n}\right) \) para cada elección de\( n \in \N_+ \) y\( (t_1, t_2, \ldots, t_n) \in T^n \). Así, podemos calcular\( \P\left[\left(X_{t_1}, X_{t_2}, \ldots, X_{t_n}\right) \in A\right] \) para cada\( n \in \N_+ \),\( (t_1, t_2, \ldots, t_n) \in T^n \), y\( A \in \mathscr S^n \). Usando varias reglas de probabilidad, podemos calcular las probabilidades de muchos eventos que involucran infinitamente muchos valores del parámetro índice\( t \) también. Con esta idea en mente, tenemos la siguiente definición:

    Los procesos aleatorios\( \bs X = \{X_t: t \in T\} \) y\( \bs{Y} = \{Y_t: t \in T\} \) con espacio de estado\( (S, \mathscr S) \) y conjunto de índices\( T \) son equivalentes en distribución si tienen las mismas distribuciones dimensionales finitas. Esto define una relación de equivalencia en la colección de procesos estocásticos con este espacio de estado y conjunto de índices. Es decir, si\( \bs X \),\( \bs Y \), y\( \bs Z \) son tales procesos entonces

    1. \( \bs X \)es equivalente en distribución a\( \bs X \) (la propiedad reflexiva)
    2. Si\( \bs X \) es equivalente en distribución a\( \bs{Y} \) entonces\( \bs{Y} \) es equivalente en distribución a\( \bs X \) (la propiedad simétrica)
    3. Si\( \bs X \) es equivalente en distribución a\( \bs{Y} \) y\( \bs{Y} \) es equivalente en distribución a\( \bs{Z} \) entonces\( \bs X \) es equivalente en distribución a\( \bs{Z} \) (la propiedad transitiva)

    Obsérvese que dado que solo las distribuciones finito-dimensionales de los procesos\( \bs X \) y\( \bs Y \) están involucradas en la definición, los procesos no necesitan definirse en el mismo espacio de probabilidad. Así, la equivalencia en la distribución divide la colección de todos los procesos aleatorios con un espacio de estado dado y un índice establecidos en clases de equivalencia mutuamente disjuntas. Pero claro, ya sabemos que dos variables aleatorias pueden tener la misma distribución pero ser muy diferentes como variables (funciones en el espacio muestral). Claramente, la misma afirmación se aplica a los procesos aleatorios.

    Supongamos que\( \bs X = (X_1, X_2, \ldots) \) es una secuencia de ensayos de Bernoulli con parámetro de éxito\( p = \frac{1}{2} \). Dejemos\( Y_n = 1 - X_n \) para\( n \in \N_+ \). Entonces\( \bs{Y} = (Y_1, Y_2, \ldots) \) es equivalente en distribución a\( \bs X \) pero\[ \P(X_n \ne Y_n \text{ for every } n \in \N_+) = 1 \]

    Prueba

    Por el significado de los ensayos de Bernoulli,\( \bs X \) es una secuencia de variables aleatorias indicadoras independientes con\( \P(X_n = 1) = \frac{1}{2} \) para cada una\( n \in \N_+ \). De ello se deduce que también\( \bs{Y} \) es una secuencia de ensayos de Bernoulli con parámetro de éxito\( \frac{1}{2} \), así\( \bs X \) y\( \bs{Y} \) son equivalentes en distribución. También, por supuesto, el conjunto de estados es\( \{0, 1\} \) y\( Y_n = 1 \) si y solo si\( X_n = 0 \).

    Motivados por este ejemplo, veamos otra forma más fuerte en la que los procesos aleatorios pueden ser equivalentes. Primero recordemos que las variables aleatorias\( X \) y\( Y \) on\( (\Omega, \mathscr F, \P) \), con valores en\( S \), son equivalentes si\( \P(X = Y) = 1 \).

    Supongamos que\( \bs X = \{X_t: t \in T\} \) y\( \bs{Y} = \{Y_t: t \in T\} \) son procesos estocásticos definidos en un mismo espacio de probabilidad\( (\Omega, \mathscr F, \P) \) y ambos con espacio de estado\( (S, \mathscr S) \) y conjunto de índices\( T \). Entonces\( \bs{Y} \) es una versiones de\( \bs X \) si\( Y_t \) es equivalente a\( X_t \) (así que eso\( \P(X_t = Y_t) = 1 \)) para cada\( t \in T \). Esto define una relación de equivalencia sobre la colección de procesos estocásticos en el mismo espacio de probabilidad y con el mismo espacio de estado y conjunto de índices. Es decir, si\( \bs X \),\( \bs Y \), y\( \bs Z \) son tales procesos entonces

    1. \( \bs X \)es una versión de\( \bs X \) (la propiedad reflexiva)
    2. Si\( \bs X \) es una versión de\( \bs{Y} \) entonces\( \bs{Y} \) es ia versión de\( \bs X \) (la propiedad simétrica)
    3. Si\( \bs X \) es una versión de\( \bs{Y} \) y\( \bs{Y} \) es de\( \bs{Z} \) entonces\( \bs X \) es una versión de\( \bs{Z} \) (la propiedad transitiva)
    Prueba

    Tenga en cuenta que\( (X_t, Y_t) \) es una variable aleatoria con valores en\( S^2 \) (y así la función\( \omega \mapsto (X_t(\omega), Y_t(\omega)) \) es medible). El evento\( \{X_t = Y_t\} \) es la imagen inversa de la diagonal\( D \in \mathscr S^2 \) bajo este mapeo, y así la definición tiene sentido.

    Entonces, la versión de relación divide la colección de procesos estocásticos en un espacio de probabilidad dado y con un espacio de estado dado y un índice establecidos en clases de equivalencia mutuamente disjuntas.

    Supongamos de nuevo eso\( \bs X = \{X_t: t \in T\} \) y\( \bs{Y} = \{Y_t: t \in T\} \) son procesos aleatorios\( (\Omega, \mathscr F, \P) \) encendidos con espacio de estado\( (S, \mathscr S) \) y conjunto de índices\( T \). Si\( \bs{Y} \) es una versión de\( \bs X \) entonces\( \bs{Y} \) y\( \bs X \) son equivalentes en distribución.

    Prueba

    Supongamos eso\( (t_1, t_2, \ldots, t_n) \in T^n \) y aquello\( A \in \mathscr S^n \). Recordemos que la intersección de una colección finita (o incluso contablemente infinita) de eventos con probabilidad 1 todavía tiene probabilidad 1. De ahí\ begin {align}\ P\ left [\ left (X_ {t_1}, X_ {t_2},\ ldots, X_ {t_n}\ right)\ in A\ right] & =\ P\ left [\ left (X_ {t_1}, X_ {t_2},\ ldots, X_ {t_n}\ right)\ in A,\, X_ {t__1} = Y_ {t_1}, X_ {t_2} = Y_ {t_2},\ ldots, X_ {t_n} = Y_ {t_n}\ derecha]\\ & =\ P\ izquierda [\ izquierda (Y_ {t_1}, Y_ {t_2},\ ldots, Y_ {t_n}\ derecha)\ en A,\, X_ {t_ 1} = Y_ {t_1}, X_ {t_2} = Y_ {t_2},\ ldots, X_ {t_n} = Y_ {t_n}\ derecha] =\ P\ izquierda [\ izquierda (Y_ {t_1}, Y_ {t_2},\ ldots, Y_ {t_n}\ derecha)\ en A\ derecha]\ end {align}

    Como se señala en la prueba, una intersección contable de eventos con probabilidad 1 todavía tiene probabilidad 1. De ahí\( T \) que si es contable y los procesos aleatorios\( \bs X \) es una versión de\( \bs{Y} \) entonces\[ \P(X_t = Y_t \text{ for all } t \in T) = 1 \] así\( \bs X \) y\( \bs{Y} \) realmente son esencialmente el mismo proceso aleatorio. Pero cuando\( T \) es incontable el resultado en la ecuación mostrada puede no ser verdadero,\( \bs X \) y\( \bs{Y} \) puede ser muy diferente como funciones aleatorias en\( T \). Aquí hay un ejemplo simple:

    Supongamos que\( \Omega = T = [0, \infty) \),\( \mathscr F = \mathscr T \) es el\( \sigma \) -álgebra de Borel subconjuntos medibles de\( [0, \infty) \), y\( \P \) es cualquier medida de probabilidad continua en\( (\Omega, \mathscr F) \). Let\( S = \{0, 1\} \) (con todos los subconjuntos medibles, por supuesto). Para\( t \in T \) y\( \omega \in \Omega \), definir\( X_t(\omega) = \bs{1}_t(\omega) \) y\( Y_t(\omega) = 0 \). Entonces\( \bs X = \{X_t: t \in T\} \) es una versión de\( \bs{Y} = \{Y_t: t \in T\} \), pero\( \P(X_t = Y_t \text{ for all } t \in T\} = 0 \).

    Prueba

    Porque\( t \in [0, \infty) \),\( \P(X_t \ne Y_t) = \P\{t\} = 0 \) ya que\( P \) es una medida continua. Pero\( \{\omega \in \Omega: X_t(\omega) = Y_t(\omega) \text{ for all } t \in T\} = \emptyset \).

    Motivados por este ejemplo, tenemos nuestra forma más fuerte de equivalencia:

    Supongamos que\( \bs X = \{X_t: t \in T\} \) y\( \bs{Y} = \{Y_t: t \in T\} \) son procesos aleatorios medibles en el espacio de probabilidad\( (\Omega, \mathscr F, \P) \) y con espacio de estado\( (S, \mathscr S) \) y espacio de índice\( (T, \mathscr T) \). Entonces\( \bs X \) es indistinguible de\( \bs{Y} \) si\( \P(X_t = Y_t \text{ for all } t \in T) = 1 \). Esto define una relación de equivalencia en la colección de procesos estocásticos medibles definidos en el mismo espacio de probabilidad y con los mismos espacios de estado e índice. Es decir, si\( \bs X \),\( \bs Y \), y\( \bs Z \) son tales procesos entonces

    1. \( \bs X \)es indistinguible de\( \bs X \) (la propiedad reflexiva)
    2. Si\( \bs X \) es indistinguible de\( \bs{Y} \) entonces\( \bs{Y} \) es indistinguible de\( \bs X \) (la propiedad simétrica)
    3. Si\( \bs X \) es indistinguible de\( \bs{Y} \) y\( \bs{Y} \) es indistinguible de\( \bs{Z} \) entonces\( \bs X \) es indistinguible de\( \bs{Z} \) (la propiedad transitiva)
    Detalles

    El requisito de medibilidad para los procesos estocásticos es necesario para asegurar que\( \{X_t = Y_t \text{ for all } t \in T\} \) sea un evento válido. Para ver esto, tenga en cuenta que\( (\omega, t) \mapsto (X_t(\omega), Y_t(\omega)) \) es mensurable, como una función desde\( \Omega \times T \) dentro\( S^2 \). Como antes, vamos a\( D = \{(x, x): x \in S\} \) denotar la diagonal. Entonces\( D^c \in \mathscr S^2 \) y la imagen inversa de\( D^c \) debajo de nuestro mapeo es\[\{(\omega, t) \in \Omega \times T: X_t(\omega) \ne Y_t(\omega)\} \in \mathscr F \otimes \mathscr T\] La proyección de este conjunto sobre\( \Omega \)\[ \{\omega \in \Omega: X_t(\omega) \ne Y_t(\omega) \text{ for some } t \in T\} \in \mathscr F \] ya que la proyección de un conjunto medible en el espacio del producto también es medible. De ahí el evento complementario\[ \{\omega \in \Omega: X_t(\omega) = Y_t(\omega) \text{ for all } t \in T\} \in \mathscr F \]

    Entonces, lo indistinguible de relación divide la colección de procesos estocásticos medibles en un espacio de probabilidad dado y con un espacio de estado dado y un espacio de índice en clases de equivalencia mutuamente disjuntas. Trivialmente, si\( \bs X \) es indistinguible de\( \bs{Y} \), entonces\( \bs X \) es una versión de\( \bs{Y} \). Como se señaló anteriormente, cuando\( T \) es contable, lo contrario también es cierto, pero no, como muestra nuestro ejemplo anterior, cuándo\( T \) es incontable. Entonces, para resumir, indistinguible de implica versión de implica equivalente en distribución, pero ninguna de las implicaciones inversas tiene en general.

    La construcción de Kolmogorov

    En aplicaciones, un proceso estocástico a menudo se modela dando diversas propiedades de distribución que el proceso debe satisfacer. Entonces el problema básico de la existencia es construir un proceso que tenga estas propiedades. Más específicamente, ¿cómo podemos construir procesos aleatorios con distribuciones dimensionales finitas especificadas? Empecemos por el caso más simple, uno que hemos visto varias veces antes, y construyamos a partir de ahí. Nuestro caso más simple es construir una sola variable aleatoria con una distribución especificada.

    Supongamos que\( (S, \mathscr S, P) \) es un espacio de probabilidad. Entonces existe una variable aleatoria\( X \) en el espacio de probabilidad\( (\Omega, \mathscr F, \P) \) tal que\( X \) toma valores\( S \) y tiene distribución\( P \).

    Prueba

    La prueba es totalmente trivial. Dejar\( (\Omega, \mathscr F, \P) = (S, \mathscr S, P) \) y definir\( X: \Omega \to S \) por\( X(\omega) = \omega \), así que esa\( X \) es la función de identidad. Entonces\( \{X \in A\} = A \) y así\( \P(X \in A) = P(A) \) para\( A \in \mathscr S \).

    A pesar de su trivialidad el último resultado contiene las semillas de todo lo demás que haremos en esta discusión. A continuación, veamos cómo construir una secuencia de variables aleatorias independientes con distribuciones especificadas.

    Supongamos que\( P_i \) es una medida de probabilidad en el espacio medible\( (S, \mathscr S) \) para\( i \in \N_+ \). Entonces existe una secuencia independiente de variables aleatorias\( (X_1, X_2, \ldots) \) en un espacio de probabilidad\( (\Omega, \mathscr F, \P) \) tal que\( X_i \) toma valores\(S\) y tiene distribución\( P_i \) para\( i \in \N_+ \).

    Prueba

    Vamos\( \Omega = S^\infty = S \times S \times \cdots \). A continuación vamos\( \mathscr F = \mathscr S^\infty \), el producto correspondiente\( \sigma \) -álgebra. Recordemos que esta es la\( \sigma \) -álgebra generada por conjuntos de la forma\[ A_1 \times A_2 \times \cdots \text{ where } A_i \in \mathscr S \text{ for each } i \in I \text{ and } A_i = S \text{ for all but finitely many } i \in I \] Finalmente, vamos\( \P = P_1 \otimes P_2 \otimes \cdots \), el producto correspondiente mida en\( (\Omega, \mathscr F) \). Recordemos que esta es la medida de probabilidad única que satisface\[ \P(A_1 \times A_2 \times \cdots) = P_1(A_1) P_2(A_2) \cdots \] donde\( A_1 \times A_2 \times \cdots \) es un conjunto del tipo en la primera ecuación mostrada. Ahora define\( X_i \) on\( \Omega \) by\( X_i(\omega_1, \omega_2, \ldots) = \omega_i\), for\( i \in \N_+ \), así que esa\( X_i \) es simplemente la función de coordenadas para index\( i \). Si\( A_1 \times A_2 \times \cdots \) es un conjunto del tipo en la primera ecuación mostrada entonces\[ \{X_1 \in A_1, X_2 \in A_2, \ldots\} = A_1 \times A_2 \times \cdots \] y así por la definición de la medida del producto,\[ \P(X_1 \in A_1, X_2 \in A_2, \cdots) = P_1(A_1) P_2(A_2) \cdots \] Se deduce que\( (X_1, X_2, \ldots) \) es una secuencia de variables independientes y que\( X_i \) tiene distribución\( P_i \) para\( i \in \N \).

    Si miraste la prueba de los dos últimos resultados podrías notar que el último resultado puede verse como un caso especial del anterior, ya que\( \bs X = (X_1, X_2, \ldots) \) es simplemente la función de identidad en\( \Omega = S^\infty \). El paso importante es la existencia de la medida del producto\( \P \) en\( (\Omega, \mathscr F) \).

    La generalización completa de estos resultados se conoce como el teorema de la existencia de Kolmogorov (llamado así por Andrei Kolmogorov). Comenzamos con el espacio estatal\( (S, \mathscr S) \) y el conjunto de índices\( T \). El teorema establece que si especificamos las distribuciones dimensionales finitas de manera consistente, entonces existe un proceso estocástico definido en un espacio de probabilidad adecuado que tiene las distribuciones dimensionales finitas dadas. La condición de consistencia es un poco torpe de afirmar en plena generalidad, pero la idea básica es muy fácil de entender. Supongamos que\( s \) y\( t \) son elementos distintos en\( T \) y que especificamos la distribución (medida\( P_s \) de probabilidad)\( P_t \) de\( X_s \)\( X_t \),\( P_{s,t} \) de\( (X_s, X_t) \), de y\( P_{t,s} \) de\( (X_t, X_s) \). Entonces claramente debemos precisar estos para que\[ P_s(A) = P_{s,t}(A \times S), \quad P_t(B) = P_{s,t}(S \times B) \] Para todos\( A, \, B \in \mathscr S \). Claramente también debemos tener\( P_{s,t}(C) = P_{t,s}(C^\prime) \) para todos mensurables\( C \in \mathscr S^2 \), donde\( C^\prime = \{(y, x): (x, y) \in C\} \).

    Para exponer las condiciones de consistencia en general, necesitamos alguna notación. Para\( n \in \N_+ \), vamos\( T^{(n)} \subset T^n\) denotar el conjunto de\( n \) -tuplas de elementos distintos de\( T \), y dejar\( \bs{T} = \bigcup_{n=1}^\infty T^{(n)} \) denotar el conjunto de todas las secuencias finitas de distintos elementos de\( T \). Si\( n \in \N_+ \),\( \bs t = (t_1, t_2, \ldots, t_n) \in T^{(n)} \) y\( \pi \) es una permutación de\( \{1, 2, \ldots, n\} \), vamos a\( \bs t \pi \) denotar el elemento de\( T^{(n)} \) con coordenadas\( (\bs t \pi)_i = t_{\pi(i)} \). Es decir, permutamos las coordenadas de\( \bs t \) según\( \pi \). Si\( C \in \mathscr S^n \), vamos\[ \pi C = \left\{(x_1, x_2, \ldots, x_n) \in S^n: \left(x_{\pi(1)}, x_{\pi(2)}, \ldots, x_{\pi(n)}\right) \in C\right\} \in \mathscr S^n \] finalmente, si\( n \gt 1 \), vamos a\( \bs t_- \) denotar el vector\( (t_1, t_2, \ldots, t_{n-1}) \in T^{(n-1)} \)

    Ahora supongamos que\( P_\bs t \) es una medida de probabilidad en\( (S^n, \mathscr S^n) \) para cada\( n \in \N_+ \) y\( \bs t \in T^{(n)} \). La idea, por supuesto, es que queremos que la colección\( \mathscr P = \{P_\bs t: \bs t \in \bs{T}\} \) sea las distribuciones dimensionales finitas de un proceso aleatorio con conjunto de índices\( T \) y espacio de estados\( (S, \mathscr S) \). Aquí está la definición crítica:

    La colección de distribuciones de probabilidad\( \mathscr P \) relativas a\( T \) y\( (S, \mathscr S) \) es consistente si

    1. \( P_{\bs t \pi}(C) = P_\bs t(\pi C) \)para cada\( n \in \N_+ \),\( \bs t \in T^{(n)} \), permutación\( \pi \) de\( \{1, 2, \ldots, n\} \), y medible\( C \subseteq S^n \).
    2. \( P_{\bs t_-}(C) = P_\bs t(C \times S) \)para cada\( n > 1 \)\( \bs t \in T^{(n)} \), y mensurable\( C \subseteq S^{n-1} \)

    Con la adecuada definición de consistencia, podemos exponer el teorema fundamental.

    Teorema de la Existencia de Kolmogorov. Si\( \mathscr P \) es una colección consistente de distribuciones de probabilidad relativas al conjunto de índices\( T \) y al espacio de estado\( (S, \mathscr S) \), entonces existe un espacio de probabilidad\( (\Omega, \mathscr F, \P) \) y un proceso estocástico\( \bs X = \{X_t: t \in T\} \) en este espacio de probabilidad tal que\( \mathscr P \) es la colección de finitos distribución dimensional de\( \bs X \).

    Bosquejo de prueba

    Vamos\( \Omega = S^T \), el conjunto de funciones de\( T \) a\( S \). Tales funciones son los resultados del proceso estocástico. Dejar\( \mathscr F = \mathscr S^T \), el producto\( \sigma \) -álgebra, generado por conjuntos de la forma\[ B = \{\omega \in \Omega: \omega(t) \in A_t \text{ for all } t \in T\} \] donde\( A_t \in \mathscr S \) para todos\( t \in T \) y\( A_t = S \) para todos pero finitamente muchos\( t \in T \). Sabemos cómo nuestra medida de probabilidad deseada\( \P \) debe funcionar en los conjuntos que generan\( \mathscr F \). Específicamente, supongamos que\( B \) es un conjunto del tipo en la ecuación mostrada, y a\( A_t = S \) excepción de\( \bs t = (t_1, t_2, \ldots, t_n) \in T^{(n)} \). Entonces queremos Teoremas\[ \P(B) = P_\bs t(A_{t_1} \times A_{t_2} \times \cdots \times A_{t_n}) \] básicos de existencia y unicidad en la teoría de medidas que discutimos anteriormente, y la consistencia de\( \mathscr P \), garantizar que se\( \P \) pueda extender a una medida de probabilidad en todos\( \mathscr F \). Por último, para\( t \in T \) definimos\( X_t: \Omega \to S \) por\( X_t(\omega) = \omega(t) \) for\( \omega \in \Omega \), así que esa\( X_t \) es simplemente la función de coordenadas del índice\( t \). Así, tenemos un proceso estocástico\( \bs X = \{X_t: t \in T\} \) con espacio de estado\( (S, \mathscr S) \), definido en el espacio de probabilidad\( (\Omega, \mathscr F, \P) \), con\( \mathscr P \) como colección de distribuciones dimensionales finitas.

    Tenga en cuenta que a excepción de la notación más complicada, la construcción es muy similar a la de una secuencia de variables independientes. Una vez más,\( \bs X \) es esencialmente la función de identidad en\( \Omega = S^T \). La parte importante y más difícil es la construcción de la medida de probabilidad\( \P \) en\( (\Omega, \mathscr F) \).

    Aplicaciones

    Nuestra última discusión es un resumen de los procesos estocásticos que se estudian en este texto. Todos son clásicos y son inmensamente importantes en las aplicaciones.

    Los procesos aleatorios están asociados con los ensayos de Bernoulli incluyen

    1. la secuencia de los ensayos de Bernoulli
    2. la secuencia de variables binomiales
    3. la secuencia de variables geométricas
    4. la secuencia de variables binomiales negativas
    5. el simple paseo aleatorio
    Construcción

    La secuencia de ensayos de Bernoulli en (a) es una secuencia de variables aleatorias indicadoras independientes, distribuidas idénticamente, y así se puede construir como en (). Los procesos aleatorios en (b) — (e) se construyen a partir de la secuencia de ensayos de Bernoulli.

    Los procesos aleatorios asociados con el modelo de Poisson incluyen

    1. la secuencia de tiempos entre llegadas
    2. la secuencia de los tiempos de llegada
    3. el proceso de conteo\( [0, \infty) \), tanto en los casos homogéneos como no homogéneos.
    4. Un proceso compuesto de Poisson.
    5. el proceso de conteo en un espacio de medida general
    Construcciones

    El proceso aleatorio en (a) es una secuencia de variable aleatoria independiente con una distribución exponencial común, y así se puede construir como in (). Los procesos en (b) y (c) se pueden construir a partir de la secuencia en (a).

    Los procesos aleatorios asociados con la teoría de la renovación incluyen

    1. la secuencia de tiempos entre llegadas
    2. la secuencia de los tiempos de llegada
    3. el proceso de conteo\( [0, \infty) \)

    Las cadenas de Markov forman una familia muy importante de procesos aleatorios al igual que el movimiento browniano y procesos relacionados. Los estudiaremos en capítulos posteriores.


    This page titled 2.10: Procesos estocásticos is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.