Saltar al contenido principal
LibreTexts Español

18.3: El Puente Browniano

  • Page ID
    151869
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\P}{\mathbb{P}} \)\( \newcommand{\E}{\mathbb{E}} \)\( \newcommand{\R}{\mathbb{R}} \)\( \newcommand{\N}{\mathbb{N}} \)\( \newcommand{\Z}{\mathbb{Z}} \)\( \newcommand{\bs}{\boldsymbol} \)\( \newcommand{\cov}{\text{cov}} \)\( \newcommand{\cor}{\text{cor}} \)\( \newcommand{\var}{\text{var}} \)\( \newcommand{\sd}{\text{sd}} \)

    Teoría Básica

    Definición y Construcciones

    En la formulación más común, el proceso de puente browniano se obtiene tomando un proceso de movimiento browniano estándar\( \bs{X} \), restringido al intervalo\( [0, 1] \), y condicionando al evento que\( X_1 = 0 \). Ya que\( X_0 = 0 \) también, el proceso está atado en ambos extremos, y así el proceso intermedio forma un puente (aunque muy dentado). El puente browniano resulta ser un interesante proceso estocástico con aplicaciones sorprendentes, incluyendo una aplicación muy importante a la estadística. En términos de una definición, sin embargo, daremos una lista de propiedades caracterizantes como lo hicimos para el movimiento browniano estándar y para el movimiento browniano con deriva y escalado.

    Un puente browniano es un proceso estocástico\( \bs{X} = \{X_t: t \in [0, 1]\} \) con espacio de estado\( \R \) que satisface las siguientes propiedades:

    1. \( X_0 = 0 \)y\( X_1 = 0 \) (cada uno con probabilidad 1).
    2. \( \bs{X} \)es un proceso gaussiano.
    3. \( \E(X_t) = 0 \)para\( t \in [0, 1] \).
    4. \( \cov(X_s, X_t) = \min\{s, t\} - s t \)para\( s, \, t \in [0, 1] \).
    5. Con probabilidad 1,\( t \mapsto X_t \) es continuo encendido\( [0, 1] \).

    Entonces, en definitiva, un puente browniano\( \bs{X} \) es un proceso gaussiano continuo con\( X_0 = X_1 = 0 \), y con funciones de media y covarianza dadas en (c) y (d), respectivamente. Naturalmente, la primera pregunta es si existe tal proceso. La respuesta es sí, claro, de lo contrario ¿por qué estaríamos aquí? Pero, de hecho, veremos varias formas de construir un puente browniano a partir de un movimiento browniano estándar. Para ayudar con las pruebas, recuerde que un proceso de movimiento browniano estándar\( \bs{Z} = \{Z_t: t \in [0, \infty)\} \) es un proceso gaussiano continuo con\( Z_0 = 0 \),\( \E(Z_t) = 0 \) para\( t \in [0, \infty) \) y\( \cov(Z_s, Z_t) = \min\{s, t\} \) para\( s, \, t \in [0, \infty) \). Aquí está nuestra primera construcción:

    Supongamos que\(\bs{Z} = \{Z_t: t \in [0, \infty)\} \) es un movimiento browniano estándar, y vamos\( X_t = Z_t - t Z_1 \) por\( t \in [0, 1] \). Entonces\( \bs{X} = \{X_t: t \in [0, 1]\} \) es un puente browniano.

    Prueba
    1. Tenga en cuenta que\( X_0 = Z_0 = 0 \) y\( X_1 = Z_1 - Z_1 = 0 \).
    2. Las combinaciones lineales de las variables en combinaciones de\( \bs{X} \) reducir a lineales de las variables en\( \bs{Z} \) y por lo tanto tienen distribuciones normales. Así\( \bs{X} \) es un proceso gaussiano.
    3. \( E(X_t) = \E(Z_t) - t \E(Z_1) = 0 \)para\( t \in [0, 1] \)
    4. \( \cov(X_s, X_t) = \cov(Z_s - s Z_1, Z_t - t Z_1) = \cov(Z_s, Z_t) - t \, \cov(Z_s, Z_1) - s \, \cov(Z_1, Z_t) + s t \, \cov(Z_1, Z_1) = \min\{s, t\} - s t - s t + s t \)para\( s, \, t \in [0, 1] \).
    5. \( t \mapsto X_t \)es continuo\( [0, 1] \) puesto que\( t \mapsto Z_t \) es continuo encendido\( [0, 1] \).

    Veamos el puente browniano en acción.

    Ejecute varias veces la simulación del proceso de puente browniano en modo de un solo paso.

    Para el puente browniano\( \bs{X} \), tenga en cuenta en particular que normalmente\( X_t \) se distribuye con media 0 y varianza\( t (1 - t) \) para\( t \in [0, 1] \). Así, la varianza aumenta y luego disminuye al\( [0, 1] \) alcanzar un máximo de\( 1/4 \) at\( t = 1/2 \). Por supuesto, la varianza es 0 a\( t = 0 \) y\( t = 1 \), ya que\( X_0 = X_1 = 0 \) determinísticamente.

    Abrir la simulación del proceso del puente browniano. Varíe\( t \) y anote el cambio en la función de densidad de probabilidad y momentos. Para diversos valores de\( t \), ejecute la simulación 1000 veces y compare la función de densidad empírica y los momentos con la función y momentos de densidad verdadera.

    A la inversa de la construcción anterior, podemos construir un movimiento browniano estándar en el intervalo\( [0, 1] \) de tiempo desde un puente browniano.

    Supongamos que\( \bs{X} = \{X_t: t \in [0, 1]\} \) es un puente browniano, y supongamos que\( Z \) es una variable aleatoria con una distribución normal estándar, independiente de\( \bs{X} \). Dejemos\( Z_t = X_t + t Z \) para\( t \in [0, 1] \). Entonces\( \bs{Z} = \{Z_t: t \in [0, 1]\} \) es un movimiento browniano estándar encendido\( [0, 1] \).

    Prueba
    1. Tenga en cuenta que\( Z_0 = X_0 = 0 \).
    2. Las combinaciones lineales de las variables en combinaciones de\( \bs{Z} \) reducir a lineales de las variables en\( \bs{X} \) y por lo tanto tienen distribuciones normales. Así\( \bs{Z} \) es un proceso gaussiano.
    3. \( \E(Z_t) = \E(X_t) + t \E(Z) = 0 \)para\( t \in [0, 1] \).
    4. \( \cov(Z_s, Z_t) = \cov(X_s + s Z, X_t + t Z) = \cov(X_s, X_t) + t \, \cov(X_s, Z) + s \, \cov(X_t, Z) + s t \, \var(Z) = \min\{s, t\} - s t + 0 + 0 + s t = \min\{s, t\} \)para\( s, \, t \in [0, 1] \).
    5. \( t \mapsto Z_t \)es continuo\( [0, 1] \) puesto que\( t \mapsto X_t \) es continuo encendido\( [0, 1] \).

    Aquí hay otra manera de construir un puente browniano a partir de un movimiento browniano estándar.

    Supongamos que\( \bs{Z} = \{Z_t: t \in [0, \infty)\} \) es un movimiento browniano estándar. Definir\( X_1 = 0 \) y\[ X_t = (1 - t) Z\left(\frac{t}{1 - t}\right), \quad t \in [0, 1) \] Entonces\( \bs{X} = \{X_t: t \in [0, 1]\} \) es un puente browniano.

    Prueba
    1. Tenga en cuenta que\( X_0 = Z_0 = 0 \) y por definición,\( X_1 = 0 \).
    2. Combinaciones lineales de variables en combinaciones de variables de\( \bs{X} \) reducción a lineal en\( \bs{Z} \) y por lo tanto tienen distribuciones normales. Así\( \bs{X} \) es un proceso gaussiano.
    3. Para\( t \in [0, 1] \),\[ \E(X_t) = (1 - t) \E\left[Z\left(\frac{t}{1 - t}\right)\right] = 0 \]
    4. Si\( s, \, t \in [0, 1) \) con\( s \lt t \) entonces\( s \big/ (1 - s) \lt t \big/ (1 - t) \) así\[ \cov(X_s, X_t) = \cov\left[(1 - s) Z\left(\frac{s}{1 - s}\right), (1 - t) Z\left(\frac{t}{1 - t}\right)\right] = (1 - s)(1 - t) \frac{s}{1 - s} = s (1 - t) \]
    5. Finalmente,\( t \mapsto X_t \) es continuo con probabilidad 1 encendido\( [0, 1) \), y con probabilidad 1,\( X_t = (1 - t) Z\left[t \big/ (1 - t)\right] \to 0 \) como\( t \uparrow 1 \).

    Por el contrario, podemos construir un movimiento browniano estándar a partir de un puente browniano.

    Supongamos que\( \bs{X} = \{X_t: t \in [0, 1]\} \) es un puente browniano. Define\[ Z_t = (1 + t) X\left(\frac{t}{1 + t}\right), \quad t \in [0, \infty) \] Then\( \bs{Z} = \{Z_t: t \in [0, \infty)\} \) es un proceso de movimiento browniano estándar.

    Prueba
    1. Tenga en cuenta que\( Z_0 = X_0 = 0 \)
    2. Combinaciones lineales de las variables en combinaciones de\( \bs{Z} \) reducir a lineales de las variables en\( X \), y por lo tanto tienen distribuciones normales. Así\( \bs{Z} \) es un proceso gaussiano.
    3. Para\( t \in [0, \infty) \),\[ \E(Z_t) = (1 + t) \E\left[X\left(\frac{t}{1 + t}\right)\right] = 0 \]
    4. Si\( s, \, t \in [0, 1] \) con\( s \lt t \) Entonces\( s \big/ (1 + s) \lt t \big/ (1 + t) \) así\[ \cov(Z_s, Z_t) = \cov\left[(1 + s) X\left(\frac{s}{1 + s}\right), (1 + t) X\left(\frac{t}{1 + t}\right)\right] = (1 + s)(1 + t) \left[\frac{s}{1 + s} - \frac{s}{1 + s}\frac{t}{1 + t}\right] = s \]
    5. Dado que\( t \mapsto X_t \) es continuo,\( t \mapsto Z_t \) es continuo

    Volvemos a los comentarios al inicio de esta sección, sobre condicionar un movimiento browniano estándar para que sea 0 en el tiempo 1. A diferencia de las dos construcciones anteriores, tenga en cuenta que no estamos transformando las variables aleatorias, sino que estamos cambiando la medida de probabilidad subyacente.

    Supongamos que\( \bs{X} = \{X_t: t \in [0, \infty)\} \) es un movimiento browniano estándar. Entonces condicionado\( X_1 = 0 \), el proceso\( \{X_t: t \in [0, 1]\} \) es un proceso de puente browniano.

    Prueba

    Parte del argumento se basa en propiedades de la distribución normal multivariada. El proceso condicionado sigue siendo continuo y sigue siendo un proceso gaussiano. En particular, supongamos que\( s, \, t \in [0, 1] \) con\( s \lt t \). Entonces\( (X_t, X_1) \) tiene una distribución normal conjunta con parámetros especificados por las funciones media y covarianza de\( \bs{X} \). Por cálculos estándar, la distribución condicional de\( X_t \) dado\( X_1 = 0 \) es normal con media 0 y varianza\( t (1 - t) \). De igual manera, la distribución conjunta de\( (X_s, X_t, X_1) \) es normal con parámetros especificados por las funciones media y covarianza de\( \bs{X} \). Nuevamente, por cálculos estándar, la distribución condicional de\( (X_s, X_t) \) dado\( X_1 = 0 \) es bivariada normal con 0 medias y con\( \cov(X_s, X_t \mid X_1 = 0) = s (1 - t) \).

    Por último, el puente browniano puede definirse en términos de una integral estocástica

    Supongamos\( \bs{Z} = \{Z_t: t \in [0, \infty)\} \) que son movimientos brownianos estándar. Definir\( X_1 = 1 \) y\[ X_t = (1 - t) \int_0^t \frac{1}{1 - s} \, dZ_s, \quad t \in [0, 1) \] Entonces\( \bs{X} = \{X_t: t \in [0, 1]\} \) es un proceso de puente browniano.

    Prueba
    1. Tenga en cuenta que\( X_0 = 0 \) y por definición,\( X_1 = 0 \).
    2. Dado que el integrando en la integral estocástica es determinista,\( \bs{X} \) es un proceso gaussiano.
    3. \( \bs{X} \)es continuo\( [0, 1) \) con probabilidad 1, como propiedad básica de las integrales estocásticas. Además,\( X_t \to 0 \)\( t \uparrow 1 \) como consecuencia de la desigualdad martingala.
    4. \( \E(X_t) = 0 \)ya que la integral estocástica tiene media 0.
    5. Supongamos que\( s, \, t \in [0, 1] \) con\( s \le t \). Entonces\[ \cov(X_s, X_t) = \cov\left[(1 - s) \int_0^s \frac{1}{1 - u} \, dZ_u, (1 - t)\left(\int_0^s \frac{1}{1 - u} \, dZ_u + \int_s^t \frac{1}{1 - u} \, dZ_u\right)\right] \] Pero\( \int_0^s \frac{1}{1 - u} \, dZ_u \) y\( \int_s^t \frac{1}{1 - u} \, dZ_u \) son independientes,\[ \cov(X_s, X_t) = (1 - s)(1 - t) \var\left(\int_0^s \frac{1}{1 - u} \, dZ_u\right) \] Pero luego por la isometría de Ito,\[ \cov(X_s, X_t) = (1 - s)(1 - t) \int_0^s \frac{1}{(1 - u)^2} \, du = (1 - s)(1 - t) \left(\frac{1}{1 - s} - 1\right) = (1 - t)s \]

    En forma diferencial, el proceso anterior puede escribirse como\[ d X_t = \frac{X_t}{1 - t} \, dt + dZ_t, \; X_0 = 0 \]

    El puente general browniano

    Los procesos construidos arriba (¡de varias maneras!) es el puente browniano estándar. es una cuestión sencilla generalizar el proceso para que comience en\( a \) y termine en\( b \), por arbitrario\( a, \, b \in \R \).

    Supongamos que\( \bs{Z} = \{Z_t: t \in [0, 1]\} \) es un proceso de puente browniano estándar. Dejar\( a, \, b \in \R \) y definir\( X_t = (1 - t) a + t b + Z_t\) para\( t \in [0, 1] \). Entonces\( \bs{X} = \{X_t: t \in [0, 1]\} \) es un proceso de puente browniano de\( a \) a\( b \).

    Por supuesto, cualquiera de las construcciones anteriores para el puente browniano estándar se puede modificar para producir un puente browniano general. Aquí están las propiedades caracterizantes.

    El proceso de puente browniano\( \bs{X} = \{X_t: t \in [0, 1]\} \) de\( a \) a\( b \) se caracteriza por las siguientes propiedades:

    1. \( X_0 = a \)y\( X_1 = b \) (cada uno con probabilidad 1).
    2. \( \bs{X} \)es un proceso gaussiano.
    3. \( \E(X_t) = (1 - t) a + t b \)para\( t \in [0, 1] \).
    4. \( \cov(X_s, X_t) = \min\{s, t\} - s t \)para\( s, \, t \in [0, 1] \).
    5. Con probabilidad 1,\( t \mapsto X_t \) es continuo encendido\( [0, 1] \).

    Aplicaciones

    La función de distribución empírica

    Comenzamos con un problema que es uno de los más básicos en estadística. Supongamos que\( T \) es una variable aleatoria de valor real con una distribución desconocida. Dejar\( F \) denotar la función de distribución de\( T \), de modo que\( F(t) = \P(T \le t) \) para\( t \in \R \). Nuestro objetivo es construir un estimador de\( F \), por lo que naturalmente nuestro primer paso es muestrear a partir de la distribución de\( T \). Esto genera una secuencia\( \bs{T} = (T_1, T_2, \ldots) \) de variables independientes, cada una con la distribución de\( T \) (y así con la función de distribución\( F \)). Piense en\( \bs{T} \) como una secuencia de copias independientes de\( T \). Para\( n \in \N_+ \) y\( t \in \R \), el estimador natural de\( F(t) \) basado en los primeros valores de\( n \) muestra es\[ F_n(t) = \frac{1}{n}\sum_{i=1}^n \bs{1}(T_i \le t) \] que es simplemente la proporción de los primeros valores de\( n \) muestra que caen en el intervalo\( (-\infty, t] \). Apropiadamente,\( F_n \) se conoce como la función de distribución empírica correspondiente a la muestra de tamaño\( n \). Nótese que\( \left(\bs{1}(T_1 \le t), \bs{1}(T_2 \le t), \ldots\right) \) es una secuencia de variables indicadoras independientes, distribuidas idénticamente (y por lo tanto es una secuencia de ensayos de Bernoulli), y corresponde al muestreo de la distribución de\( \bs{1}(T \le t) \). El estimador\( F_n(t) \) es simplemente la media muestral de la primera\( n \) de estas variables. El numerador, el número de las variables de muestra originales con valores en\( (-\infty, t] \), tiene la distribución binomial con parámetros\( n \) y\( F(t) \). Como todas las medias de muestra de muestras independientes, distribuidas idénticamente,\( F_n(t) \) satisface algunas propiedades básicas e importantes. A continuación se da un resumen, pero para dar sentido a algunos de estos hechos, es necesario recordar la media y varianza de la variable indicadora de la que estamos muestreando:\( \E\left[\bs{1}(T \le t)\right] = F(t) \)\( \var\left[\bs{1}(T \le t)\right] = F(t)\left[1 - F(t)\right] \)

    Para fijo\( t \in \R \),

    1. \( \E\left[F_n(t)\right] = F(t) \)así\( F_n(t) \) es un estimador imparcial de\( F(t) \)
    2. \( \var\left[F_n(t)\right] = F(t)\left[1 - F(t)\right] \big/ n \)así\( F_n(t) \) es un estimador consistente de\( F(t) \)
    3. \( F_n(t) \to F(t) \)como\( n \to \infty \) con probabilidad 1, la ley fuerte de los números grandes.
    4. \( \sqrt{n}\left[F_n(t) - F(t)\right] \)tiene media 0 y varianza\( F(t)\left[1 - F(t)\right] \) y converge a la distribución normal con estos parámetros como\( n \to \infty \), el teorema del límite central.

    El teorema anterior nos da una gran cantidad de información acerca de\( F_n(t) \) para fijo\( t \), pero ahora queremos dejar\( t \) variar y considerar la expresión en (d), es decir\( t \mapsto \sqrt{n}\left[F_n(t) - F(t)\right] \), como un proceso aleatorio para cada uno\( n \in \N_+ \). La clave es considerar primero una distribución muy especial.

    Supongamos que\( T \) tiene la distribución uniforme estándar, es decir, la distribución uniforme continua en el intervalo\( [0, 1] \). En este caso la función de distribución es simplemente\( F(t) = t \) para\( t \in [0, 1] \), entonces tenemos la secuencia de procesos estocásticos\( \bs{X}_n = \left\{X_n(t): t \in [0, 1]\right\} \) para\( n \in \N_+ \), donde Por\[ X_n(t) = \sqrt{n}\left[F_n(t) - t\right] \] supuesto, se aplican los resultados anteriores, por lo que el proceso\( \bs{X}_n \) tiene la función media 0, función de varianza\( t \mapsto t(1 - t) \), y para fijo \( t \in [0, 1] \), la distribución\( X_n(t) \) converge a la distribución normal correspondiente como\( n \to \infty \). Aquí está el nuevo bit de información, ¡la función de covarianza de\( \bs{X}_n \) es la misma que la del puente browniano!

    \( \cov\left[X_n(s), X_n(t)\right] = \min\{s, t\} - s t \)para\( s, \, t \in [0, 1] \).

    Prueba

    Supongamos que\( s \le t \). A partir de las propiedades básicas de la covarianza\( i \ne j \),\[ \cov\left[X_n(s), X_n(t)\right] = n \, \cov\left[F_n(s), F_n(t)\right] = \frac{1}{n} \cov\left(\sum_{i=1}^n \bs{1}(T_i \le s), \sum_{j=1}^n \bs{1}(T_j \le t)\right) = \frac{1}{n} \sum_{i=1}^n \sum_{j=1}^n \cov\left[\bs{1}(T_i \le s) \bs{1}(T_j \le t)\right] \] Pero si, las variables\( \bs{1}(T_i \le s) \) y\( \bs{1}(T_j \le t) \) son independientes, y por lo tanto tienen covarianza 0. Por otro lado, de\[ \cov\left[\bs{1}(T_i \le s), \bs{1}(T_i \le t)\right] = \P(T_i \le s, T_i \le t) - \P(T_i \le s) \P(T_i \le t) = \P(T_i \le s) - \P(T_i \le s) \P(T_i \le t) = s - st \] ahí\[ \cov\left[X_n(s), X_n(t)\right] = \frac{1}{n} \sum_{i=1}^n \cov\left[\bs{1}(T_i \le s), \bs{1}(T_i \le t)\right] = s - s t\]


    This page titled 18.3: El Puente Browniano is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.