Saltar al contenido principal

# 18.1: Movimiento Browniano Estándar

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\P}{\mathbb{P}}$$$$\newcommand{\E}{\mathbb{E}}$$$$\newcommand{\R}{\mathbb{R}}$$$$\newcommand{\N}{\mathbb{N}}$$$$\newcommand{\Z}{\mathbb{Z}}$$$$\newcommand{\D}{\mathbb{D}}$$$$\newcommand{\bs}{\boldsymbol}$$$$\newcommand{\cov}{\text{cov}}$$$$\newcommand{\cor}{\text{cor}}$$$$\newcommand{\var}{\text{var}}$$$$\newcommand{\sd}{\text{sd}}$$

## Teoría Básica

### Historia

En 1827, el botánico Robert Brown notó que diminutas partículas del polen, cuando se suspendieron en agua, exhibían un movimiento continuo pero muy nervioso y errático. En su año milagroso de 1905, Albert Einstein explicó el comportamiento físicamente, demostrando que las partículas estaban siendo constantemente bombardeadas por las moléculas del agua, y ayudando así a establecer firmemente la teoría atómica de la materia. El movimiento browniano como proceso matemático aleatorio fue construido por primera vez de manera rigurosa por Norbert Wiener en una serie de artículos a partir de 1918. Por esta razón, el proceso de movimiento browniano también se conoce como el proceso Wiener.

Ejecute la simulación de movimiento browniano bidimensional varias veces en modo de un solo paso para tener una idea de lo que el Sr. Brown pudo haber observado bajo su microscopio.

Junto con el proceso de ensayos de Bernoulli y el proceso de Poisson, el proceso de movimiento browniano es de importancia central en probabilidad. Cada uno de estos procesos se basa en un conjunto de supuestos idealizados que conducen a una rica teoría matemática. En cada caso también, el proceso se utiliza como un bloque de construcción para una serie de procesos aleatorios relacionados que son de gran importancia en una variedad de aplicaciones. En particular, el movimiento browniano y procesos relacionados se utilizan en aplicaciones que van desde la física hasta la estadística y la economía.

### Definición

Un movimiento browniano estándar es un proceso aleatorio$$\bs{X} = \{X_t: t \in [0, \infty)\}$$ con espacio de estado$$\R$$ que satisface las siguientes propiedades:

1. $$X_0 = 0$$(con probabilidad 1).
2. $$\bs{X}$$tiene incrementos estacionarios. Es decir, para$$s, \; t \in [0, \infty)$$ con$$s \lt t$$, la distribución de$$X_t - X_s$$ es la misma que la distribución de$$X_{t - s}$$.
3. $$\bs{X}$$tiene incrementos independientes. Es decir, para$$t_1, t_2, \ldots, t_n \in [0, \infty)$$ con$$t_1 \lt t_2 \lt \cdots \lt t_n$$, las variables aleatorias$$X_{t_1}, X_{t_2} - X_{t_1}, \ldots, X_{t_n} - X_{t_{n-1}}$$ son independientes.
4. $$X_t$$se distribuye normalmente con la media 0 y varianza$$t$$ para cada uno$$t \in (0, \infty)$$.
5. Con probabilidad 1,$$t \mapsto X_t$$ es continuo encendido$$[0, \infty)$$.

Para entender físicamente los supuestos, tomémoslos uno a la vez.

1. Supongamos que medimos la posición de una partícula browniana en una dimensión, comenzando en un tiempo arbitrario que designamos como$$t = 0$$, con la posición inicial designada como$$x = 0$$. Entonces esta suposición queda satisfecha por convención. En efecto, ocasionalmente, es conveniente relajar esta suposición y$$X_0$$ permitir tener otros valores.
2. Esta es una declaración de homogeneidad temporal: la dinámica subyacente (es decir, el empuje de la partícula por las moléculas de agua) no cambian con el tiempo, por lo que la distribución del desplazamiento de la partícula en un intervalo de tiempo$$[s, t]$$ depende únicamente de la duración del intervalo de tiempo.
3. Esta es una suposición idealizada que se mantendría aproximadamente si los intervalos de tiempo son grandes en comparación con los pequeños tiempos entre colisiones de la partícula con las moléculas.
4. Esta es otra suposición idealizada basada en el teorema del límite central: la posición de la partícula en el momento$$t$$ es el resultado de un número muy grande de colisiones, cada una haciendo una contribución muy pequeña. El hecho de que la media sea 0 es una declaración de homogeneidad espacial: la partícula no es más o menos probable que se empuje hacia la derecha que hacia la izquierda. A continuación, recordemos que los supuestos de incrementos estacionarios e independientes significan que$$\var(X_t) = \sigma^2 t$$ para alguna constante positiva$$\sigma^2$$. Por un cambio en la escala de tiempo, podemos suponer$$\sigma^2 = 1$$, aunque consideraremos movimientos brownianos más generales en la siguiente sección.
5. Finalmente, la continuidad de las trayectorias de muestreo es una suposición esencial, ya que estamos modelando la posición de una partícula física en función del tiempo.

Desde luego, la primera pregunta que debemos plantearnos es si existe un proceso estocástico que satisfaga la definición. Afortunadamente, la respuesta es sí, aunque la prueba es complicada.

Existe un espacio de probabilidad$$(\Omega, \mathscr{F}, \P)$$ y un proceso estocástico$$\bs{X} = \{X_t: t \in [0, \infty)\}$$ en este espacio de probabilidad que satisface los supuestos de la definición.

Croquis de prueba

Los supuestos en la definición conducen a un conjunto consistente de distribuciones dimensionales finitas (que se dan a continuación). Así, por el teorema de la existencia de Kolmogorov, existe un proceso estocástico$$\bs{U} = \{U_t: t \in [0, \infty)\}$$ que tiene estas distribuciones dimensionales finitas. Sin embargo,$$\bs{U}$$ no tiene trayectorias de muestreo continuas, pero podemos construir a partir de$$\bs{U}$$ un proceso equivalente que sí tiene trayectorias de muestreo continuas.

Primero recordemos que una racional binaria (o racional diádica) en$$[0, \infty)$$ es un número de la forma$$k / 2^n$$ donde$$k, \, n \in \N$$. Vamos$$\D_+$$ denotar el conjunto de todos los racionales binarios en$$[0, \infty)$$, y recordar que$$\D_+$$ es contable pero también denso en$$[0, \infty)$$ (es decir, si$$t \in [0, \infty) \setminus \D_+$$ entonces existe$$t_n \in \D_+$$ para$$n \in \N_+$$ tal que$$t_n \to t$$ como$$n \to \infty$$).

Ahora, para$$n \in \N_+$$, vamos$$X_n(t) = U_t$$ si$$t$$ es un binario racional de la forma$$k \big/ 2^n$$ para algunos$$k \in \N$$. Si no$$t$$ es un racional binario, defina$$X_n(t)$$ por interpolación lineal entre los racionales binarios más cercanos de esta forma a cada lado de$$t$$. Entonces$$X_n(t) \to U(t)$$ como$$n \to \infty$$ para cada$$t \in \D_+$$, y con probabilidad 1, la convergencia es uniforme$$\D_+ \cap [0, T]$$ para cada uno$$T \gt 0$$. Se deduce entonces que$$\bs{U}$$ es continuo$$\D_+$$ con probabilidad 1.

Para el último paso, y$$X_t = \lim_{s \to t, \; s \in \D_+} U_s$$ mucho$$t \in [0, \infty)$$. El límite existe ya que$$\bs{U}$$ es continuo$$\D_+$$ con probabilidad 1. El proceso$$\bs{X} = \{X_t: t \in [0, \infty)\}$$ es continuo$$[0, \infty)$$ con probabilidad 1, y tiene las mismas distribuciones dimensionales finitas que$$\bs{U}$$.

Ejecute la simulación del proceso de movimiento browniano estándar varias veces en modo de un solo paso. Anote el comportamiento cualitativo de las rutas de muestreo. Ejecute la simulación 1000 veces y compare la función de densidad empírica y los momentos de$$X_t$$ con la función y momentos de densidad probabiltiy verdadera.

### Movimiento browniano como límite de caminatas aleatorias

Claramente, la dinámica subyacente de la partícula browniana siendo golpeada por moléculas sugiere una caminata aleatoria como posible modelo, pero con pequeños pasos de tiempo y pequeños saltos espaciales. Deja$$\bs{X} = (X_0, X_1, X_2, \ldots)$$ ser el simple paseo aleatorio simétrico. Así,$$X_n = \sum_{i=1}^n U_i$$ donde$$\bs{U} = (U_1, U_2, \ldots)$$ se encuentra una secuencia de variables independientes con$$\P(U_i = 1) = \P(U_i = -1) = \frac{1}{2}$$ para cada una$$i \in \N_+$$. Recordemos eso$$\E(X_n) = 0$$ y$$\var(X_n) = n$$ para$$n \in \N$$. También, dado que$$\bs{X}$$ es el proceso de suma parcial asociado a una secuencia IID,$$\bs{X}$$ tiene incrementos estacionarios e independientes (pero por supuesto en tiempo discreto). Por último, recordemos que por el teorema del límite central,$$X_n \big/ \sqrt{n}$$ converge a la distribución normal estándar como$$n \to \infty$$. Ahora, para$$h, d \in (0, \infty)$$ el proceso de tiempo continuo$\bs{X}_{h, d} = \left\{d X_{\lfloor t / h \rfloor}: t \in [0, \infty) \right\}$ es un proceso de salto con saltos a$$\{0, h, 2 h, \ldots\}$$ y con saltos de tamaño$$\pm d$$. Básicamente nos gustaría dejar$$h \downarrow 0$$ y$$d \downarrow 0$$, pero esto no se puede hacer arbitrariamente. Tenga en cuenta que$$\E\left[X_{h, d}(t)\right] = 0$$ pero$$\var\left[X_{h,d}(t)\right] = d^2 \lfloor t / h \rfloor$$. Así, por el teorema del límite central, si tomamos$$d = \sqrt{h}$$ entonces la distribución de$$X_{h, d}(t)$$ convergerá a la distribución normal con media 0 y varianza$$t$$ as$$h \downarrow 0$$. De manera más general, podríamos esperar que todos los requisitos de la definición sean satisfechos por el proceso limitante, y si es así, tenemos un movimiento browniano estándar.

Ejecute la simulación del proceso de caminata aleatoria para aumentar los valores de$$n$$. En particular, ejecute la simulación varias veces con$$n = 100$$. Comparar el comportamiento cualitativo con el proceso de movimiento browniano estándar. Tenga en cuenta que la escala de la caminata aleatoria en el tiempo y el espacio se logra effecitamente escalando los ejes horizontal y vertical en la ventana gráfica.

### Distribuciones dimensionales finitas

Dejar$$\bs{X} = \{X_t: t \in [0, \infty)\}$$ ser un movimiento browniano estándar. Se desprende de la parte (d) de la definición que$$X_t$$ tiene función de densidad de probabilidad$$f_t$$ dada por$f_t(x) = \frac{1}{\sqrt{2 \pi t}} \exp\left(-\frac{x^2}{2 t}\right), \quad x \in \R$ Esta familia de funciones de densidad determina las distribuciones dimensionales finitas de$$\bs{X}$$.

Si$$t_1, t_2, \ldots, t_n \in (0, \infty)$$ con$$0 \lt t_1 \lt t_2 \cdots \lt t_n$$ entonces$$(X_{t_1}, X_{t_2}, \ldots, X_{t_n})$$ tiene la función de densidad de probabilidad$$f_{t_1, t_2, \ldots, t_n}$$ dada por

$f_{t_1, t_2, \ldots, t_n}(x_1, x_2, \ldots, x_n) = f_{t_1}(x_1) f_{t_2 - t_1}(x_2 - x_1) \cdots f_{t_n - t_{n-1}}(x_n - x_{n-1}), \quad (x_1, x_2, \ldots, x_n) \in \R^n$
Prueba

Esto sigue porque$$\bs{X}$$ tiene incrementos estacionarios e independientes.

$$\bs{X}$$es un proceso gaussiano con función media función media$$m(t) = 0$$ para$$t \in [0, \infty)$$ y función de covarianza$$c(s, t) = \min\{s, t\}$$ para$$s, t \in [0, \infty)$$.

Prueba

Sigue el hecho de que$$\bs{X}$$ sea un proceso gaussiano porque normalmente$$X_t$$ se distribuye para cada uno$$t \in T$$ y$$\bs{X}$$ tiene incrementos estacionarios e independientes. La función media es 0 por suposición. Para la función de covarianza, supongamos$$s, \, t \in [0, \infty)$$ con$$s \le t$$. Desde$$X_s$$ y$$X_t - X_s$$ somos independientes, tenemos$\cov(X_s, X_t) = \cov\left[X_s, X_s + (X_t - X_s)\right] = \var(X_s) + 0 = s$

Recordemos que para un proceso gaussiano, las distribuciones dimensionales finitas (normales multivariadas) están completamente determinadas por la función media$$m$$ y la función de covarianza$$c$$. Así, se deduce que un movimiento browniano estándar se caracteriza como un proceso gaussiano continuo con las funciones media y covarianza en el último teorema. Tenga en cuenta también que También$\cor(X_s, X_t) = \frac{\min\{s, t\}}{\sqrt{s t}} = \sqrt{\frac{\min\{s, t\}}{\max\{s, t\}}} ,\quad (s, t) \in [0, \infty)^2$ podemos dar los momentos superiores y la función de generación de momento para$$X_t$$.

Para$$n \in \N$$ y$$t \in [0, \infty)$$,

1. $$\E\left(X_t^{2n}\right) = 1 \cdot 3 \cdots (2 n - 1) t^n = (2 n)! t^n \big/ (n! 2^n)$$
2. $$\E\left(X_t^{2n + 1}\right) = 0$$
Prueba

Estos momentos se derivan de resultados estándar, ya que normalmente$$X_t$$ se distribuye con media 0 y varianza$$t$$.

Para$$t \in [0, \infty)$$,$$X_t$$ tiene función de generación de momento dada por$\E\left(e^{u X_t}\right) = e^{t u / 2}, \quad u \in \R$

Prueba

Nuevamente, este es un resultado estándar para la distribución normal.

### Transformaciones simples

Hay varias transformaciones simples que preservan el movimiento browniano estándar y nos darán una idea de algunas de sus propiedades. Como de costumbre, nuestro punto de partida es un movimiento browniano estándar$$\bs{X} = \{X_t: t \in [0, \infty)\}$$. Nuestro primer resultado es que reflejar los caminos de$$\bs{X}$$ en la línea$$x = 0$$ da otro movimiento browniano estándar

Dejemos$$Y_t = -X_t$$ para$$t \ge 0$$. Entonces también$$\bs{Y} = \{Y_t: t \ge 0\}$$ es un movimiento browniano estándar.

Prueba

Claramente el nuevo proceso sigue siendo un proceso gaussiano, con función media$$\E(-X_t) = -\E(X_t) = 0$$ para$$t \in [0, \infty)$$ y función de covarianza$$\cov(-X_s, -X_t) = \cov(X_s, X_t) = \min\{s, t\}$$ para$$(s, t) \in [0, \infty)^2$$. Por último, ya que$$\bs{X}$$ es continuo, así es$$\bs{Y}$$.

Nuestro siguiente resultado está relacionado con la propiedad de Markov, que exploramos con más detalle a continuación. Si reiniciamos el movimiento browniano en un tiempo fijo$$s$$, y cambiamos el origen a$$X_s$$, entonces tenemos otro movimiento browniano estándar. Esto significa que el movimiento browniano es tanto temporal como espacialmente homogéneo.

Fijar$$s \in [0, \infty)$$ y definir$$Y_t = X_{s + t} - X_s$$ para$$t \ge 0$$. Entonces también$$\bs{Y} = \{Y_t: t \in [0, \infty)\}$$ es un movimiento browniano estándar.

Prueba

Dado que$$\bs{X}$$ tiene incrementos estacionarios e independientes, el proceso$$\bs{Y}$$ es equivalente en distribución a$$\bs{X}$$. Claramente también$$\bs{Y}$$ es continuo ya que$$\bs{X}$$ es.

Nuestro siguiente resultado es una simple inversión de tiempo, pero para afirmar este resultado, necesitamos restringir el parámetro de tiempo a un intervalo delimitado de la forma$$[0, T]$$ donde$$T \gt 0$$. El punto final superior a veces$$T$$ se denomina horizonte temporal finito. Tenga en cuenta que$$\{X_t: t \in [0, T]\}$$ aún satisface la definición, pero con los parámetros de tiempo restringidos a$$[0, T]$$.

Definir$$Y_t = X_{T - t} - X_T$$ para$$0 \le t \le T$$. Entonces también$$\bs{Y} = \left\{Y_t: t \in [0, T]\right\}$$ es un movimiento browniano estándar en$$[0, T]$$.

Prueba

$$\bs{Y}$$es un proceso gaussiano, ya que una combinación finita y lineal de variables de este proceso se reduce a una combinación finita, lineal de variables de$$\bs{X}$$. Siguiente,$$\E(Y_t) = \E(X_{T - t}) - \E(X_T) = 0$$. A continuación, si$$s, \; t \in [0, T]$$ con$$s \le t$$ entonces\ begin {align}\ cov (Y_s, Y_t) & =\ cov (X_ {T - s} - X_T, X_ {t-T} - x_t) =\ cov (X_ {t-S}, X_ {t-T}) -\ cov (X_ {t-S}, X_T) -\ cov (X_T, _ {t-t}) +\ cov (X_T, x_t)\\ & = (T - t) - (T - s) - (T - t) + T = s\ end {align} Finalmente,$$t \mapsto Y_t$$ es continuo$$[0, T]$$ con probabilidad 1, ya que$$t \mapsto X_t$$ es continuo$$[0, T]$$ con probabilidad 1.

Nuestra siguiente transformación implica escalar$$\bs{X}$$ tanto temporal como espacialmente, y se conoce como auto-similitud.

Dejar$$a \gt 0$$ y definir$$Y_t = \frac{1}{a} X_{a ^2 t}$$ para$$t \ge 0$$. Entonces también$$\bs{Y} = \{Y_t: t \in [0, \infty)\}$$ es un movimiento browniano estándar.

Prueba

Una vez más,$$\bs{Y}$$ es un proceso gaussiano, ya que las combinaciones finitas, lineales de variables en$$\bs{Y}$$ reducen a finitas, combinaciones lineales de variables en$$\bs{X}$$. Siguiente,$$\E(Y_t) = a \E(X_{a^2 t}) = 0$$ para$$t \gt 0$$, y para$$s, \, t \gt 0$$ con$$s \lt t$$,$\cov(Y_s, Y_t) = \cov\left(\frac{1}{a} X_{a^2 s}, \frac{1}{a} X_{a^2 t}\right) = \frac{1}{a^2} \cov\left(X_{a^2 s}, X_{a^2 t}\right) = \frac{1}{a^2} a^2 s = s$ Finalmente$$\bs{Y}$$ es un proceso continuo ya que$$\bs{X}$$ es continuo.

Tenga en cuenta que la gráfica de se$$\bs{Y}$$ puede obtener a partir de la gráfica de$$\bs{X}$$ escalando el eje de tiempo$$t$$ por un factor de$$a^2$$ y escalando el eje espacial$$x$$ por un factor de$$a$$. El hecho de que el factor de escala temporal debe ser el cuadrado del factor de escala espacial está claramente relacionado con el movimiento browniano como límite de caminatas aleatorias. Tenga en cuenta también que esta transformación equivale a acercar o alejar la gráfica$$\bs{X}$$ y, por lo tanto, el movimiento browniano tiene una calidad fractal autosimilar, ya que la gráfica no cambia por esta transformación. Esto también sugiere que, aunque continuo,$$t \mapsto X_t$$ es altamente irregular. Esto lo consideramos en la siguiente subsección.

Nuestra transformación final se conoce como inversión del tiempo.

Dejar$$Y_0 = 0$$ y$$Y_t = t X_{1/t}$$ para$$t \gt 0$$. Entonces también$$\bs{Y} = \{Y_t: t \in [0, \infty)\}$$ es un movimiento browniano estándar.

Prueba

Claramente$$\bs{Y}$$ es un proceso gaussiano, ya que las combinaciones finitas, lineales de variables en$$\bs{Y}$$ reducen a finitas, combinaciones lineales de variables en$$\bs{X}$$. Siguiente,$$\E(Y_t) = t \E(X_{1/t}) = 0$$ para$$t \gt 0$$, y para$$s, \, t \gt 0$$ con$$s \lt t$$,$\cov\left(Y_s, Y_t\right) = \cov\left(s X_{1/s}, t X_{1/t}\right) = s t \, \cov\left(X_{1/s}, X_{1/t}\right) = s t \frac{1}{t} = s$ Dado que$$t \mapsto X_t$$ es continuo$$[0, \infty)$$ con probabilidad 1,$$t \mapsto Y_t$$ es continuo en$$(0, \infty)$$ con probabilidad 1. Así, todo lo que queda es mostrar continuidad en$$t = 0$$. Por lo tanto, necesitamos demostrar que con probabilidad 1,$$t X_{1/t} \to 0$$ as$$t \downarrow 0$$. o equivalentemente,$$X_s / s \to 0$$ as$$s \uparrow \infty$$. Pero esta última afirmación sostiene por la ley del logaritmo iterado, que se da a continuación.

Las propiedades definitorias sugieren que el movimiento browniano estándar$$\bs{X} = \{X_t: t \in [0, \infty)\}$$ no puede ser una función suave y diferenciable. Considerar el cociente de diferencia habitual en$$t$$,$\frac{X_{t+h} - X_t}{h}$ Por la propiedad de incrementos estacionarios$$h \gt 0$$, si, el numerador tiene la misma distribución que$$X_h$$, mientras que si$$h \lt 0$$, el numerador tiene la misma distribución que$$-X_{-h}$$, que a su vez tiene la misma distribución que$$X_{-h}$$. Entonces, en ambos casos, el cociente de diferencia tiene la misma distribución que$$X_{\left|h\right|} \big/ h$$, y esta variable tiene la distribución normal con media 0 y varianza$$\left|h\right| \big/ h^2 = 1 \big/ \left|h\right|$$. Entonces la varianza del cociente de diferencia diverge a$$\infty$$ as$$h \to 0$$, y de ahí el cociente de diferencia ni siquiera converge en distribución, la forma más débil de convergencia.

La transformación temporal-espacial anterior también sugiere que el movimiento browniano no puede ser diferenciable. El significado intuitivo de diferenciable at$$t$$ es que la función es localmente lineal en$$t$$ —a medida que nos acercamos, la gráfica cercana$$t$$ comienza a parecerse a una línea (cuya pendiente, por supuesto, es la derivada). Pero a medida que nos acercamos al movimiento browniano, (en el sentido de la transformación), siempre se ve igual, y en particular, igual de irregular. Más formalmente, si$$\bs{X}$$ es diferenciable en$$t$$, entonces también lo es el proceso transformado$$\bs{Y}$$, y la regla de la cadena da$$Y^\prime(t) = a X^\prime(a^2 t)$$. Pero también$$\bs{Y}$$ es un movimiento browniano estándar para cada uno$$a \gt 0$$, así que algo está claramente mal. Si bien no son rigurosos, estos ejemplos son la motivación para el siguiente teorema:

Con probabilidad 1, no$$\bs{X}$$ es en ninguna parte diferenciable en$$[0, \infty)$$.

Ejecute la simulación del proceso de movimiento browniano estándar. Tenga en cuenta la continuidad pero la calidad muy irregular de las rutas de muestreo. Por supuesto, la simulación no puede realmente capturar el movimiento browniano con total fidelidad.

Los siguientes teoremas dan una medida más precisa de la irregularidad del movimiento browniano estándar.

El movimiento browniano estándar$$\bs{X}$$ tiene exponente Hölder$$\frac{1}{2}$$. Es decir,$$\bs{X}$$ es Hölder continuo con exponente$$\alpha$$ para cada$$\alpha \lt \frac{1}{2}$$, pero no es Hölder continuo con exponente$$\alpha$$ para ninguno$$\alpha \gt \frac{1}{2}$$.

En particular, no$$\bs{X}$$ es Lipschitz continuo, y esto demuestra nuevamente que no es diferenciable. El siguiente resultado establece que en términos de dimensión Hausdorff, la gráfica de movimiento browniano estándar se encuentra a medio camino entre una curva simple (dimensión 1) y el plano (dimensión 2).

La gráfica de movimiento browniano estándar tiene dimensión Hausdorff$$\frac{3}{2}$$.

Otro indicio más de la irregularidad del movimiento browniano es que tiene una variación total infinita en cualquier intervalo de longitud positiva.

Supongamos que$$a, \, b \in \R$$ con$$a \lt b$$. Entonces la variación total de$$\bs{X}$$ on$$[a, b]$$ es$$\infty$$.

Como es habitual, comenzamos con un movimiento browniano estándar$$\bs{X} = \{X_t: t \in [0, \infty)\}$$. Recordemos que un proceso de Markov tiene la propiedad de que el futuro es independiente del pasado, dado el estado presente. Debido a la propiedad de incrementos estacionarios e independientes, el movimiento browniano tiene la propiedad. Como nota menor, para verlo$$\bs{X}$$ como un proceso de Markov, a veces necesitamos relajar la Asunción 1 y dejar$$X_0$$ tener un valor arbitrario en$$\R$$. Vamos$$\mathscr{F}_t = \sigma\{X_s: 0 \le s \le t\}$$, la sigma-álgebra generada por el proceso hasta el momento$$t \in [0, \infty)$$. La familia de$$\sigma$$ -álgebras$$\mathfrak{F} = \{\mathscr{F}_t: t \in [0, \infty)\}$$ se conoce como filtración.

El movimiento browniano estándar es un proceso de Markov homogéneo en el tiempo con densidad de probabilidad de transición$$p$$ dada por$p_t(x, y) = f_t(y - x) = \frac{1}{\sqrt{2 \pi t}} \exp\left[-\frac{(y - x)^2}{2 t} \right], \quad t \in (0, \infty); \; x, \, y \in \R$

Prueba

Arreglar$$s \in [0, \infty)$$. El teorema se desprende del hecho de que el proceso$$\{X_{s+t} - X_s: t \in [0, \infty)\}$$ es otro movimiento browniano estándar, como se muestra anteriormente, y es independiente de$$\mathscr{F}_s$$.

La densidad de transción$$p$$ satisface las siguientes ecuaciones de difusión. La primera se conoce como la ecuación hacia adelante y la segunda como la ecuación hacia atrás. \ begin {align}\ frac {\ parcial} {\ t parcial} p_t (x, y) & =\ frac {1} {2}\ frac {\ parcial^2} {\ parcial y^2} p_t (x, y)\\ frac {\ parcial} {\ parcial} p_t (x, y) & =\ frac {1} {2}\ frac {\ parcial^2} {\ parcial x^2} p_t (x, y)\ end {align}

Prueba

Estos resultados se deduce del cálculo estándar.

Las ecuaciones de difusión se denominan así, porque la derivada espacial en la primera ecuación es con respecto a$$y$$, el estado hacia adelante en el tiempo$$t$$, mientras que la derivada espacial en la segunda ecuación es con respecto a$$x$$, el estado hacia atrás en el tiempo 0.

Recordemos que un tiempo aleatorio$$\tau$$ tomando valores$$[0, \infty]$$ es un tiempo de parada con respecto al proceso$$\bs{X} = \{X_t: t \in [0, \infty)\}$$ si$$\{\tau \le t\} \in \mathscr{F}_t$$ por cada$$t \in [0, \infty)$$. De manera informal, podemos determinar si o no$$\tau \le t$$ observando el proceso hasta el momento$$t$$. Un caso especial importante es la primera vez que nuestra moción browniana golpea un estado determinado. Así, para$$x \in \R$$ dejar$$\tau_x = \inf\{t \in [0, \infty): X_t = x\}$$. El tiempo aleatorio$$\tau_x$$ es un tiempo de parada.

Para un tiempo de parada$$\tau$$, necesitamos el$$\sigma$$ -álgebra de eventos que se puedan definir en términos del proceso hasta el tiempo aleatorio$$\tau$$, análogo a$$\mathscr{F}_t$$, el$$\sigma$$ -álgebra de eventos que se pueden definir en términos del proceso hasta un tiempo fijo$$t$$. La definición apropiada es$\mathscr{F}_\tau = \{B \in \mathscr{F}: B \cap \{\tau \le t\} \in \mathscr{F}_t \text{ for all } t \ge 0\}$ Consulte la sección de Filtraciones y Tiempos de Parada para obtener más información sobre filtraciones, tiempos de detención y el$$\sigma$$ álgebra asociada con un tiempo de detención.

La propiedad fuerte de Markov es la propiedad de Markov generalizada a tiempos de parada. El movimiento browniano estándar también$$\bs{X}$$ es un fuerte proceso de Markov. La mejor manera de decirlo es mediante una generalización del resultado de homogeneidad temporal y espacial anterior.

Supongamos que$$\tau$$ es un tiempo de parada y defina$$Y_t = X_{\tau + t} - X_\tau$$ para$$t \in [0, \infty)$$. Entonces$$\bs{Y} = \{Y_t: t \in [0, \infty)\}$$ es un movimiento browniano estándar y es independiente de$$\mathscr{F}_\tau$$.

### El principio de reflexión

Muchas propiedades interesantes del movimiento browniano se pueden obtener de una idea inteligente conocida como el principio de reflexión. Como es habitual, comenzamos con un movimiento browniano estándar$$\bs{X} = \{X_t: t \in [0, \infty) \}$$. Deja$$\tau$$ ser un tiempo de parada para$$\bs{X}$$. Definir$W_t = \begin{cases} X_t, & 0 \le t \lt \tau \\ 2 X_\tau - X_t, & \tau \le t \lt \infty \end{cases}$ Así, la gráfica de se$$\bs{W} = \{W_t: t \in [0, \infty)\}$$ puede obtener a partir de la gráfica de$$\bs{X}$$ reflejando en la línea$$x = X_\tau$$ después del tiempo$$\tau$$. En particular, si el tiempo de parada$$\tau$$ es$$\tau_a$$, la primera vez que el proceso alcanza un estado especificado$$a \gt 0$$, entonces la gráfica de$$\bs{W}$$ se obtiene a partir de la gráfica de$$\bs{X}$$ reflejando en la línea$$x = a$$ después del tiempo$$\tau_a$$.

Abrir la simulación de reflejar el movimiento browniano. Esta app muestra el proceso$$\bs{W}$$ correspondiente al tiempo de parada$$\tau_a$$, el tiempo de la primera visita a un estado positivo$$a$$. Ejecute la simulación en modo de un solo paso hasta que veas el proceso reflejado varias veces. Asegúrate de entender cómo$$\bs{W}$$ funciona el proceso.

El proceso reflejado$$\bs{W} = \{W_t: t \in [0, \infty)\}$$ es también un movimiento browniano estándar.

Ejecute 1000 veces la simulación del proceso de movimiento browniano reflejado. Compaure la función de densidad empírica y los momentos de$$W_t$$ la función y momentos de densidad de probabilidad verdadera.

### Martingales

Como de costumbre, dejar$$\bs{X} = \{X_t: t \in [0, \infty)\}$$ ser un movimiento browniano estándar, y dejar$$\mathscr{F}_t = \sigma\{X_s: 0 \le s \le t\}$$ para$$t \in [0, \infty)$$, así que esa$$\mathfrak{F} = \{\mathscr{F}_t: t \in [0, \infty)\}$$ es la filtración natural para$$\bs{X}$$. Hay varias martingales importantes asociadas con$$\bs{X}$$. Estudiaremos un par de ellos en esta sección, y otros en secciones posteriores. Nuestro primer resultado es que$$\bs{X}$$ en sí misma es una martingala, simplemente en virtud de tener incrementos estacionarios, independientes y 0 media.

$$\bs{X}$$es una martingala con respecto a$$\mathfrak{F}$$.

Prueba

Nuevamente, esto es cierto para cualquier proceso con incrementos estacionarios, independientes y 0 media, pero damos la prueba de todos modos, para su completitud. Déjalo$$s, \, t \in [0, \infty)$$ con$$s \lt t$$. Dado que$$X_s$$ es mensurable con respecto a$$\mathscr{F}_s$$ y$$X_t - X_s$$ es independiente de$$\mathscr{F}_s$$ tenemos$\E\left(X_t \mid \mathscr{F}_s\right) = \E\left[X_s + (X_t - X_s) \mid \mathscr{F}_s\right] = X_s + \E(X_t - X_s) = X_s$

La próxima martingala es un poco más interesante.

Dejemos$$Y_t = X_t^2 - t$$ para$$t \in [0, \infty)$$. Entonces$$\bs{Y} = \{Y_t: t \in [0, \infty)\}$$ es una martingala con respecto a$$\mathfrak{F}$$.

Prueba

Déjalo$$s, \, t \in [0, \infty)$$ con$$s \lt t$$. Entonces$Y_t = X_t^2 - t = \left[X_s + (X_t - X_s)\right]^2 - t = X_s^2 + 2 X_s (X_t - X_s) + (X_t - X_s)^2 - t$ Desde$$X_s$$ es mensurable con respecto$$\mathscr{F}_s$$ y$$X_t - X_s$$ es independiente de$$\mathscr{F}_s$$ nosotros tenemos$\E\left(Y_t \mid \mathscr{F}_s\right) = X_s^2 + 2 X_s \E(X_t - X_s) + \E\left[(X_t - X_s)\right]^2 - t$ Pero$$\E(X_t - X_s) = 0$$ y$$\E\left[(X_t - X_s)^2\right] = \var(X_t - X_s) = t - s$$ así$$\E\left(Y_t \mid \mathscr{F}_s\right) = X_s^2 - s = Y_s$$.

### Máximos y Tiempos de Golpear

Como es habitual, comenzamos con un movimiento browniano estándar$$\bs{X} = \{X_t: t \in [0, \infty) \}$$. Para$$y \in [0, \infty)$$ recordar que$$\tau_y = \min\{t \ge 0: X_t = y\}$$ es la primera vez que el proceso golpea estado$$y$$. Por supuesto,$$\tau_0 = 0$$. Para$$t \in [0, \infty)$$, let$$Y_t = \max\{X_s: 0 \le s \le t\}$$, el valor máximo de$$\bs{X}$$ en el intervalo$$[0, t]$$. Tenga en cuenta que$$Y_t$$ está bien definido por la continuidad de$$\bs{X}$$, y por supuesto$$Y_0 = 0$$. Así tenemos dos nuevos procesos estocásticos:$$\{\tau_y: y \in [0, \infty)\}$$ y$$\{Y_t: t \in [0, \infty)\}$$. Ambos tienen conjunto de índices$$[0, \infty)$$ y (como veremos) espacio de estado$$[0, \infty)$$. Además, los procesos son inversos unos de otros en cierto sentido:

Para$$t, \; y \in (0, \infty)$$,$$\tau_y \le t$$ si y solo si$$Y_t \ge y$$.

Prueba

Dado que el movimiento browniano estándar comienza en 0 y es continuo, ambos eventos significan que el proceso golpea el estado$$y$$ en el intervalo$$[0, t]$$.

Así, si podemos calcular la distribución de$$Y_t$$ para cada uno$$t \in (0, \infty)$$ entonces podemos calcular la distribución de$$\tau_y$$ para cada uno$$y \in (0, \infty)$$, y a la inversa.

For$$y \gt 0$$,$$\tau_y$$ tiene la misma distribución que$$y^2 \big/ Z^2$$, donde$$Z$$ es una variable normal estándar. La función de densidad de probabilidad$$g_y$$ viene dada por$g_y(t) = \frac{y}{\sqrt{2 \pi t^3}} \exp\left(-\frac{y^2}{2 t}\right), \quad t \in (0, \infty)$

Prueba

Vamos$$t \gt 0$$. Del resultado anterior, tenga en cuenta que$$X_t \ge y \implies Y_t \ge y \implies \tau_y \le t$$. De ahí$\P(X_t \ge y) = \P(X_t \ge y, \tau_y \le t) = \P(X_t \ge y \mid \tau_y \le t) \P(\tau_y \le t)$ Pero de la fuerte propiedad de Markov arriba,$$s \mapsto X(\tau_y + s) - y$$ es otro movimiento browniano estándar. De ahí$$\P(X_t \ge y \mid \tau_y \le t) = \frac{1}{2}$$. Por lo tanto,$\P(\tau_y \le t) = 2 \P(X_t \ge y) = \frac{2}{\sqrt{2 \pi t}} \int_y^\infty e^{-x^2 / 2 t} \, dx = \frac{2}{\sqrt{2 \pi}} \int_{y/\sqrt{t}}^\infty e^{-z^2/2} \, dz$ la segunda integral se desprende de la primera por el cambio de variables$$z = x \big/ \sqrt{t}$$. Podemos reconocer esta integral como$$\P\left(y^2 \big/ Z^2 \le t\right)$$ donde$$Z$$ tiene una distribución normal estándar. Tomando la derivada de la integral con respecto a$$t$$ da el PDF.

La distribución de$$\tau_y$$ es la distribución de Lévy con parámetro de escala$$y^2$$, y lleva el nombre del matemático francés Paul Lévy. La distribución de Lévy se estudia con más detalle en el capítulo sobre distribuciones especiales.

Abre el experimento de tiempo de bateo. Varíe$$y$$ y anote la forma y ubicación de la función de densidad de probabilidad de$$\tau_y$$. Para los valores seleccionados del parámetro, ejecute la simulación en modo de un solo paso varias veces. Luego ejecute el experimento 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

Abra el simulador de distribución especial y seleccione la distribución Lévy. Varíe los parámetros y anote la forma y ubicación de la función de densidad de probabilidad. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

El movimiento browniano estándar es recurrente. Es decir,$$\P(\tau_y \lt \infty) = 1$$ para cada$$y \in \R$$.

Prueba

Supongamos primero eso$$y \gt 0$$. De la prueba del último teorema,$\P(\tau_y \lt \infty) = \lim_{t \to \infty} \P(\tau_y \le t) = \frac{2}{\sqrt{2 \pi}} \int_0^\infty e^{-z^2 / 2} \, dz = 1$ Tenga en cuenta que la integral anterior es equivalente a la integral del PDF normal estándar sobre$$\R$$. En particular, la función$$g_y$$ dada anteriormente es realmente un PDF válido. Si$$y \lt 0$$ entonces por simetría,$$\tau_y$$ tiene la misma distribución que$$\tau_{-y}$$, entonces$$\P(\tau_y \lt \infty) = 1$$. Trivialmente,$$\tau_0 = 0$$.

Así, para cada uno$$y \in \R$$,$$\bs{X}$$ eventualmente golpea$$y$$ con probabilidad 1. En realidad podemos decir más:

Con probabilidad 1,$$\bs{X}$$ visita cada punto en$$\R$$.

Prueba

Por continuidad, si$$\bs{X}$$ llega$$y \gt 0$$ entonces$$\bs{X}$$ visita cada punto en$$[0, y]$$. Por simetría, una declaración similar se sostiene para$$y \lt 0$$. Así es el evento que$$\bs{X}$$ visita cada punto en$$\R$$ es$$\bigcap_{n=1}^\infty \left(\{\tau_n \lt \infty\} \cap \{\tau_{-n} \lt \infty\}\right)$$. La probabilidad de una intersección contable de eventos con probabilidad 1 todavía tiene probabilidad 1.

Por otra parte,

El movimiento browniano estándar es nulo recurrente. Es decir,$$\E(\tau_y) = \infty$$ para cada$$y \in \R \setminus \{0\}$$.

Prueba

Por simetría, basta con considerar$$y \gt 0$$. Del resultado anterior sobre la distribución de$$\tau_y$$,$\E(\tau_y) = \int_0^\infty \P(\tau_y \gt t) \, dt = \frac{2}{\sqrt{2 \pi}} \int_0^\infty \int_0^{y / \sqrt{t}} e^{-z^2 / 2} \, dz \, dt$ Cambiando el orden de integración da$\E(\tau_y) = \frac{2}{\sqrt{2 \pi}} \int_0^\infty \int_0^{y^2/z^2} e^{-z^2 / 2} \, dt \, dz = \frac{2 y^2}{\sqrt{2 \pi}} \int_0^\infty \frac{1}{z^2} e^{-z^2 / 2} \, dz$ Siguiente obtenemos un límite inferior en la última integral integrando sobre el intervalo$$[0, 1]$$ y señalando que$$e^{-z^2 / 2} \ge e^{-1/2}$$ en esta integral. Así,$\E(\tau_y) \ge \frac{2 y^2 e^{-1/2}}{\sqrt{2 \pi}} \int_0^1 \frac{1}{z^2} \, dz = \infty$

El proceso$$\{\tau_x: x \in [0, \infty)\}$$ tiene incrementos estacionarios e independientes.

Prueba

La prueba se basa en la homogeneidad temporal y espacial del movimiento browniano y la fuerte propiedad de Markov. Supongamos que$$x, \; y \in [0, \infty)$$ con$$x \lt y$$. Por continuidad,$$\bs{X}$$ debe alcanzar$$x$$ antes de llegar$$y$$. Así,$$\tau_y = \tau_x + (\tau_y - \tau_x)$$. Pero$$\tau_y - \tau_x$$ es el momento de golpear$$y - x$$ para el proceso$$t \mapsto X(\tau_x + t) - x$$, y como se muestra arriba, este proceso también es un movimiento browniano estándar, independiente de$$\mathscr{F}(\tau_x)$$. De ahí$$\tau_y - \tau_x$$ que sea independiente$$\mathscr{F}(\tau_x)$$ y tenga la misma distribución que$$\tau_{y-x}$$.

La familia de funciones de densidad de probabilidad$$\{g_x: x \in (0, \infty)\}$$ se cierra bajo convolución. Es decir,$$g_x * g_y = g_{x+y}$$ para$$x, \, y \in (0, \infty)$$.

Prueba

Esto se desprende inmediatamente del teorema anterior. Una prueba directa es un ejercicio interesante.

Ahora volvemos nuestra atención hacia el proceso máximo$$\{Y_t: t \in [0, \infty)\}$$, el inverso del proceso de golpeo$$\{\tau_y: y \in [0, \infty)\}$$.

For$$t \gt 0$$,$$Y_t$$ tiene la misma distribución que$$\left|X_t\right|$$, conocida como la distribución semitormal con parámetro de escala$$t$$. La función de densidad de probabilidad es

$h_t(y) = \sqrt{\frac{2}{\pi t}} \exp\left(-\frac{y^2}{2 t}\right), \quad y \in [0, \infty)$
Prueba

A partir de la relación inversa y la distribución de$$\tau_y$$,$$\P(Y_t \ge y) = \P(\tau_y \le t) = 2 \P(X_t \ge y) = \P\left(\left|X_t\right| \ge y\right)$$ para$$y \ge 0$$. Por definición,$$\left|X_t\right|$$ tiene la distribución medio normal con parámetro$$t$$. En particular,$\P(Y_t \ge y) = \frac{2}{\sqrt{2 \pi t}} \int_y^\infty e^{-x^2 / 2 t} \, dx$ Tomando la derivada negativa de la integral anterior, con respecto a$$y$$, da el PDF.

La distribución media normal es un caso especial de la distribución normal plegada, la cual se estudia con más detalle en el capítulo sobre distribuciones especiales.

Para$$t \ge 0$$, la media y varianza de$$Y_t$$ son

1. $$\E(Y_t) = \sqrt{\frac{2 t} {\pi}}$$
2. $$\var(Y_t) = t \left(1 - \frac{2}{\pi}\right)$$
Prueba

Estos se derivan de los resultados estándar para la distribución semitormal.

En la simulación de movimiento browniano estándar, seleccione el valor máximo. Varíe el parámetro$$t$$ y anote la forma de la función de densidad de probabilidad y la ubicación y tamaño de la barra de desviación estándar media. Ejecute la simulación 1000 veces y compare la densidad empírica y los momentos con la función y los momentos de densidad de probabilidad verdadera.

Abra el simulador de distribución especial y seleccione la distribución plegada normal. Varíe los parámetros y anote la forma y ubicación de la función de densidad de probabilidad y el tamaño y ubicación de la barra de desviación estándar media. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y compare la función de densidad empírica y los momentos con la función de densidad verdadera y los momentos.

### Leyes de ceros y arcoseno

Como es habitual, comenzamos con un movimiento browniano estándar$$\bs{X} = \{X_t: t \in [0, \infty)\}$$. Estudio de los ceros de$$\bs{X}$$ plomo a una serie de leyes de probabilidad referidas como leyes de arcoseno, porque como podríamos adivinar, las probabilidades y distribuciones involucran la función arcoseno.

Para$$s, \; t \in [0, \infty)$$ con$$s \lt t$$, deja$$E(s, t)$$ ser el evento que$$\bs{X}$$ tiene un cero en el intervalo de tiempo$$(s, t)$$. Es decir,$$\E(s, t) = \{X_u = 0 \text{ for some } u \in (s, t)\}$$. Entonces$\P\left[E(s, t)\right] = 1 - \frac{2}{\pi} \arcsin\left(\sqrt{\frac{s}{t}}\right)$

Prueba

Acondicionar$$X_s$$ y usar la simetría da$\P\left[E(s, t)\right] = \int_{-\infty}^\infty \P\left[E(s, t) \mid X_s = x\right] f_s(x) \, dx = 2 \int_{-\infty}^0 \P\left[E(s, t) \mid X_s = x\right] f_s(x) \, dx$ Pero por la homogeneidad de$$\bs{X}$$ en el tiempo y el espacio, tenga en cuenta que para$$x \gt 0$$,$$\P\left[E(s, t) \mid X_s = -x\right] = \P(\tau_x \lt t - s)$$. Es decir, un proceso en estado$$-x$$ en el tiempo$$s$$ que golpea 0 antes del tiempo$$t$$ es lo mismo que un proceso en estado 0 en el tiempo 0 alcanzando estado$$x$$ antes tiempo$$t - s$$. De ahí$\P\left[E(s, t)\right] = \int_0^\infty \int_0^{t-s} g_x(u) f_s(-x) \, du \, dx$ donde$$g_x$$ se encuentra el PDF de$$\tau_x$$ dado anteriormente. Sustitución da$\P\left[E(s, t)\right] = \frac{1}{\pi \sqrt{s}} \int_0^{t-s} u^{-3/2} \int_0^\infty x \exp\left[-\frac{1}{2} x^2 \left(\frac{u + s}{u s} \right) \right] \, dx \, du = \frac{\sqrt{s}}{\pi} \int_0^{t-s} \frac{1}{(u + s) \sqrt{u}} \, du$ Finalmente sustituyendo$$v = \sqrt{u / s}$$ en la última integral dar$\P\left[E(s, t)\right] = \frac{2}{\pi} \int_0^{\sqrt{t/s - 1}} \frac{1}{v^2 + 1} \, dv = \frac{2}{\pi} \arctan \left(\sqrt{\frac{t}{s} - 1}\right) = 1 - \frac{2}{\pi} \arcsin\left(\sqrt{\frac{s}{t}} \right)$

En paricular,$$\P\left[E(0, t)\right] = 1$$ para cada$$t \gt 0$$, así que con probabilidad 1,$$\bs{X}$$ tiene un cero en$$(0, t)$$. En realidad, podemos decir un poco más:

Porque$$t \gt 0$$,$$\bs{X}$$ tiene infinitamente muchos ceros en$$(0, t)$$ con probabilidad 1.

Prueba

El evento que$$\bs{X}$$ tiene infinitamente muchos ceros en$$(0, t)$$ es$$\bigcap_{n=1}^\infty E(0, t / n)$$. La intersección de una colección contable de eventos con probabilidad 1 todavía tiene probabilidad 1.

El último resultado es una evidencia más del comportamiento muy extraño e irregular del movimiento browniano. Tenga en cuenta también que$$\P\left[E(s, t)\right]$$ depende sólo de la relación$$s / t$$. Así,$$\P\left[E(s, t)\right] = \P\left[E(1 / t, 1 / s)\right]$$ y$$\P\left[E(s, t)\right] = \P\left[E(c s, c t)\right]$$ para cada$$c \gt 0$$. Entonces, por ejemplo la probabilidad de al menos un cero en el intervalo$$(2, 5)$$ es la misma que la probabilidad de al menos un cero adentro$$(1/5, 1/2)$$, lo mismo que la probabilidad de al menos un cero adentro$$(6, 15)$$, y lo mismo que la probabilidad de al menos un cero adentro$$(200, 500)$$.

Para$$t \gt 0$$, vamos a$$Z_t$$ denotar el tiempo del último cero de$$\bs{X}$$ antes del tiempo$$t$$. Es decir,$$Z_t = \max\left\{s \in [0, t]: X_s = 0\right\}$$. Después$$Z_t$$ tiene la distribución de arcoseno con parámetro$$t$$. La función de distribución$$H_t$$ y la función de densidad de probabilidad$$h_t$$ vienen dadas por\ begin {align} h_t (s) & =\ frac {2} {\ pi}\ arcsin\ left (\ sqrt {\ frac {s} {t}}\ right),\ quad 0\ le s\ le t\ h_t (s) & =\ frac {1} {\ pi\ sqrt {s (t - s)}},\ quad 0\ lt s\ lt t\ end {align}

Prueba

Para$$0 \le s \lt t$$, el evento$$Z_t \le s$$ es el mismo que$$\lef[E(s, t)\right]^c$$, que no hay ceros en el intervalo$$(s, t)$$. De ahí que la fórmula para$$H_t$$ se deduce del resultado anterior. Tomar el derivado de$$H_t$$ y simplificar da la fórmula para$$h_t$$.

La función de densidad de$$Z_t$$ es$$u$$ conformada y simétrica alrededor del punto medio$$t / 2$$, por lo que los puntos con mayor densidad son aquellos cercanos a los puntos finales 0 y$$t$$, un resultado sorprendente al principio. La distribución del arcoseno se estudia con más detalle en el capítulo sobre distribuciones especiales.

La media y varianza$$Z_t$$ de

1. $$\E(Z_t) = t / 2$$
2. $$\E(Z_t) = t^2 / 8$$
Prueba

Estos son resultados estándar para la distribución del arcoseno. Que la media es el punto medio$$t/2$$ también se desprende de la simetría, por supuesto.

En la simulación del movimiento browniano estándar, seleccione la última variable cero. Varíe el parámetro$$t$$ y anote la forma de la función de densidad de probabilidad y el tamaño y ubicación de la barra de desviación estándar media. Para los valores seleccionados de$$t$$ ejecución la simulación es modo de un solo paso varias veces y anotar la posición del último cero. Finalmente, ejecute la simulación 1000 veces y compare la función de densidad empírica y los momentos con la función de densidad de probabilidad verdadera y los momentos.

Abra el simulador de distribución especial y seleccione la distribución de arcoseno. Varíe los parámetros y anote la forma y ubicación de la función de densidad de probabilidad y el tamaño y ubicación de la barra de desviación estándar media. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y compare la función de densidad empírica y los momentos con la función de densidad verdadera y los momentos.

Ahora vamos a$$Z = \{t \in [0, \infty): X_t = 0\}$$ denotar el conjunto de ceros de$$\bs{X}$$, por lo que$$Z$$ es un subconjunto aleatorio de$$[0, \infty)$$. El teorema a continuación da algunas de las extrañas propiedades del conjunto aleatorio$$Z$$, pero para entenderlas, necesitamos revisar algunas definiciones. Un conjunto denso en ninguna parte es un conjunto cuyo cierre tiene interior vacío. Un conjunto perfecto es un conjunto sin puntos aislados. Como de costumbre, dejamos$$\lambda$$ denotar Lebesgue medir en$$\R$$.

1. $$Z$$está cerrado.
2. $$\lambda(Z) = 0$$
3. $$Z$$no es denso en ninguna parte.
4. $$Z$$es perfecto.
Prueba
1. Tenga en cuenta que$$Z$$ es la imagen inversa del conjunto cerrado$$\{0\}$$ bajo la función$$t \mapsto X_t$$. Dado que esta función es continua con probabilidad 1,$$Z$$ se cierra con probabilidad 1.
2. Por cada$$t \in (0, \infty)$$ nota que$$\P(t \in Z) = \P(X_t = 0) = 0$$ desde entonces$$X_t$$ tiene una distribución continua. Usando el teorema de Fubini$\E\left[\lambda(Z)\right] = \E \left[\int_0^\infty \bs{1}_Z(t) \, d\lambda(t)\right] = \int_0^\infty \E\left[\bs{1}_Z(t)\right] \, d\lambda(t) = 0$ y por lo tanto$$\P\left[\lambda(Z) = 0\right] = 1$$,
3. Ya que$$Z$$ está cerrado y tiene Lebesgue medida 0, su interior está vacío (todas estas declaraciones con probabilidad 1).
4. Supongamos que$$s \in Z$$. Entonces por las propiedades de homogeneidad temporal y espacial,$$t \mapsto X_{s + t}$$ es también un movimiento browniano estándar. Pero entonces por el resultado arriba sobre ceros, con probabilidad 1,$$\bs{X}$$ tiene un cero en el intervalo$$(s, s + 1 / n)$$ para cada uno$$n \in \N_+$$. De ahí$$s$$ que no sea un punto aislado de$$Z$$.

El siguiente teorema da una propiedad más profunda de$$Z$$. La dimensión Hausdorff de$$Z$$ está a medio camino entre la de un punto (cota 0) y una línea (dimensión 1).

$$Z$$tiene dimensión Hausdorff$$\frac{1}{2}$$.

### La ley del logaritmo iterado

Como de costumbre, deje$$\bs{X} = \{X_t: t \in [0, \infty)\}$$ ser el movimiento browniano estándar. Por definición, sabemos que$$X_t$$ tiene la distribución normal con media 0 y desviación estándar$$\sqrt{t}$$, por lo que la función$$x = \sqrt{t}$$ da una idea de cómo crece el proceso en el tiempo. La tasa de crecimiento precisa viene dada por la famosa ley del logaritmo iterado

Con probabilidad 1,$\limsup_{t \to \infty} \frac{X_t}{\sqrt{2 t \ln \ln t}} = 1$

## Ejercicios Computacionales

En los siguientes ejercicios,$$\bs{X} = \{X_t: t \in [0, \infty)\}$$ es un proceso de movimiento browniano estándar.

Encuentre explícitamente la función de densidad de probabilidad, la matriz de covarianza y la matriz de correlación de$$(X_{0.5}, X_1, X_{2.3})$$.

This page titled 18.1: Movimiento Browniano Estándar is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.