Saltar al contenido principal
LibreTexts Español

4.3: Estacionariedad

  • Page ID
    84235
    • Franz S. Hover & Michael S. Triantafyllou
    • Massachusetts Institute of Technology via MIT OpenCourseWare
    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Un proceso aleatorio estacionario es aquel cuyas estadísticas de conjunto no dependen del tiempo. Intuitivamente, esto significa que si tuviéramos que muestrear una secuencia de procesos, al mismo tiempo dentro de cada proceso, y computar estadísticas de este conjunto de datos, no encontraríamos dependencia de las estadísticas sobre el tiempo de las muestras. El ruido del motor de la aeronave es un proceso estacionario en vuelo nivelado, mientras que el sonido de las voces humanas en vivo no lo es. Para un proceso estacionario\(m(t) = m\), es decir, la media del conjunto no tiene dependencia del tiempo. Lo mismo ocurre con las demás estadísticas:\(V(t) = R(t, \, 0) = V\), y\(R(t, \, \tau) = R(\tau)\). Formalmente, un proceso estacionario tiene todas las estadísticas de conjunto independientes del tiempo, mientras que nuestro caso de que las funciones de media, varianza y autocorrelación son independientes del tiempo define un proceso estacionario de segundo orden (más débil).

    Aquí hay un ejemplo:\(y_i(t) = a \cos (\omega_o t + \theta_i)\), donde\(\theta_i\) es una variable aleatoria, distribuida uniformemente en el rango\([0, 2\pi]\). ¿Este proceso es estacionario? Tenemos que demostrar que las tres estadísticas de conjunto son independientes del tiempo:

    \ begin {alinear*} E (y (t)) &=\ dfrac {1} {2\ pi}\ int\ límites_ {0} ^ {2\ pi} a\ cos (\ omega_o t +\ theta)\, d\ theta = 0\\ [4pt] R (t,\,\ tau) &= E (y (t) y (t +\ tau)\\ [4pt] &=\ dfrac {1} {2\ pi}\ int\ limits_ {0} ^ {2\ pi} a^2\ cos (\ omega_o t +\ theta)\ cos (\ omega_o (t +\ tau) +\ theta)\, d\ theta\\ [4pt] & amp; =\ dfrac {1} {2} a^2\ cos (\ omega_o\ tau)\\ [4pt] V (t) &= R (t,\, 0). \ end {align*}

    Así, el proceso es estacionario de segundo orden.

    Como se señaló anteriormente, las estadísticas de un proceso estacionario no son necesariamente las mismas que los promedios de tiempo. Un ejemplo muy sencillo de esto es un lanzamiento de moneda, en el que las cabezas disparan\(x_1(t) = 1\) y\(x_2(t) = 2\). Claramente la media a tiempo de\(x_1(t)\) es una, pero la media de conjunto en cualquier momento lo es\(E(x(t_o)) = 1.5\). Esta diferencia ocurre aquí a pesar de que el proceso es obviamente estacionario.

    Cuando las estadísticas de conjunto y los promedios de tiempo son los mismos, decimos que el proceso es ergódico. Continuando con nuestro ejemplo anterior, calculemos ahora los promedios de tiempo:

    \ begin {alinear*} m (y_i (t)) &=\ lim_ {T\ a\ infty}\ dfrac {1} {T}\ int\ limits_ {0} ^ {T} a\ cos (\ omega_o t +\ theta_i)\, dt\\ [4pt] &=\ lim_ {T\ a\ infty}\ dfrac {} {T}\, a\,\ dfrac {1} {\ omega_o}\ sin (\ omega_o t +\ theta_i) |_0^T\\ [4pt] &= 0;\\ [4pt] R^t (\ tau) &=\ lim_ {T\ a\ infty}\ dfrac {1 } {T}\ int\ límites_ {0} ^ {T} a^2\ cos (\ omega_o t +\ theta_i)\ cos (\ omega_o (t +\ tau) +\ theta_i)\, dt\\ [4pt] &=\ dfrac {1} {2} a^2\ cos (\ omega_o\ tau);\\ [4pt] v^t &= R^t (0) =\ dfrac {a^2} {2}. \ end {align*}

    Entonces una sinusoide en fase aleatoria es un proceso ergódico. De hecho, esta forma es una base para modelar procesos aleatorios naturales como las olas del océano, las condiciones atmosféricas y varios tipos de ruido. En particular, se puede verificar que la construcción

    \[ y(t) = \sum_{n=1}^N a_n \cos (\omega_n t + \theta_n), \]

    donde\(\theta_n\) se distribuyen de manera independiente y uniforme en\([0, \, 2 \pi]\) es estacionario y ergodico. Tiene cero medio, y autocorrelación

    \[ R(\tau) = \sum_{n=1} \dfrac{a_n ^2}{2} \cos (\omega_n \tau). \]

    Ahora hacemos dos notas al margen. Bajo condiciones estacionarias y ergódicas, la función de autocorrelación es simétrica sobre positiva y negativa\(\tau\) porque siempre podemos escribir

    \[ R(\tau) = E(x(t)x(t + \tau)) = E(x(t' - \tau)x(t')), \textrm{ where } t' = t + \tau. \]

    Además, tenemos la desigualdad que\(R(0) \geq |R(\tau))|\) para cualquier\(\tau\). Para ver esto,

    \ begin {align} 0\ leq E [x (t) + x (t +\ tau)) ^2]\, &=\, E [x (t) ^2] + 2E [x (t) x (t +\ tau)] + E [x (t +\ tau) ^2]\\ [4pt] &=\, 2R (0) + 2R (\ tau);\ textrm {similarmente,}\ nonumber\\ [4pt] {}\ nonumber\\ [4pt] 0\ leq E [x (t) - x (t +\ tau)) ^2]\, &= E [x (t) ^2] - 2E [x (t) x (t +\ tau)] + E [x (t +\ tau) ^2]\ [4 pt] &=\, 2R (0) - 2R (\ tau). \ nonumber\ end {align}

    La única forma en que ambos pueden ser ciertos es si\(R(0) \geq |R(\tau)|\).


    This page titled 4.3: Estacionariedad is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Franz S. Hover & Michael S. Triantafyllou (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.