Saltar al contenido principal
LibreTexts Español

2.1: Estimación de la media

  • Page ID
    148644
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Supongamos que hay que encontrar una suposición apropiada para\(\mu\) la media desconocida de algún proceso\((X_t\colon t\in\mathbb{Z})\) estocástico débilmente estacionario. La media muestral\(\bar{x}\), fácilmente computada como la media\(x_1,\ldots,x_n\) de\(n\) observaciones del proceso, ha sido identificada como adecuada en la Sección 1.2. Para investigar sus propiedades teóricas, es necesario analizar la variable aleatoria asociada a ella, es decir,

    \[ \bar{X}_n=\frac 1n(X_1+\ldots+X_n). \nonumber \]

    Dos hechos se pueden establecer rápidamente.

    • \(\bar{X}_n\)es un estimador imparcial para\(\mu\), ya que

    \[ E[\bar{X}_n]=E\left[\frac 1n\sum_{t=1}^nX_t\right]=\frac 1n\sum_{t=1}^nE[X_t]=\frac 1n n\mu=\mu. \nonumber \]

    Esto quiere decir que “en promedio”, lo verdadero pero desconocido\(\mu\) se estima correctamente. Observe que no hay diferencia en los cálculos entre el caso estándar de variables aleatorias independientes e idénticamente distribuidas y el proceso débilmente estacionario más general considerado aquí.

    • Si\(\gamma(n)\to 0\) as\(n\to\infty\), entonces\(\bar{X}_n\) es un estimador consistente para\(\mu\), ya que

    \ begin {align*}
    \ mathrm {Var} (\ bar {X} _n) &=\ mathrm {Cov}\ left (\ frac 1n\ suma_ {s=1} ^nx_s,\ frac 1n\ suma_ {t=1} ^nx_t\ derecha)
    =\ frac {1} {n^2}\ sum_ {s=1} ^n\ sum_ {n\ sum_ {s=1} ^n\ sum_ {t=1} ^n\ mathrm {Cov} (x_s, x_t)\\ [.2cm]
    &=\ frac {1} {n^2}\ suma_ {s-t=-n} ^n (n-|s-t|)\ gamma (s-t)
    =\ frac 1n\ suma_ {h=-n} ^n\ izquierda (1-\ frac {|h|} {n}\ derecha)\ gamma (h).
    \ end {alinear*}

    Ahora, la cantidad del lado derecho converge a cero como\(n\to\infty\) porque\(\gamma(n)\to 0\) como\(n\to\infty\) por suposición. El primer signo de igualdad en la última matriz de ecuaciones se desprende del hecho de que\(\mathrm{Var}(X)=\mathrm{Cov}(X,X)\) para cualquier variable aleatoria\(X\), el segundo signo de igualdad utiliza que la función de covarianza es lineal en ambos argumentos. Para la tercera igualdad, se puede usar eso\(\mathrm{Cov}(X_s,X_t)=\gamma(s-t)\) y que cada uno\(\gamma(s-t)\) aparece exactamente\(n-|s-t|\) veces en la doble suma. Finalmente, el lado derecho se obtiene reemplazando\(s-t\) con\(h\) y tirando de uno\(n^{-1}\) dentro de la suma.

    En el caso estándar de variables aleatorias independientes e idénticamente distribuidas\(n\mathrm{Var}(\bar{X})=\sigma^2\). La condición\(\gamma(n)\to 0\) se satisface automáticamente. Sin embargo, en el caso general de procesos débilmente estacionarios, no puede omitirse.

    Se puede probar más usando un conjunto apropiado de suposiciones. Los resultados se formulan como teorema sin dar las pruebas.

    Teorema\(\PageIndex{1}\)

    Dejar\((X_t\colon t\in\mathbb{Z})\) ser un proceso estocástico débilmente estacionario con media\(\mu\) y ACVF\(\gamma\). Entonces, las siguientes afirmaciones se mantienen verdaderas como\(n\to\infty\).

    1. Si\(\sum_{h=-\infty}^\infty|\gamma(h)|<\infty\), entonces\[ n\mathrm{Var}(\bar{X}_n)\to \sum_{h=-\infty}^\infty\gamma(h)=\tau^2; \nonumber \]
    2. Si el proceso es “cercano a la Gaussianidad”, entonces\[ \sqrt{n}(\bar{X}_n-\mu)\sim AN(0,\tau_n^2), \qquad \tau_n^2=\sum_{h=-n}^n\left(1-\frac{|h|}{n}\right)\gamma(h). \nonumber \]

    Aquí,\(\sim AN(0,\tau_n^2)\) significa aproximadamente distribuido normalmente con media cero y varianza\(\tau_n^2\).

    El teorema\(\PageIndex{1}\) puede ser utilizado para construir intervalos de confianza para el parámetro medio desconocido\(\mu\). Para ello, se debe, sin embargo, estimar el parámetro de varianza desconocida\(\tau_n\). Para una gran clase de procesos estocásticos, sostiene que\(\tau_n^2\) converge a\(\tau^2\) as\(n\to\infty\). Por lo tanto, podemos utilizar\(\tau^2\) como aproximación para\(\tau_n^2\). Además,\(\tau^2\) se puede estimar por

    \[ \hat{\tau}_n^2=\sum_{h=-\sqrt{n}}^{\sqrt{n}}\left(1-\frac{|h|}{n}\right)\hat{\gamma}(h), \nonumber \]

    donde\(\hat{\gamma}(h)\) denota el estimador ACVF definido en (1.2.1). Un intervalo de confianza aproximado del 95% para ahora se\(\mu\) puede construir como

    \[ \left(\bar{X}_n-1.96\frac{\hat{\tau}_n}{\sqrt{n}},\bar{X}_n+1.96\frac{\hat{\tau}_n}{\sqrt{n}}\right). \nonumber \]

    Ejemplo\(\PageIndex{1}\): Autoregressive Processes

    Dejar\((X_t\colon t\in\mathbb{Z})\) que se den por las ecuaciones

    \ begin {ecuación}\ label {eq:2.1.1}
    x_t-\ mu=\ phi (X_ {t-1} -\ mu) +z_t,\ qquad t\ in\ mathbb {Z},\ tag {2.1.1}\
    \ end {ecuación}

    dónde\((Z_t\colon t\in\mathbb{Z})\sim\mathrm{WN}(0,\sigma^2)\) y\(|\phi|<1\). Se mostrará en el Capítulo 3 que\((X_t\colon t\in\mathbb{Z})\) define un proceso débilmente estacionario. Utilizando la diferencia estocástica Ecuaciones\ ref {2.1.1}, se pueden determinar tanto la media como las autocovarianzas. Eso sostiene\(E[X_t]=\phi E[X_{t-1}]+\mu(1-\phi)\). Dado que, por estacionariedad, se\(E[X_{t-1}]\) puede sustituir por\(E[X_t]\), se deduce que

    \[ E[X_t]=\mu,\qquad t\in\mathbb{Z}. \nonumber \]

    En lo siguiente trabajaremos con el proceso\((X_t^c\colon t\in\mathbb{Z})\) dado al dejar\(X_t^c=X_t-\mu\). Claramente,\(E[X_t^c]=0\). De la definición, se deduce también que las covarianzas de\((X_t\colon t\in\mathbb{Z})\) y\((X_t^c\colon t\in\mathbb{Z})\) coinciden. Primero computar el segundo momento de\(X_t^c\), da

    \[ E[\{X_t^c\}^2]=E\big[(\phi X_{t-1}^c+Z_t)^2\big]=\phi^2E[\{X_{t-1}^c\}^2]+\sigma^2 \nonumber \]

    y en consecuencia, ya que\(E[\{X_{t-1}^c\}^2]=E[\{X_t^c\}^2]\) por débil estacionariedad de\((X_t^c\colon t\in\mathbb{Z})\),

    \[ E[\{X_t^c\}^2]=\frac{\sigma^2}{1-\phi^2},\qquad t\in\mathbb{Z}. \nonumber \]

    Se hace evidente a partir de esta última ecuación, por qué\(|\phi|<1\) se necesitaba la condición en exhibición (2.1.1). En el siguiente paso, se calcula la función de autocovarianza. Pues\(h>0\), sostiene que

    \[ \gamma(h)=E[X_{t+h}^cX_t^c]=E\big[(\phi X_{t+h-1}^c+Z_{t+h})X_t^c\big]=\phi E[X_{t+h-1}^cX_t^c]=\phi\gamma(h-1)=\phi^{h}\gamma(0) \nonumber \]

    después de\(h\) iteraciones. Pero como\(\gamma(0)=E[\{X_t^c\}^2]\), por simetría de la ACVF, se deduce que

    \[ \gamma(h)=\frac{\sigma^2\phi^{|h|}}{1-\phi^2},\qquad h\in\mathbb{Z}. \nonumber \]

    Después de estas consideraciones teóricas, se\(\mu\) puede construir un intervalo de confianza del 95% (asintótico) para el parámetro medio. Para verificar si el Teorema 2.1.1 es aplicable aquí, es necesario verificar si las autocovarianzas son absolutamente sumables:

    \ begin {align*}
    \ tau^2&=\ sum_ {h=-\ infty} ^\ infty\ gamma (h) =\ frac {\ sigma^2} {1-\ phi^2}\ left (1+2\ sum_ {h=1} ^\ infty\ phi^h\ derecha)
    =\ frac {\ sigma^2} {1-\ phi^2}\ izquierda (1+\ frac {2} {1-\ phi} -2\ derecha)\\ [.2cm]
    &=\ frac {\ sigma^2} {1-\ phi^2}\ frac {1} {1-\ phi} (1+\ phi) =\ frac {\ sigma^2} {(1- \ phi) ^2} <\ infty.
    \ end {alinear*}

    Por lo tanto, un intervalo de confianza del 95% para el\(\mu\) cual se basa en los valores observados\(x_1,\ldots,x_n\) viene dado por

    \[ \left(\bar{x}-1.96\frac{\sigma}{\sqrt{n}(1-\phi)},\bar{x}+1.96\frac{\sigma}{\sqrt{n}(1-\phi)}\right). \nonumber \]

    En ella, los parámetros\(\sigma\) y\(\phi\) tienen que ser reemplazados por estimadores apropiados. Estos se introducirán en el Capítulo 3.


    This page titled 2.1: Estimación de la media is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.