Saltar al contenido principal
LibreTexts Español

2.2: Estimación de la función de autocovarianza

  • Page ID
    148646
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En esta sección se aborda la estimación del ACVF y el ACF al rezago\(h\). Recordemos de la ecuación (1.2.1) que el estimador

    \[ \hat{\gamma}(h)=\frac 1n\sum_{t=1}^{n-|h|}(X_{t+|h|}-\bar{X}_n)(X_t-\bar{X}_n), \qquad h=0,\pm 1,\ldots, \pm(n-1), \nonumber \]

    puede ser utilizado como un proxy para lo desconocido\(\gamma(h)\). Como estimador para el ACF\(\rho(h)\),

    \[ \hat{\rho}(h)=\frac{\hat{\gamma}(h)}{\hat\gamma(0)},\qquad h=0,\pm 1,\ldots,\pm(n-1), \nonumber \]

    fue identificado. Algunas de las propiedades teóricas de\(\hat{\rho}(h)\) se recogen brevemente a continuación. No son tan obvias de derivar como en el caso de la media muestral, y se omiten todas las pruebas. Obsérvese también que declaraciones similares\(\hat{\gamma}(h)\) se mantienen para también.

    • El estimador\(\hat{\rho}(h)\) es generalmente sesgado, es decir,\(E[\hat{\rho}(h)]\not=\rho(h)\). Sostiene, sin embargo, bajo suposiciones no restrictivas que\[ E[\hat{\rho}(h)]\to\rho(h)\qquad (n\to\infty). \nonumber \] Esta propiedad se denomina falta de sesgo asintótico.
    • El estimador\(\hat{\rho}(h)\) es consistente para\(\rho(h)\) bajo un conjunto apropiado de supuestos, es decir,\(\mathrm{Var}(\hat{\rho}(h)-\rho(h))\to 0\) como\(n\to\infty\).

    Ya se estableció en la Sección 1.5 cómo se\(\hat{\rho}\) puede utilizar el ACF de muestra para probar si los residuos consisten en variables de ruido blanco. Para una inferencia estadística más general, se necesita conocer la distribución muestral de\(\hat{\rho}\). Dado que la estimación de\(\rho(h)\) se basa en solo unas pocas observaciones para\(h\) cerca del tamaño de la muestra\(n\), las estimaciones tienden a ser poco confiables. Como regla general, dada por Box y Jenkins (1976),\(n\) debe ser por lo menos 50 e\(h\) inferior o igual a n/4.

    Teorema\(\PageIndex{1}\)

    For\(m\geq 1\), let\(\mathbf{\rho}_m=(\rho(1),\ldots,\rho(m))^T\) y\(\mathbf{\hat{\rho}}_m=(\hat{\rho}(1),\ldots,\hat{\rho}(m))^T\), donde\(^T\) denota la transposición de un vector. Bajo un conjunto de supuestos adecuados, sostiene que

    \[ \sqrt{n}(\mathbf{\hat{\rho}}_m-\mathbf{\rho}_m)\sim AN(\mathbf{0},\Sigma)\qquad (n\to\infty), \nonumber \]

    donde\(\sim AN(0,\Sigma)\) significa aproximadamente distribuido normalmente con vector medio\(\mathbf{0}\) y matriz de covarianza\(\Sigma=(\sigma_{ij})\) dada por la fórmula de Bartlett

    \[ \sigma_{ij}=\sum_{k=1}^\infty\big[\rho(k+i)+\rho(k-i)-2\rho(i)\rho(k)\big]\big[\rho(k+j)+\rho(k-j)-2\rho(j)\rho(k)\big]. \nonumber \]

    El apartado se concluye con dos ejemplos. El primero recuerda los resultados ya conocidos para variables aleatorias independientes, distribuidas idénticamente, el segundo trata sobre el proceso autorregresivo del Ejemplo (2.2.1).

    Ejemplo\(\PageIndex{1}\)

    Vamos\((X_t\colon t\in\mathbb{Z})\sim\mathrm{IID}(0,\sigma^2)\). Entonces,\(\rho(0)=1\) y\(\rho(h)=0\) para todos\(h\not=0\). Por lo tanto, la matriz\(\Sigma\) de covarianza viene dada por

    \[ \sigma_{ij}=1\quad\mbox{if $i=j$} \qquad and \qquad \sigma_{ij}=0\quad\mbox{if $i\not=j$}. \nonumber \]

    Esto quiere decir que\(\Sigma\) es una matriz diagonal. En vista del Teorema 2.2.1 se sostiene así que los estimadores\(\hat{\rho}(1),\ldots,\hat{\rho}(k)\) son aproximadamente variables aleatorias normales independientes e idénticamente distribuidas con media 0 y varianza\(1/n\). Esta fue la base para los Métodos 1 y 2 en la Sección 1.6 (ver también Teorema 1.2.1).

    Ejemplo\(\PageIndex{2}\)

    Reconsiderar el proceso autorregresivo\((X_t\colon t\in\mathbb{Z})\) del Ejemplo 2.1.1 con\(\mu=0\). Dividiendo\(\gamma(h)\) por\(\gamma(0)\) rendimientos que

    \[ \rho(h)=\phi^{|h|},\qquad h\in\mathbb{Z}. \nonumber \]

    Ahora las entradas diagonales de\(\Sigma\) se calculan como

    \ begin {align*}
    \ sigma_ {ii} &=\ sum_ {k=1} ^\ infty\ grande [\ rho (k+i) +\ rho (k-i) -2\ rho (i)\ rho (k)\ grande] ^2\\ [.2cm]
    &=\ suma_ {k=1} ^i\ phi^ {2i} (\ phi^ {-k} -\ phi^k) ^2+\ sum_ {k=i+1} ^\ infty\ phi^ {2k} (\ phi^ {-i} -\ phi^i) ^2\\ [.2cm]
    & =( 1-\ phi^ {2i}) (1+\ phi^2) (1-\ phi^2) ^ {-1} -2i\ phi^ {2i}.
    \ end {alinear*}


    This page titled 2.2: Estimación de la función de autocovarianza is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.