Saltar al contenido principal
LibreTexts Español

3.6: Selección de modelos

  • Page ID
    148652
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En esta sección, se proporcionará una guía aproximada para realizar el análisis de datos. Consta de varias partes, la mayoría de las cuales han sido discutidas previamente. El enfoque principal está en la selección\(p\) y\(q\) en el probable caso de que estos parámetros sean desconocidos.

    Paso 1. Trazar los datos y verificar si la variabilidad permanece o no razonablemente estable durante todo el período de observación. Si ese no es el caso, utilice transformaciones preliminares para estabilizar la varianza. Una clase popular viene dada por las
    transformaciones de Box-Cox (Box y Cox, 1964)
    \ [f_\ lambda (u_t) =\ left\ {\ begin {array} {l@ {\ qquad} l}
    \ lambda^ {-1} (u_t^\ lambda-1), & u_t\ geq 0,\;\ lambda>0.\\ [.2cm]
    \ ln u__T y U _t>0,\;\ lambda=0. \ end {array}\ right. \ nonumber\]
    En la práctica\(f_0\) o a menudo\(f_{1/2}\) son opciones adecuadas. (Recordemos, por ejemplo, los datos de ventas de vino australiano del Ejemplo 1.4.1.)

    Paso 2. Eliminar, si están presentes, los componentes de tendencia y estacionales de los datos. El Capítulo 1 introdujo una serie de herramientas para hacerlo, basadas en
    la descomposición clásica de una serie de tiempo
    \[ Y_t=m_t+s_t+X_t \nonumber \]
    en una tendencia, una estacionalidad y un componente residual. Tenga en cuenta que la diferenciación también funciona sin la representación específica en la última pantalla. Si los datos aparecen estacionarios, pase al siguiente paso. De lo contrario aplicar, por ejemplo, otro conjunto de operaciones de diferencia.

    Paso 3. Supongamos ahora que los Pasos 1 y 2 nos han proporcionado observaciones que están bien descritas por una secuencia estacionaria\((X_t\colon t\in\mathbb{Z})\). El objetivo es entonces encontrar el ARMA (\(p,q)\)modelo más adecuado para describir el proceso. En el improbable caso de que\(p\) y\(q\) pueda suponerse conocido, utilizar directamente los procedimientos de estimación de la Sección 3.5. De lo contrario, elíjalos según uno de los siguientes criterios.

    a) El criterio estándar que normalmente se implementa en paquetes de software es una modificación del criterio de información de Akaike, véase Akaike (1969), que fue dado por Hurvich y Tsai (1989). En este trabajo se sugiere elegir los parámetros del modelo ARMA para minimizar la función objetiva
    \ begin {ecuación}\ label {eq:3.7.1}
    {\ rm AIC} _C (\ phi,\ theta, p, q)
    =-2\ ln L (\ phi,\ theta, S (\ phi,\ theta) /n)
    +\ frac {2 (p+q+1) n} {n-p-q-2}. \ tag {3.6.1}
    \ fin {ecuación}

    Aquí,\(L(\phi,\theta,\sigma^2)\) denota la verosimilitud gaussiana definida en (3.5.4) y\(S(\phi,\theta)\) es la suma ponderada de cuadrados en (3.5.5). Se puede ver a partir de la definición que el\({\rm AIC}_C\) no intenta minimizar directamente la función de verosimilitud logarítmica. La introducción del término de penalización en el lado derecho de (3.6.1) reduce el riesgo de sobreajuste.

    b) Para procesos autorregresivos puros, Akaike (1969) introdujo un criterio que se basa en una minimización del error de predicción final. Aquí, el orden\(p\) se elige como el minimizador de la función objetivo
    \[ {\rm FPE}=\hat{\sigma}^2\frac{n+p}{n-p}, \nonumber \]
    donde\(\hat{\sigma}^2\) denota el MLE de la varianza de ruido desconocida\(\sigma^2\). Para más información sobre este tema y otros procedimientos que ayudan a encajar un modelo, nos referimos aquí a la Sección 9.3 de Brockwell y Davis (1991).

    Paso 4. El último paso en el análisis se refiere a la comprobación diagnóstica mediante la aplicación de las pruebas de bondad de ajuste de la Sección 1.5.


    This page titled 3.6: Selección de modelos is shared under a not declared license and was authored, remixed, and/or curated by Alexander Aue.