Saltar al contenido principal
LibreTexts Español

8.5: Cuestiones de Costo y Precisión

  • Page ID
    84056
    • Franz S. Hover & Michael S. Triantafyllou
    • Massachusetts Institute of Technology via MIT OpenCourseWare
    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    El saldo de costo versus error para los métodos anteriores se resumen como:

    • El estimador Montecarlo tiene una varianza que disminuye con\(1/N\), donde\(N\) está el número de evaluaciones. No hay dependencia de la dimensión aleatoria\(d\) ni de la forma de la función.
    • La regla trapezoidal en una dimensión tiene un error que disminuye con\(n^{-2}\).
    • La cuadratura Gauss-Hermite en una dimensión coincide exactamente con todos los polinomios\(g(x)\) de orden menor o igual a\(2n-1\), y hace posible el mejor ajuste cuando es de orden superior. El error es cero si\(g(x)\) es un polinomio de orden\(2n-1\) o menos, pero si no entonces el error va como\(n-r\), donde\(r\) esta la” suavidad” de la función. La suavidad es la misma que el número de derivados que se pueden tomar en todas partes del dominio.

    Algunas leyes de escalado simples pero importantes muestran que el Monte Carlo finalmente superará a cualquier regla de cuadratura, en dimensiones suficientemente altas. Recordemos que el estimador MC\(G\) tiene error -o desviación estándar de error- que escala como\[\epsilon \, = \, O (1 / \sqrt{N}).\]

    Ahora, en contraste, el error de una regla de cuadratura en una dimensión escala como\[ \epsilon \, = \, O (n^{-k}), \] donde\(k\) es un parámetro del método utilizado y la función misma, que es dos para el trapecio que describimos anteriormente, y la suavidad\(r\) para la cuadratura gaussiana. Considerando el caso de cuadratura multidimensional, el error permanece igual pero ahora el número total de evaluaciones\(N\) incluye todos los puntos de la cuadrícula, es decir,\(N = n^d\) (asumiendo\(N_1 = N_2 = \cdots = N)\). Por lo tanto, tenemos

    \[ \epsilon \, = \, O ((N^{1/d})^{-k}) \, = \, O (N^{-k/d}). \]

    El error en las reglas de cuadratura se ve afectado dramáticamente por\(d\): ¡incluso en dos dimensiones, la\(n^{-2}\) convergencia de la regla trapezoidal se degrada a\(n^{-1}\)! En cuatro dimensiones, la tasa de error de\(1 / \sqrt{N}\) es la misma que para Montecarlo. A la cuadratura gaussiana le va mejor para algunas funciones, pero hay muchas para las cuales\(r = 2\); por ejemplo, ¡la inocua\(g(x) = x^2 |x|\)!

    Otro factor importante a considerar es que las reglas de cuadratura intentan inherentemente hacer una aproximación polinómica de la función, mientras que la técnica de Montecarlo no tiene tal intención. Las funciones discontinuas y por lo demás no suaves en particular pueden causar serios problemas a las cuadraturas, que deben tener muchos puntos para cubrir los puntos afilados con precisión.

    Resumiendo, le recomendamos que mantenga a mano las dos clases principales de herramientas de integración: sin cuadrícula y basadas en cuadrícula. Para dimensiones más bajas y funciones más suaves, las cuadraturas gaussianas pueden proporcionar resultados excepcionales, mientras que el caballo de batalla de Montecarlo siempre sale en la cima para funciones difíciles de alta dimensión. Las diferencias son triviales para evaluaciones muy baratas de\(g\), pero se vuelven muy convincentes cuando cada evaluación lleva mucho tiempo de computadora, o implica un experimento real.

    Existen extensiones sustanciales a las reglas de cuadratura multidimensional y a los métodos de Montecarlo, algunas de las cuales están disponibles en las siguientes referencias:

    M.H. Kalos y P.A. Whitlock, 1986, métodos Monte Carlo, volumen 1: fundamentos, Nueva York: Wiley.

    W.H. Press, S.A. Teukolsky, W.T. Vetterling, y B.P. Flannery, 1992, Recetas numéricas en C, Cambridge, Reino Unido: Cambridge University Press.


    This page titled 8.5: Cuestiones de Costo y Precisión is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Franz S. Hover & Michael S. Triantafyllou (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.