Saltar al contenido principal
LibreTexts Español

8.1: Estimación y simulación estadística

  • Page ID
    87542
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Modelos Aleatorios y Fenómenos

    En entornos de ciencia e ingeniería, a menudo nos encontramos con experimentos cuyo resultado no se puede determinar con certeza en la práctica y se describe mejor como aleatorio. Un ejemplo de tal experimento aleatorio es un volteo de monedas. El resultado de voltear una moneda (justa) es cabeza (H) o cola (T), teniendo cada resultado la misma probabilidad. Aquí, definimos la probabilidad de un resultado dado como la frecuencia de su ocurrencia si el experimento se repite un gran número de veces. \({ }^{1}{ }^{-}\)En otras palabras, cuando decimos que hay igual probabilidad de cara y cola, queremos decir que habría igual número de cabezas y colas si una moneda justa es volteada un número grande (técnicamente infinito) de veces. Además, esperamos que el resultado de un experimento aleatorio sea impredecible en algún sentido; una moneda que produce consistentemente una secuencia HTHTHTHT o HHHTTTHHHTTT difícilmente puede llamarse aleatoria. En el caso de un giro de moneda, podemos asociar esta noción de imprevisibilidad o aleatoriedad con la incapacidad de predecir con certeza el resultado del siguiente giro conociendo los resultados de todos los giros anteriores. En otras palabras, el resultado de cualquier volteo dado es independiente o no está relacionado con el resultado de otros giros.

    Mientras que el evento de cabezas o colas es aleatorio, la distribución del resultado a lo largo de un gran número de experimentos repetidos (es decir, la densidad de probabilidad) está determinada por parámetros no aleatorios. En el caso de un giro de moneda, el único parámetro que dicta la densidad de probabilidad es la probabilidad de cabezas, que es\(1 / 2\) para una moneda justa; para una moneda no justa, la probabilidad de cabezas es (por definición) diferente de\(1 / 2\) pero sigue siendo algún número fijo entre 0 y 1 .

    Ahora consideremos brevemente por qué el resultado de cada volteo de moneda puede considerarse aleatorio. El resultado de cada volteo se rige en realidad por un proceso determinista. De hecho, dada una descripción completa del experimento -la masa y el momento de inercia de la moneda, la velocidad de lanzamiento inicial, el momento angular inicial, la elasticidad de la superficie de aterrizaje, la densidad del aire, etc- podemos, en principio, predecir el resultado de nuestro giro de moneda resolviendo un conjunto de gobernantes deterministas ecuaciones - Ecuaciones de Euler para dinámica de cuerpos rígidos, ecuaciones de Navier-Stokes para aerodinámica, etc. Sin embargo, incluso para algo tan simple como voltear una moneda, el número de variables que describen el estado del sistema es muy grande. Además, las ecuaciones que relacionan el estado con el resultado final (i.e.

    \({ }^{1}\)Nos adherimos a la visión frecuentística de la probabilidad a lo largo de esta unidad. Observamos que la visión baysiana es una alternativa, interpretación popular de la probabilidad. cabezas o colas) son complicadas y el resultado es muy sensible a las condiciones que rigen los experimentos. Esto hace que la predicción detallada sea muy difícil, pero también sugiere que un modelo aleatorio -que considera solo el resultado y no la miríada de formas “descontroladas” en las que podemos observar el resultado- puede ser suficiente.

    Aunque utilizaremos un flip de monedas para ilustrar diversos conceptos de probabilidad a lo largo de esta unidad debido a su simplicidad y nuestra familiaridad con el proceso, observamos que los experimentos aleatorios son omnipresentes en la ciencia y la ingeniería. Por ejemplo, al estudiar la dinámica del gas, el movimiento de las moléculas individuales se describe mejor usando distribuciones de probabilidad. Recordando que 1 mol de gas contiene aproximadamente\(6 \times 10^{23}\) partículas, podemos ver fácilmente que la caracterización determinista de su movimiento no es práctica. Así, los científicos describen su movimiento en términos probabilísticos; de hecho, la velocidad y temperatura a macrosescala son parámetros que describen la distribución de probabilidad del movimiento de la partícula, así como la equidad de una moneda dada puede caracterizarse por la probabilidad de una cabeza. En otra instancia, un ingeniero que estudia el efecto de la ráfaga en un avión puede usar distribuciones de probabilidad para describir el cambio en el campo de velocidad afectado por la ráfaga. Nuevamente, aunque el movimiento del aire está bien descrito por las ecuaciones de Navier-Stokes, la naturaleza altamente sensible de los flujos de turbulencia hace que la predicción determinista del comportamiento de la ráfaga sea poco práctica. Más importante aún, como lo más probable es que el ingeniero no esté interesado en la mecánica detallada que gobierna la formación y propagación de la ráfaga y solo le interesa su efecto sobre el avión (por ejemplo, tensiones), la velocidad de la ráfaga se describe mejor en términos de una distribución de probabilidad.

    Estimación estadística de parámetros/propiedades de distribuciones de probabilidad

    La estimación estadística es un proceso a través del cual deducimos parámetros que caracterizan el comportamiento de un experimento aleatorio basado en una muestra - un conjunto de típicamente grandes pero en cualquier caso número finito de resultados de experimentos aleatorios repetidos. \({ }^{2}{ }^{2}\)En la mayoría de los casos, postulamos una distribución de probabilidad -basada en algunos supuestos plausibles o con base en algunas observaciones descriptivas como el histograma crudo- con varios parámetros; luego deseamos estimar estos parámetros. Alternativamente, podemos desear deducir ciertas propiedades -por ejemplo, la media- de la distribución; estas propiedades pueden no caracterizar completamente la distribución, pero pueden ser suficientes para nuestros propósitos predictivos. (En otros casos, es posible que necesitemos estimar la distribución completa a través de una función empírica de distribución acumulativa; no consideraremos este caso más avanzado en este texto.) En Capítulo\(\underline{9}\), introduciremos una variedad de distribuciones útiles, funciones de masa de probabilidad discretas parametrizadas con mayor precisión y densidades de probabilidad continuas, así como diversas propiedades y técnicas que facilitan la interpretación de estas distribuciones.

    Ilustremos el proceso de estimación estadística en el contexto de un giro de moneda. Podemos voltear una moneda (digamos) 100 veces, registrar cada resultado observado y tomar la media de la muestra -la fracción que son cabezas- para estimar la probabilidad de cabezas. Esperamos de nuestra interpretación frecuentista que la media de la muestra se aproxime bien a la probabilidad de cabezas. Obsérvese que, solo podemos estimar -en lugar de evaluar- la probabilidad de cabezas porque evaluar la probabilidad de cabezas requeriría, por definición, un número infinito de experimentos. Esperamos que podamos estimar la probabilidad de cabezas -el único parámetro que dicta la distribución de nuestro resultado- con más confianza a medida que aumenta el tamaño de la muestra. Por ejemplo, si deseamos verificar la imparcialidad de una moneda dada, nuestra intuición nos dice que es más probable deducir su equidad (es decir, la probabilidad de que las cabezas sean iguales a\(0.5\)) correctamente si realizamos 10 volteretas que 3 volteretas. La probabilidad de aterrizar HHH usando una moneda justa en tres volteretas -de las cuales podríamos concluir incorrectamente que la moneda es injusta- es\(1 / 8\), lo cual no es tan improbable, pero la de aterrizar HHHHHHHHH en 10 volteretas es menor que 1 en 1000 juicios, lo cual es muy improbable.

    \({ }^{2}\)Proporcionaremos una definición matemática precisa de muestra en Capítulo\(10 .\) En los Capítulos 10 y 11, introduciremos un marco matemático que no solo nos permita estimar los parámetros que caracterizan un experimento aleatorio sino también cuantificar la confianza que debe tener en dicha caracterización; esta última, a su vez, nos permite hacer afirmaciones -como la imparcialidad de una moneda- con un determinado nivel de confianza. Consideramos dos casos ubicuos: una densidad de masa discreta de Bernoulli (relevante para nuestro modelo de volteo de monedas, por ejemplo) en el Capítulo 10; y la densidad normal en el Capítulo\(11 .\)

    Por supuesto, el objetivo final de la estimación es la inferencia - predicción. En algunos casos los parámetros o cantidades estimadas, o las correspondientes “pruebas de hipótesis”, de hecho bastan para nuestros fines. En otros casos, podemos aplicar las reglas de probabilidad para sacar conclusiones adicionales sobre cómo se comportará un sistema y en particular la probabilidad de ciertos eventos. En cierto sentido, pasamos de una muestra finita de una población a una “ley” de probabilidad y luego volvemos a inferencias sobre eventos particulares relevantes para muestras finitas de la población.

    Simulación Montecarlo

    Hasta el momento, hemos argumentado que una distribución de probabilidad puede ser utilizada efectivamente para caracterizar el resultado de experimentos cuya caracterización determinista es poco práctica debido a un gran número de variables que gobiernan su estado y/o complicadas dependencias funcionales del resultado sobre el estado. Otra instancia en la que se favorece una descripción probabilística sobre una descripción determinista es cuando su uso es computacionalmente ventajoso incluso si el problema es determinista.

    Un ejemplo de tal problema es la determinación del área (o volumen) de una región cuyo límite se describe implícitamente. Por ejemplo, ¿cuál es el área de un círculo de radio unitario? Por supuesto, sabemos que la respuesta es\(\pi\), pero ¿cómo podríamos calcular el área si no lo sabíamos\(A=\pi r^{2}\)? Una forma de calcular el área puede ser teselar (o discretizar) la región en trozos pequeños y emplear las técnicas de integración determinista discutidas en el Capítulo 7. Sin embargo, la aplicación de las técnicas deterministas se vuelve cada vez más difícil a medida que la región de interés se vuelve más compleja. Por ejemplo, teselar un volumen intersectado por múltiples esferas no es una tarea trivial. De manera más general, las técnicas deterministas pueden ser cada vez más ineficientes a medida que aumenta la dimensión del dominio de integración.

    Los métodos de Monte Carlo son más adecuados para integrarse en una región tan complicada. En términos generales, los métodos de Monte Carlo son una clase de técnicas computacionales basadas en generar sintéticamente variables aleatorias para deducir la implicación de la distribución de probabilidad. Ilustremos la idea con mayor precisión para el problema de determinación del área. Primero observamos que si nuestra región de interés está inmersa en un cuadrado unitario, entonces el área de la región es igual a la probabilidad de que un punto se dibuje aleatoriamente del cuadrado unitario que reside en la región. Así, si asignamos un valor de 0 (cola) y 1 (cabeza) al evento de dibujar un punto fuera y dentro de la región, respectivamente, aproximar el área equivale a estimar la probabilidad que aterrizamos dentro (una cabeza). Efectivamente, hemos convertido nuestro problema de determinación de área en un problema de estimación estadística; el problema ahora no es diferente del experimento de volteo de monedas, excepto que el resultado de cada “volteo” se determina realizando una verificación (simple) que determina si el punto dibujado está dentro o fuera de la región. En otras palabras, generamos sintéticamente una variable aleatoria (realizando la verificación de entrada/salida en muestras extraídas uniformemente) y deducimos la implicación en la distribución (en este caso el área, que es la media de la distribución). Estudiaremos técnicas de integración de áreas basadas en Monte-Carlo en detalle en el Capítulo 12.

    El uso de los métodos de Monte Carlo presenta varias ventajas en comparación con los enfoques de integración determinista. Primero, los métodos de Monte Carlo son sencillos de implementar: en nuestro caso, no necesitamos conocer el dominio, solo necesitamos saber si estamos en el dominio. En segundo lugar, los métodos de Monte Carlo no se basan en la suavidad para la convergencia; si pensamos en nuestro integrando como 0 y 1 (dependiendo del exterior o interior), nuestro problema aquí es bastante no suave. En tercer lugar, aunque los métodos de Montecarlo no convergen particularmente rápido, la tasa de convergencia no se degrada en dimensiones superiores, por ejemplo, si quisiéramos estimar el volumen de una región en un espacio tridimensional. Cuarto, los métodos de Monte Carlo proporcionan un resultado, junto con un simple estimador de errores incorporado, “gradualmente” -útil, si no particularmente preciso, las respuestas se obtienen al principio del proceso y, por lo tanto, de manera económica y rápida. Nota para problemas relativamente suaves en dominios lisos Las técnicas de Monte Carlo no son una idea particularmente buena. Diferentes métodos funcionan mejor en diferentes contextos.

    Los métodos de Monte Carlo -y la idea de generar sintéticamente una distribución para deducir su implicación- se aplican a una amplia gama de problemas de ingeniería. Uno de esos ejemplos es el análisis de fallas. En el ejemplo de un avión volando a través de una ráfaga, podríamos estar interesados en la tensión sobre el mástile y desear verificar que la tensión máxima en cualquier parte del mástile no exceda el límite elástico del material -y ciertamente no la resistencia a la fractura para que podamos evitar una falla catastrófica. Dibujar directamente de la distribución del estrés inducido por la ráfaga sería poco práctico; el proceso implica someter el ala a diversas ráfagas y medir directamente el estrés en diversos puntos. Un enfoque más práctico es modelar la ráfaga como variables aleatorias (basadas en datos empíricos), propagar su efecto a través de un modelo aeroelástico del ala y generar sintéticamente la distribución aleatoria de la tensión. Para estimar las propiedades de la distribución como el esfuerzo medio o la probabilidad de que el esfuerzo máximo supere el límite elástico, simplemente necesitamos usar un conjunto suficientemente grande de realizaciones de nuestra distribución generada sintéticamente. Estudiaremos el uso de los métodos de Montecarlo para el análisis de fallas en el Capítulo 14.

    Concluyamos este capítulo con un ejemplo práctico de problema de determinación de área en el que el uso de métodos de Montecarlo puede resultar ventajoso.


    This page titled 8.1: Estimación y simulación estadística is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Masayuki Yano, James Douglass Penn, George Konidaris, & Anthony T Patera (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.