Saltar al contenido principal
LibreTexts Español

2.2: Teoría de Probabilidad Continua

  • Page ID
    71888
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Densidad de probabilidad

    Si bien los resultados de las mediciones pueden ser discretizados, y de hecho, son invariablemente discretizados al almacenar los datos, en teoría es conveniente trabajar con variables continuas donde se supone que las cantidades físicas son continuas. Por ejemplo, se supone que las coordenadas espaciales en el espacio de fase son continuas, al igual que las coordenadas de impulso para el movimiento de traslación en el espacio libre.

    Para trabajar con variables continuas, asumimos que un evento puede devolver un número real en lugar de un índice entero. El número real con su densidad de probabilidad asociada\(\rho\) es un número aleatorio continuo. Observe el cambio de asignar una probabilidad a un evento a asignar una densidad de probabilidad. Esto es necesario ya que los números reales no son contables y así el número de eventos posibles es infinito. Si queremos inferir una probabilidad en el sentido habitual, necesitamos especificar un intervalo\([l,u]\) entre un límite inferior\(l\) y un límite superior\(u\). La probabilidad de que el ensayo\(\mathcal{T}\) muestre un número real en este intervalo cerrado viene dada por

    \[P([l,u]) = \int_l^u \rho(x) \mathrm{d}x \ .\]

    La densidad de probabilidad debe normalizarse,

    \[\int_{-\infty}^{\infty} \rho(x) \mathrm{d} x = 1 \ .\]

    Una distribución de densidad de probabilidad puede caracterizarse por sus momentos.

    El\(n^\mathrm{th}\) momento de una distribución de densidad de probabilidad se define como,

    \[\begin{align} & \langle x^n \rangle = \int_{-\infty}^\infty x^n \rho(x) \mathrm{d}x \ .\end{align}\]

    El primer momento es la media de la distribución. Con la media\(\langle x \rangle\), se definen los momentos centrales

    \[\begin{align} & \langle (x-\langle x \rangle)^n \rangle = \int_{-\infty}^\infty (x-\langle x \rangle)^n \rho(x) \mathrm{d}x \ .\end{align}\]

    El segundo momento central es la varianza\(\sigma_x^2\) y su raíz cuadrada\(\sigma_x\) es la desviación estándar. [concepto:moment_analysis]

    La densidad de probabilidad se define a lo largo de alguna dimensión\(x\), correspondiente a alguna cantidad física. El promedio de una función\(F(x)\) de esta cantidad viene dado por

    \[\langle F(x) \rangle = \int_{-\infty}^\infty F(x) \rho(x) \mathrm{d}x \ .\]

    En muchos libros y artículos, el mismo símbolo\(P\) se utiliza para probabilidades y densidades de probabilidad. Esto lo señala Swendsen quien decidió hacer lo mismo, señalando que el lector debe aprender a lidiar con esto. En la siguiente sección pasa a confundir las densidades de probabilidad marginales y condicionales con las probabilidades él mismo. En estas notas de conferencia utilizamos\(P\) para probabilidades, que siempre son números finitos en el intervalo\([0,1]\) y\(\rho\) para densidades de probabilidad, que siempre son infinitesimalmente pequeñas y pueden tener una unidad. Se aconseja a los estudiantes que mantengan los dos conceptos separados, lo que significa usar diferentes símbolos.

    Generación de números aleatorios que se ajustan a una distribución de densidad de probabilidad dada. (A) Distribución de probabilidad acumulada <span translate=\ (P (x) =\ int_ {-\ infty} ^x\ rho (\ xi)\ mathrm {d}\ xi\) para\(\rho(x) = \exp(-x^4)\) (azul). Un número pseudoaleatorio con distribución uniforme en\((0,1)\), aquí 0.75, selecciona la ordenada de\(P(x)\) (línea horizontal discontinua roja). La abscisa correspondiente, aquí\(x = 0.45\) (línea vertical discontinua roja), es una instancia de un número aleatorio con distribución de densidad de probabilidad\(\rho(x)\). (B) Distribución de números\(10^5\) aleatorios (línea gris) y distribución de densidad de probabilidad objetivo\(\rho(x) = \exp(-x^4)\) (línea negra).” style="width: 924px; height: 382px;” width="924px” height="382px” src=” https://chem.libretexts.org/@api/dek...911c30c453.png "/>
    Figura\(\PageIndex{1}\): Generación de números aleatorios que se ajustan a una distribución de densidad de probabilidad dada. (A) Distribución de probabilidad acumulada\(P(x) = \int_{-\infty}^x \rho(\xi) \mathrm{d} \xi\) para\(\rho(x) = \exp(-x^4)\) (azul). Un número pseudoaleatorio con distribución uniforme en\((0,1)\), aquí 0.75, selecciona la ordenada de\(P(x)\) (línea horizontal discontinua roja). La abscisa correspondiente, aquí\(x = 0.45\) (línea vertical discontinua roja), es una instancia de un número aleatorio con distribución de densidad de probabilidad\(\rho(x)\). (B) Distribución de números\(10^5\) aleatorios (línea gris) y distribución de densidad de probabilidad objetivo\(\rho(x) = \exp(-x^4)\) (línea negra).

    Las representaciones informáticas de las densidades de probabilidad por un vector o matriz son discretizadas. De ahí que los valores individuales sean finitos. Consideramos ahora el problema de generar un flujo de números aleatorios que se ajuste a una densidad de probabilidad discretizada dada\(\vec{\rho}\). Los lenguajes de programación modernos o bibliotecas matemáticas incluyen funciones que proporcionan números pseudo-aleatorios distribuidos uniformemente en el intervalo\((0,1)\) (Matlab: rand) o números pseudoaleatorios con una distribución gaussiana (normal) con media 0 y desviación estándar 1 (Matlab: randn ). Un flujo de números pseudo-aleatorios distribuidos uniformemente en se\((0,1)\) puede transformar en un flujo de números con densidad de probabilidad conforme\(\vec{\rho}\) seleccionando para cada número de entrada la abscisa donde la suma acumulativa de\(\vec{\rho}\) (Matlab: cumsum (rho)) coincide más estrechamente con el número de entrada (Figura\(\PageIndex{1}\)). Tenga en cuenta que\(\vec{\rho}\) debe normalizarse (Matlab: rho = rho/sum (rho)). Dado que un generador de números aleatorios suele llamarse muy a menudo en una simulación de Monte Carlo, la suma acumulativa cumsum_rho debe calcularse de una vez por todas antes del bucle sobre todas las pruebas. Con esto, la generación del índice de abscisas poi se convierte en un one-liner en Matlab: [~, poi] = min (abs (cumsum_rho - rand)); 7

    Volviendo a la teoría física, el concepto de densidad de probabilidad puede extenderse a múltiples dimensiones, por ejemplo a las\(2F = 2fM\) dimensiones del espacio de fase. La probabilidad se convierte entonces en una integral de volumen en este hiperespacio. Un ejemplo sencillo de un problema continuo multidimensional es la probabilidad de encontrar una partícula clásica en una caja. La probabilidad de encontrarlo en un punto dado es infinitamente pequeña, ya que hay infinitamente muchos de esos puntos. La densidad de probabilidad es uniforme, ya que todos los puntos son igualmente probables para una partícula clásica (a diferencia de una cuántica). Con el volumen\(V\) de la caja, esta densidad de probabilidad uniforme es\(1/V\) si tenemos una sola partícula en la caja. Esto se desprende de la condición de normalización, que es\(\int \rho \mathrm{d}V = 1\). Obsérvese que una densidad de probabilidad tiene una unidad, en nuestro ejemplo m\(^{-3}\). En general, la unidad es la inversa del producto de las unidades de todas las dimensiones.

    La densidad de probabilidad marginal para un subconjunto de los eventos se obtiene al “integrar” los otros eventos. Supongamos una partícula en una caja bidimensional con dimensiones\(x\)\(y\) y preguntemos sobre la densidad de probabilidad a lo largo\(x\). Está dado por

    \[\rho_x(x) = \int_{-\infty}^\infty \rho(x,y) \mathrm{d}y \ .\]

    Asimismo, la densidad de probabilidad condicional\(\rho(y|x)\) se define en todos los puntos donde\(\rho_x(x) \neq 0\),

    \[\rho(y|x) = \frac{\rho(x,y)}{\rho_x(x)} \ .\]

    Si dos números aleatorios continuos son independientes, su densidad de probabilidad conjunta es el producto de las dos densidades de probabilidad individuales,

    \[\rho(x,y) = \rho_x(x) \rho_y(y) \ .\]

    Figura <span translate=\ (\ PageIndex {2}\): Simulación de Montecarlo de una distribución bidimensional de densidad de probabilidad. (A) Distribución bidimensional de densidad de probabilidad correspondiente a la función de membrana de primer orden utilizada en el logotipo de Matlab. (B) Distribución de números\(10^7\) aleatorios conforme a la distribución de densidad de probabilidad mostrada en (A).” src=” https://chem.libretexts.org/@api/dek...91199963fa.png "/>
    Figura\(\PageIndex{2}\): Simulación de Montecarlo de una distribución bidimensional de densidad de probabilidad. (A) Distribución bidimensional de densidad de probabilidad correspondiente a la función de membrana de primer orden utilizada en el logotipo de Matlab. (B) Distribución de números\(10^7\) aleatorios conforme a la distribución de densidad de probabilidad mostrada en (A).

    Ejercicio\(\PageIndex{1}\)

    Escriba un programa de Matlab que genere números aleatorios conformes a una distribución de densidad de probabilidad bidimensional\(\rho_\mathrm{mem}\) que se asemeje al logotipo de Matlab (Figura\(\PageIndex{2}\)). La distribución (aún no normalizada)\(\rho_\mathrm{mem}\) se obtiene con la función llamada L = membrana (1, resolución,9,9);. Sugerencia: Puede usar la función reshape para generar un vector a partir de una matriz bidimensional, así como para remodelar un vector en una matriz bidimensional. De esta manera, el problema bidimensional (o, en general, un problema multidimensional) puede reducirse al problema de una distribución de densidad de probabilidad unidimensional.

    Integración Selectiva de Densidades de Probabilidad

    Ya sabemos cómo calcular la probabilidad a partir de la densidad de probabilidad para un rango de parámetros simplemente conectado. Tal rango puede ser un intervalo\([l,u]\) para una densidad de probabilidad dependiendo de solo un parámetro\(x\) o un elemento de volumen simplemente conectado para una densidad de probabilidad dependiendo de múltiples parámetros. En un problema general, los puntos que contribuyen a la probabilidad de interés pueden no estar simplemente conectados. Si podemos encontrar una función\(g(x)\) que sea cero en los puntos que deben contribuir, podemos resolver este problema con la función delta de Dirac, que es el equivalente continuo del delta de Kronecker que se introdujo anteriormente.

    Concepto\(\PageIndex{1}\): Dirac delta function

    La función delta de Dirac es una función generalizada con las siguientes propiedades

    1. La función\(\delta(x)\) es cero en todas partes excepto en\(x=0\).
    2. \(\int_{-\infty}^\infty \delta(x) \mathrm{d}x = 1\).

    La función se puede utilizar para seleccionar el valor\(f(x_0)\) de otra función continua\(f(x)\),

    \[\begin{align} & f(x_0) = \int_{-\infty}^\infty f(x) \delta(x-x_0) \mathrm{d}x \ .\end{align}\]

    Este concepto se puede utilizar, por ejemplo, para calcular la densidad de probabilidad de una nueva variable aleatoria\(s\) que es una función de dos variables aleatorias dadas\(x\) y\(y\) con una densidad de probabilidad conjunta dada\(\rho(x,y)\). La densidad de probabilidad\(\rho(s)\) correspondiente a\(s = f(x,y)\) viene dada por

    \[\rho(s) = \int_{-\infty}^\infty \int_{-\infty}^\infty \rho(x,y) \delta\left( s - f(x,y) \right) \mathrm{d} x \mathrm{d} y \ .\]

    Tenga en cuenta que la densidad de probabilidad\(\rho(s)\) calculada de esa manera se normaliza automáticamente.

    Figura <span translate=\ (\ PageIndex {3}\): Distribuciones de densidad de probabilidad para dos números aleatorios continuos\(x\) y\(y\) que se distribuyen uniformemente en el intervalo\([0,6]\) y tienen densidad de probabilidad cero fuera de este intervalo. a) Densidad de probabilidad marginal\(\rho_x(x)\). b) Probabilidad marginal densidad\(\rho_y(y)\). c) Densidad de probabilidad conjunta\(\rho(x,y)\). En la zona azul claro,\(\rho = 1/36\), afuera\(\rho = 0\). La línea naranja corresponde a\(s = 4\) y la línea verde a\(s = 8\).” style="width: 765px; height: 362px;” width="765px” height="362px” src=” https://chem.libretexts.org/@api/dek...3b1f7269c4.png "/>
    Figura\(\PageIndex{3}\): Distribuciones de densidad de probabilidad para dos números aleatorios continuos\(x\) y\(y\) que se distribuyen uniformemente en el intervalo\([0,6]\) y tienen densidad de probabilidad cero fuera de este intervalo. a) Densidad de probabilidad marginal\(\rho_x(x)\). b) Densidad de probabilidad marginal \(\rho_y(y)\). c) Densidad de probabilidad conjunta\(\rho(x,y)\). En la zona azul claro,\(\rho = 1/36\), afuera\(\rho = 0\). La línea naranja corresponde a\(s = 4\) y la línea verde a\(s = 8\).

    Ahora utilizamos el concepto de integración selectiva para calcular la densidad de probabilidad\(\rho(s)\) para la suma\(s = x+y\) de los números mostrados por dos dados continuos, teniendo cada uno de ellos una densidad de probabilidad uniforme en el intervalo\([0,6]\) (Figura\(\PageIndex{3}\)). Tenemos

    \[\begin{align} \rho(s) & = \int_{-\infty}^\infty \int_{-\infty}^\infty \rho(x,y) \delta\left( s -(x+y) \right) \mathrm{d} y \mathrm{d} x \\ & = \frac{1}{36} \int_0^6 \int_0^6 \delta\left( s -(x+y) \right) \mathrm{d} y \mathrm{d} x \ .\end{align}\]

    El argumento de la función delta en la integral interna sobre\(y\) puede ser cero solo para\(0 \leq s-x \leq 6\), ya que de lo contrario no\(y\) existe ningún valor de que lleve a\(s = x+y\). De ello se deduce que\(x \leq s\) y\(x \geq s-6\). Para\(s=4\) (línea naranja en la Fig. [fig:cont_sum] c) la condición anterior establece el límite superior de la integración. Obviamente, esto es cierto para cualquiera\(s\) con\(0 \leq s \leq 6\). Para\(s = 8\) (línea naranja en la Fig. [fig:cont_sum] c) la condición\(x \geq s-6\) establece el límite inferior de la integración, como también es cierto para cualquiera\(s\) con\(6 \leq s \leq 12\). El límite inferior es 0 para\(0 \leq s \leq 6\) y el límite superior es 6 para\(6 \leq s \leq 12\). Por lo tanto,

    \[\rho(s) = \frac{1}{36} \int_0^s \mathrm{d} s = \frac{s}{36} \ \mathrm{for} \ s \leq 6 \ ,\]

    y

    \[\rho(s) = \frac{1}{36} \int_{s-6}^6 \mathrm{d} s = \frac{12-s}{36} \ \mathrm{for} \ s \geq 6 \ .\]

    A partir de la representación gráfica en la Fig. [fig:cont_sum] c está claro que\(\rho(s)\) es cero a\(s = 0\) y\(s = 12\), asume un máximo de\(1/6\) at\(s = 6\), aumenta linealmente entre\(s=0\) y\(s=6\) y disminuye linealmente entre\(s=6\) y\(s=12\).


    This page titled 2.2: Teoría de Probabilidad Continua is shared under a CC BY-NC 3.0 license and was authored, remixed, and/or curated by Gunnar Jeschke via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.