Saltar al contenido principal
LibreTexts Español

1.4: Aspectos generales de las distribuciones de probabilidad

  • Page ID
    126463
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Template:MathJaxArovas

    Distribuciones discretas y continuas

    Considere un sistema cuyas posibles configuraciones\(\sket{n}\) puedan ser etiquetadas por una variable discreta\(n\in \CC\), donde\(\CC\) está el conjunto de configuraciones posibles. El número total de configuraciones posibles, es decir el orden del conjunto\(\CC\), puede ser finito o infinito. A continuación, considere un conjunto de tales sistemas, y deje\(P\ns_n\) denotar la probabilidad de que un elemento aleatorio dado de ese conjunto esté en el estado (configuración)\(\sket{n}\). La colección\(\{P\ns_n\}\) forma una distribución de probabilidad discreta. Suponemos que la distribución está normalizada, es decir\[\sum_{n\in\CC} P\ns_n=1\ .\]

    Ahora deja\(A\ns_n\) ser una cantidad que toma valores dependiendo de\(n\). El promedio de\(A\) viene dado por\[\langle A\rangle =\sum_{n\in\CC} P\ns_n\,A\ns_n\ .\] Típicamente,\(\CC\) es el conjunto de enteros (\(\MZ\)) o algún subconjunto de los mismos, pero podría ser cualquier conjunto contable. A modo de ejemplo, considera el lanzamiento de un solo dado de seis lados. Entonces\(P\ns_n=\frac{1}{6}\) para cada uno\(n\in\{1,\ldots,6\}\). Que\(A\ns_n=0\) si\(n\) es par y\(1\) si\(n\) es impar. Entonces encuentra\(\langle A\rangle=\half\), en promedio la mitad de los lanzamientos del dado darán como resultado un número par.

    Puede ser que las configuraciones del sistema sean descritas por varias variables discretas\(\{n\ns_1,n\ns_2,n\ns_3,\ldots\}\). Podemos combinarlos en un vector\(\Bn\) y luego escribimos\(P\ns_\Bn\) para la distribución discreta, con\(\sum_\Bn P\ns_\Bn=1\).

    Otra posibilidad es que las configuraciones del sistema sean parametrizadas por una colección de variables continuas,\(\Bvphi=\{\varphi\ns_1,\ldots,\varphi\ns_n\}\). Escribimos\(\Bvphi\in\ROmega\), donde\(\ROmega\) está el espacio de fase (o espacio de configuración) del sistema. \(d\mu\)Sea una medida sobre este espacio. En general, podemos escribir\[d\mu=W(\varphi\ns_1,\ldots,\varphi\ns_n)\, d\varphi\ns_1\,d\varphi\ns_2\cdots d\varphi\ns_n\ .\] La medida de espacio de fase utilizada en la mecánica estadística clásica da igual peso\(W\) a volúmenes iguales de espacio de fase:\[d\mu=\CC\prod_{\sigma=1}^r dq\ns_\sigma\,dp\ns_\sigma\ ,\] donde\(\CC\) es una constante que discutiremos más adelante a continuación 8.

    Cualquier distribución de probabilidad continua\(P(\Bvphi)\) se normaliza según\[\int\limits_\ROmega\!\!d\mu\,P(\Bvphi)=1\ .\] El promedio de una función\(A(\Bvphi)\) en el espacio de configuración es entonces\[\langle A\rangle =\int\limits_\ROmega\!\!d\mu\, P(\Bvphi)\,A(\Bvphi)\ .\] Por ejemplo, considere la distribución gaussiana\[P(x)={1\over\sqrt{2\pi\sigma^2}}\,e^{-(x-\mu)^2/2\sigma^2}\ . \label{pgauss}\] Del resultado 9\[\impi dx\>e^{-\alpha x^2}\,e^{-\beta x}=\sqrt{\pi\over\alpha} \ e^{\beta^2/4\alpha}\ ,\] vemos que\(P(x)\) se normaliza. Luego se puede calcular\[\begin{split} \langle x\rangle&=\mu\\ \langle x^2\rangle-\langle x\rangle^2 &=\sigma^2\ . \end{split}\] Llamamos a\(\mu\) la media y\(\sigma\) la desviación estándar de la distribución, Ecuación [pgauss].

    A la cantidad\(P(\Bvphi)\) se le llama distribución o densidad de probabilidad. Uno tiene\[P(\Bvphi)\,d\mu = \hbox{probability that configuration lies within volume $d\mu$ centered at $\Bvphi$}\] Por ejemplo, considere la densidad de probabilidad\(P=1\) normalizada en el intervalo\(x\in\big[0,1\big]\). La probabilidad de que algunos\(x\) elegidos al azar sean exactamente\(\half\), digamos, es infinitesimal —uno tendría que especificar cada uno de los infinitamente muchos dígitos de\(x\). No obstante, podemos decir eso\(x\in\big[0.45\,,\,0.55\big]\) con probabilidad\(\frac{1}{10}\).

    Si\(x\) se distribuye según\(P\ns_1(x)\), entonces la distribución de probabilidad en el espacio del producto\((x\ns_1\,,\,x\ns_2)\) es simplemente el producto de las distribuciones:\(P\ns_2(x\ns_1,x\ns_2)=P\ns_1(x\ns_1)\,P\ns_1(x\ns_2)\). Supongamos que tenemos una función\(\phi(x\ns_1,\ldots,x\ns_N)\). ¿Cómo se distribuye? Deje\(P(\phi)\) ser la distribución para\(\phi\). Entonces tenemos\[\begin{split} P(\phi)&=\impi dx\ns_1\cdots\impi dx\ns_N\,P\ns_N(x\ns_1,\ldots,x\ns_N)\> \delta\Big(\phi(x\ns_1,\ldots,x\ns_N)-\phi\Big)\\ &=\impi dx\ns_1\cdots\!\impi dx\ns_N\,P\ns_1(x\ns_1)\cdots P\ns_1(x\ns_N)\> \delta\Big(\phi(x\ns_1,\ldots,x\ns_N)-\phi\Big)\ , \end{split}\] donde la segunda línea es apropiada si las mismas\(\{x\ns_j\}\) se distribuyen de manera independiente. Tenga en cuenta que\[\impi d\phi\>P(\phi) = 1\ ,\] así\(P(\phi)\) se normaliza.

    Teorema del límite central

    En particular, considere la función de distribución de la suma\(X=\sum_{i=1}^N x\ns_i\). Nos interesará particularmente el caso donde\(N\) es grande. Para general\(N\), sin embargo, tenemos\[P\ns_N(X)=\impi dx\ns_1\cdots\!\impi dx\ns_N\,P\ns_1(x\ns_1)\cdots P\ns_1(x\ns_N)\> \delta\big(x\ns_1+x\ns_2+\ldots+x\ns_N-X\big)\ .\] Es conveniente calcular la transformada de Fourier 10 de\(P(X)\):\[\begin{split} {\hat P}\ns_N(k)&=\impi dX\,P\ns_N(X)\,e^{-ikX}\\ &=\impi dX\!\!\impi dx\ns_1\cdots\!\impi dx\ns_N\,P\ns_1(x\ns_1)\cdots P\ns_1(x\ns_N) \>\delta\big(x\ns_1+\ldots+x\ns_N-X)\,e^{-ikX}=\big[{\hat P\ns_1}(k)\big]^N\ , \end{split}\] donde\[{\hat P}\ns_1(k)=\impi dx\,P\ns_1(x)\,e^{-ikx}\] está la transformada de Fourier de la distribución variable única\(P\ns_1(x)\). La distribución\(P\ns_N(X)\) es una convolución de\(P\ns_1(x\ns_i)\) las distribuciones individuales. Por lo tanto, hemos demostrado que la transformada de Fourier de una convolución es el producto de las transformadas de Fourier.

    Bien, ahora podemos escribir para\({\hat P}\ns_1(k)\)\[\begin{split} {\hat P}\ns_1(k)&=\impi dx\,P\ns_1(x)\,\big(1-ikx -\half \,k^2 x^2 +\frac{1}{6}\,i \,k^3\,x^3 + \ldots\big)\\ &=1-ik\langle x\rangle -\half\, k^2\langle x^2\rangle +\frac{1}{6} \, i\,k^3\langle x^3\rangle + \ldots \ . \end{split}\] Así,\[\ln{\hat P}\ns_1(k)=-i\mu k -\half\sigma^2 k^2 + \frac{1}{6}\,i\,\gamma^3\,k^3+\ldots\ ,\] donde Ahora\[\begin{split} \mu&=\langle x\rangle\\ \sigma^2&=\langle x^2\rangle - \langle x\rangle ^2\\ \gamma^3&=\langle x^3\rangle-3\,\langle x^2\rangle\,\langle x\rangle + 2\,\langle x\rangle^3 \end{split}\] podemos escribir\[\big[{\hat P}\ns_1(k)\big]^N=e^{-iN\mu k}\, e^{-N \sigma^2 k^2/2}\, e^{iN\gamma^3 k^3/6}\cdots\] Ahora para la transformación inversa. En computación\(P\ns_N(X)\), ampliaremos el término\(e^{iN\gamma^3 k^3/6}\) y todos los términos posteriores en el producto anterior como una serie de potencia en\(k\). Entonces tenemos\[\begin{split} P\ns_N(X)&=\impi{dk\over 2\pi}\ e^{ik(X-N\mu)}\,e^{-N\sigma^2 k^2/2}\>\Big\{1+\frac{1}{6}\, i\,N\gamma^3 k^3 + \ldots\Big\}\\ &=\bigg(1-{\gamma^3\over 6} N\, {\pz^3\over\pz X^3} + \ldots \bigg) {1\over\sqrt{2\pi N\sigma^2}}\, e^{-(X-N\mu)^2/2N\sigma^2}\bvph\\ &=\bigg(1-{\gamma^3\over 6}\,N^{-1/2}\, {\pz^3\over\pz \xi^3} + \ldots \bigg) {1\over\sqrt{2\pi N\sigma^2}}\, e^{-\xi^2/2\sigma^2}\ . \end{split}\] Al pasar de la segunda línea a la tercera, hemos escrito\(X=N\mu+\sqrt{N}\,\xi\), en cuyo caso\(\pz\ns_X=N^{-1/2}\,\pz\ns_\xi\), y los términos no gaussianos dan una contribución sublíder que desaparece en el\(N\to\infty\) límite. Acabamos de probar el teorema del límite central: en el límite\(N\to\infty\), la distribución de una suma de variables aleatorias\(N\) independientes\(x\ns_i\) es una gaussiana con media\(N\mu\) y desviación estándar\(\sqrt{N}\,\sigma\). Nuestros únicos supuestos son que la media\(\mu\) y la desviación estándar\(\sigma\) existen para la distribución\(P\ns_1(x)\). Tenga en cuenta que\(P\ns_1(x)\) en sí mismo no necesita ser un gaussiano —podría ser una distribución muy peculiar de hecho, pero mientras existan su primer y segundo momento, donde el\(k^\ssr{th}\) momento es simplemente\(\langle x^k\rangle\), la distribución de la suma\(X=\sum_{i=1}^N x\ns_i\) es un gaussiano.

    Momentos y acumulantes

    Considerar una distribución multivariada general\(P(x\ns_1,\ldots,x\ns_N)\) y definir la transformada multivariante de Fourier\[\HP(k\ns_1,\ldots,k\ns_N)=\impi dx\ns_1\cdots\!\!\impi dx\ns_N\>P(x\ns_1,\ldots,x\ns_N)\,\exp\bigg(\!-i\sum_{j=1}^N k\ns_j x\ns_j\bigg)\ .\] La relación inversa es\[P(x\ns_1,\ldots,x\ns_N)=\impi {dk\ns_1\over 2\pi}\cdots\!\!\impi {dk\ns_N\over 2\pi}\> \HP(k\ns_1,\ldots,k\ns_N)\,\exp\bigg(\!+i\sum_{j=1}^N k\ns_j x\ns_j\bigg)\ .\] Actuando sobre\(\HP(\Bk)\), el\(i\,{\pz\over\pz k\ns_i}\) operador diferencial baja del factor exponencial a de\(x\ns_i\) dentro de la integral. Así, de\[\Bigg[\bigg(\!i\,{\pz\over\pz k\ns_1}\bigg)^{\!m\ns_1}\!\!\cdots\bigg(\!i\,{\pz\over\pz k\ns_N}\bigg)^{\!m\ns_N}\,\HP(\Bk) \Bigg]\nd_{\Bk=0} \!\!\!\!=\blangle x_1^{m\ns_1}\cdots x_N^{m\ns_N}\brangle\ .\] igual manera, podemos reconstruir la distribución a partir de sus momentos, a saber. \[\HP(\Bk)=\sum_{m\ns_1=0}^\infty\cdots\sum_{m\ns_N=0}^\infty {(-i k\ns_1)^{m\ns_1}\over m\ns_1!}\cdots {(-i k\ns_N)^{m\ns_N}\over m\ns_N!}\, \blangle x_1^{m\ns_1}\cdots x_N^{m\ns_N}\brangle\ .\]

    Los acumulantes\(\langle\!\langle x_1^{m\ns_1}\cdots x_N^{m\ns_N} \rangle\!\rangle\) se definen por la expansión Taylor de\(\ln \HP(\Bk)\): No\[\ln\HP(\Bk)=\sum_{m\ns_1=0}^\infty\cdots\sum_{m\ns_N=0}^\infty {(-i k\ns_1)^{m\ns_1}\over m\ns_1!}\cdots {(-i k\ns_N)^{m\ns_N}\over m\ns_N!}\, \big\langle\!\big\langle x_1^{m\ns_1}\cdots x_N^{m\ns_N}\big\rangle\!\big\rangle\ .\] hay forma general para los cumulantes. Es sencillo derivar los siguientes resultados de orden bajo:\[\begin{split} \langle\!\langle x\ns_i \rangle\!\rangle&= \langle x\ns_i \rangle \\ \langle\!\langle x\ns_i x\ns_j\rangle\!\rangle&= \langle x\ns_i x\ns_j \rangle - \langle x\ns_i\rangle \langle x\ns_j\rangle \\ \langle\!\langle x\ns_i x\ns_j x\ns_k \rangle\!\rangle&= \langle x\ns_i x\ns_j x\ns_k \rangle - \langle x\ns_i x\ns_j \rangle \langle x\ns_k \rangle - \langle x\ns_j x\ns_k \rangle \langle x\ns_i \rangle - \langle x\ns_k x\ns_i \rangle \langle x\ns_j \rangle + 2 \langle x\ns_i \rangle \langle x\ns_j \rangle \langle x\ns_k \rangle \ . \end{split}\]

    Integral gaussiana multidimensional

    Consideremos la distribución gaussiana multivariable,\[P(\Bx)\equiv \bigg({\det\!A\over (2\pi)^n}\bigg)^{\!1/2}\exp\Big(-\half \, x\ns_i \, A\ns_{ij} \, x\ns_j\Big)\ ,\] donde\(A\) es una matriz definitiva positiva de rango\(n\). Un resultado matemático que es extremadamente importante a lo largo de la física es el siguiente:\[Z(\Bb)=\bigg({\det\!A\over (2\pi)^n}\bigg)^{\!1/2}\impi dx\ns_1\cdots\!\impi dx\ns_n \> \exp\Big(-\half \, x\ns_i \, A\ns_{ij} \, x\ns_j + b\ns_i\,x\ns_i\Big)=\exp\Big(\half \, b\ns_i\,A^{-1}_{ij}\,b\ns_j\Big)\ .\] Aquí, el vector\(\Bb=(b\ns_1\,,\,\ldots\,,\,b\ns_n)\) se identifica como fuente. Ya que\(Z(0)=1\), tenemos que la distribución\(P(\Bx)\) está normalizada. Ahora considera promedios de la forma\[\begin{split} \langle \, x\ns_{j\ns_1}\!\!\cdots \,x\ns_{j\ns_{2k}} \, \rangle &= \int\!d^n\!x\>P(\Bx)\>x\ns_{j\ns_1}\!\!\cdots \,x\ns_{j\ns_{2k}} ={\pz^n\!Z(\Bb)\over\pz b\ns_{j\ns_1}\!\cdots\>\pz b\ns_{j\ns_{2k}}}\bigg|\nd_{\Bb=0} \\ &=\sum_{contractions} \!\!\! A^{-1}_{j\ns_{\sigma(1)} j\ns_{\sigma(2)}} \!\!\cdots A^{-1}_{j\ns_{\sigma(2k-1)} j\ns_{\sigma(2k)}}\ . \end{split}\] La suma en el último término es sobre todas las contracciones de los índices\(\{j\ns_1\,,\,\ldots\,,\,j\ns_{2k}\}\). Una contracción es una disposición de los\(2k\) índices en\(k\) pares. Existen\(C\ns_{2k}=(2k)!/2^k k!\) posibles tales contracciones. Para obtener este resultado\(C\ns_k\), comenzamos con el primer índice y luego encontramos un mate entre los\(2k-1\) índices restantes. Después elegimos el siguiente índice desapareado y encontramos un mate entre los\(2k-3\) índices restantes. Procediendo de esta manera, tenemos\[C\ns_{2k}=(2k-1)\cdot(2k-3)\cdots 3\cdot 1 = {(2k)!\over 2^k k!}\ .\] Equivalentemente, podemos tomar todas las permutaciones posibles de los\(2k\) índices, y luego dividirlas\(2^k k!\) ya que la permutación dentro de un par dado da como resultado la misma contracción y la permutación entre los\(k\) pares da como resultado la misma contracción. Por ejemplo, para\(k=2\), tenemos\(C\ns_4=3\), y\[\langle \, x\ns_{j\ns_1} x\ns_{j\ns_2} x\ns_{j\ns_3} x\ns_{j\ns_4 \, }\rangle = A^{-1}_{j\ns_1 j\ns_2} A^{-1}_{j\ns_3 j\ns_4} + A^{-1}_{j\ns_1 j\ns_3} A^{-1}_{j\ns_2 j\ns_4} + A^{-1}_{j\ns_1 j\ns_4} A^{-1}_{j\ns_2 j\ns_3} \ .\] si definimos\(b\ns_i=ik\ns_i\), tenemos\[\HP(\Bk)=\exp\Big(\!-\half\, k\ns_i \, A^{-1}_{ij}\,k\ns_j\Big)\ ,\] de donde leemos los cumulantes\(\langle\!\langle x\ns_i x\ns_j \rangle\!\rangle= A^{-1}_{ij}\), con todos los acumulantes de orden superior desapareciendo.


    This page titled 1.4: Aspectos generales de las distribuciones de probabilidad is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by Daniel Arovas.