Saltar al contenido principal

# 1.4: Aspectos generales de las distribuciones de probabilidad

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$

Template:MathJaxArovas

## Distribuciones discretas y continuas

Considere un sistema cuyas posibles configuraciones$$\sket{n}$$ puedan ser etiquetadas por una variable discreta$$n\in \CC$$, donde$$\CC$$ está el conjunto de configuraciones posibles. El número total de configuraciones posibles, es decir el orden del conjunto$$\CC$$, puede ser finito o infinito. A continuación, considere un conjunto de tales sistemas, y deje$$P\ns_n$$ denotar la probabilidad de que un elemento aleatorio dado de ese conjunto esté en el estado (configuración)$$\sket{n}$$. La colección$$\{P\ns_n\}$$ forma una distribución de probabilidad discreta. Suponemos que la distribución está normalizada, es decir$\sum_{n\in\CC} P\ns_n=1\ .$

Ahora deja$$A\ns_n$$ ser una cantidad que toma valores dependiendo de$$n$$. El promedio de$$A$$ viene dado por$\langle A\rangle =\sum_{n\in\CC} P\ns_n\,A\ns_n\ .$ Típicamente,$$\CC$$ es el conjunto de enteros ($$\MZ$$) o algún subconjunto de los mismos, pero podría ser cualquier conjunto contable. A modo de ejemplo, considera el lanzamiento de un solo dado de seis lados. Entonces$$P\ns_n=\frac{1}{6}$$ para cada uno$$n\in\{1,\ldots,6\}$$. Que$$A\ns_n=0$$ si$$n$$ es par y$$1$$ si$$n$$ es impar. Entonces encuentra$$\langle A\rangle=\half$$, en promedio la mitad de los lanzamientos del dado darán como resultado un número par.

Puede ser que las configuraciones del sistema sean descritas por varias variables discretas$$\{n\ns_1,n\ns_2,n\ns_3,\ldots\}$$. Podemos combinarlos en un vector$$\Bn$$ y luego escribimos$$P\ns_\Bn$$ para la distribución discreta, con$$\sum_\Bn P\ns_\Bn=1$$.

Otra posibilidad es que las configuraciones del sistema sean parametrizadas por una colección de variables continuas,$$\Bvphi=\{\varphi\ns_1,\ldots,\varphi\ns_n\}$$. Escribimos$$\Bvphi\in\ROmega$$, donde$$\ROmega$$ está el espacio de fase (o espacio de configuración) del sistema. $$d\mu$$Sea una medida sobre este espacio. En general, podemos escribir$d\mu=W(\varphi\ns_1,\ldots,\varphi\ns_n)\, d\varphi\ns_1\,d\varphi\ns_2\cdots d\varphi\ns_n\ .$ La medida de espacio de fase utilizada en la mecánica estadística clásica da igual peso$$W$$ a volúmenes iguales de espacio de fase:$d\mu=\CC\prod_{\sigma=1}^r dq\ns_\sigma\,dp\ns_\sigma\ ,$ donde$$\CC$$ es una constante que discutiremos más adelante a continuación 8.

Cualquier distribución de probabilidad continua$$P(\Bvphi)$$ se normaliza según$\int\limits_\ROmega\!\!d\mu\,P(\Bvphi)=1\ .$ El promedio de una función$$A(\Bvphi)$$ en el espacio de configuración es entonces$\langle A\rangle =\int\limits_\ROmega\!\!d\mu\, P(\Bvphi)\,A(\Bvphi)\ .$ Por ejemplo, considere la distribución gaussiana$P(x)={1\over\sqrt{2\pi\sigma^2}}\,e^{-(x-\mu)^2/2\sigma^2}\ . \label{pgauss}$ Del resultado 9$\impi dx\>e^{-\alpha x^2}\,e^{-\beta x}=\sqrt{\pi\over\alpha} \ e^{\beta^2/4\alpha}\ ,$ vemos que$$P(x)$$ se normaliza. Luego se puede calcular$\begin{split} \langle x\rangle&=\mu\\ \langle x^2\rangle-\langle x\rangle^2 &=\sigma^2\ . \end{split}$ Llamamos a$$\mu$$ la media y$$\sigma$$ la desviación estándar de la distribución, Ecuación [pgauss].

A la cantidad$$P(\Bvphi)$$ se le llama distribución o densidad de probabilidad. Uno tiene$P(\Bvphi)\,d\mu = \hbox{probability that configuration lies within volume d\mu centered at \Bvphi}$ Por ejemplo, considere la densidad de probabilidad$$P=1$$ normalizada en el intervalo$$x\in\big[0,1\big]$$. La probabilidad de que algunos$$x$$ elegidos al azar sean exactamente$$\half$$, digamos, es infinitesimal —uno tendría que especificar cada uno de los infinitamente muchos dígitos de$$x$$. No obstante, podemos decir eso$$x\in\big[0.45\,,\,0.55\big]$$ con probabilidad$$\frac{1}{10}$$.

Si$$x$$ se distribuye según$$P\ns_1(x)$$, entonces la distribución de probabilidad en el espacio del producto$$(x\ns_1\,,\,x\ns_2)$$ es simplemente el producto de las distribuciones:$$P\ns_2(x\ns_1,x\ns_2)=P\ns_1(x\ns_1)\,P\ns_1(x\ns_2)$$. Supongamos que tenemos una función$$\phi(x\ns_1,\ldots,x\ns_N)$$. ¿Cómo se distribuye? Deje$$P(\phi)$$ ser la distribución para$$\phi$$. Entonces tenemos$\begin{split} P(\phi)&=\impi dx\ns_1\cdots\impi dx\ns_N\,P\ns_N(x\ns_1,\ldots,x\ns_N)\> \delta\Big(\phi(x\ns_1,\ldots,x\ns_N)-\phi\Big)\\ &=\impi dx\ns_1\cdots\!\impi dx\ns_N\,P\ns_1(x\ns_1)\cdots P\ns_1(x\ns_N)\> \delta\Big(\phi(x\ns_1,\ldots,x\ns_N)-\phi\Big)\ , \end{split}$ donde la segunda línea es apropiada si las mismas$$\{x\ns_j\}$$ se distribuyen de manera independiente. Tenga en cuenta que$\impi d\phi\>P(\phi) = 1\ ,$ así$$P(\phi)$$ se normaliza.

## Teorema del límite central

En particular, considere la función de distribución de la suma$$X=\sum_{i=1}^N x\ns_i$$. Nos interesará particularmente el caso donde$$N$$ es grande. Para general$$N$$, sin embargo, tenemos$P\ns_N(X)=\impi dx\ns_1\cdots\!\impi dx\ns_N\,P\ns_1(x\ns_1)\cdots P\ns_1(x\ns_N)\> \delta\big(x\ns_1+x\ns_2+\ldots+x\ns_N-X\big)\ .$ Es conveniente calcular la transformada de Fourier 10 de$$P(X)$$:$\begin{split} {\hat P}\ns_N(k)&=\impi dX\,P\ns_N(X)\,e^{-ikX}\\ &=\impi dX\!\!\impi dx\ns_1\cdots\!\impi dx\ns_N\,P\ns_1(x\ns_1)\cdots P\ns_1(x\ns_N) \>\delta\big(x\ns_1+\ldots+x\ns_N-X)\,e^{-ikX}=\big[{\hat P\ns_1}(k)\big]^N\ , \end{split}$ donde${\hat P}\ns_1(k)=\impi dx\,P\ns_1(x)\,e^{-ikx}$ está la transformada de Fourier de la distribución variable única$$P\ns_1(x)$$. La distribución$$P\ns_N(X)$$ es una convolución de$$P\ns_1(x\ns_i)$$ las distribuciones individuales. Por lo tanto, hemos demostrado que la transformada de Fourier de una convolución es el producto de las transformadas de Fourier.

Bien, ahora podemos escribir para$${\hat P}\ns_1(k)$$$\begin{split} {\hat P}\ns_1(k)&=\impi dx\,P\ns_1(x)\,\big(1-ikx -\half \,k^2 x^2 +\frac{1}{6}\,i \,k^3\,x^3 + \ldots\big)\\ &=1-ik\langle x\rangle -\half\, k^2\langle x^2\rangle +\frac{1}{6} \, i\,k^3\langle x^3\rangle + \ldots \ . \end{split}$ Así,$\ln{\hat P}\ns_1(k)=-i\mu k -\half\sigma^2 k^2 + \frac{1}{6}\,i\,\gamma^3\,k^3+\ldots\ ,$ donde Ahora$\begin{split} \mu&=\langle x\rangle\\ \sigma^2&=\langle x^2\rangle - \langle x\rangle ^2\\ \gamma^3&=\langle x^3\rangle-3\,\langle x^2\rangle\,\langle x\rangle + 2\,\langle x\rangle^3 \end{split}$ podemos escribir$\big[{\hat P}\ns_1(k)\big]^N=e^{-iN\mu k}\, e^{-N \sigma^2 k^2/2}\, e^{iN\gamma^3 k^3/6}\cdots$ Ahora para la transformación inversa. En computación$$P\ns_N(X)$$, ampliaremos el término$$e^{iN\gamma^3 k^3/6}$$ y todos los términos posteriores en el producto anterior como una serie de potencia en$$k$$. Entonces tenemos$\begin{split} P\ns_N(X)&=\impi{dk\over 2\pi}\ e^{ik(X-N\mu)}\,e^{-N\sigma^2 k^2/2}\>\Big\{1+\frac{1}{6}\, i\,N\gamma^3 k^3 + \ldots\Big\}\\ &=\bigg(1-{\gamma^3\over 6} N\, {\pz^3\over\pz X^3} + \ldots \bigg) {1\over\sqrt{2\pi N\sigma^2}}\, e^{-(X-N\mu)^2/2N\sigma^2}\bvph\\ &=\bigg(1-{\gamma^3\over 6}\,N^{-1/2}\, {\pz^3\over\pz \xi^3} + \ldots \bigg) {1\over\sqrt{2\pi N\sigma^2}}\, e^{-\xi^2/2\sigma^2}\ . \end{split}$ Al pasar de la segunda línea a la tercera, hemos escrito$$X=N\mu+\sqrt{N}\,\xi$$, en cuyo caso$$\pz\ns_X=N^{-1/2}\,\pz\ns_\xi$$, y los términos no gaussianos dan una contribución sublíder que desaparece en el$$N\to\infty$$ límite. Acabamos de probar el teorema del límite central: en el límite$$N\to\infty$$, la distribución de una suma de variables aleatorias$$N$$ independientes$$x\ns_i$$ es una gaussiana con media$$N\mu$$ y desviación estándar$$\sqrt{N}\,\sigma$$. Nuestros únicos supuestos son que la media$$\mu$$ y la desviación estándar$$\sigma$$ existen para la distribución$$P\ns_1(x)$$. Tenga en cuenta que$$P\ns_1(x)$$ en sí mismo no necesita ser un gaussiano —podría ser una distribución muy peculiar de hecho, pero mientras existan su primer y segundo momento, donde el$$k^\ssr{th}$$ momento es simplemente$$\langle x^k\rangle$$, la distribución de la suma$$X=\sum_{i=1}^N x\ns_i$$ es un gaussiano.

## Momentos y acumulantes

Considerar una distribución multivariada general$$P(x\ns_1,\ldots,x\ns_N)$$ y definir la transformada multivariante de Fourier$\HP(k\ns_1,\ldots,k\ns_N)=\impi dx\ns_1\cdots\!\!\impi dx\ns_N\>P(x\ns_1,\ldots,x\ns_N)\,\exp\bigg(\!-i\sum_{j=1}^N k\ns_j x\ns_j\bigg)\ .$ La relación inversa es$P(x\ns_1,\ldots,x\ns_N)=\impi {dk\ns_1\over 2\pi}\cdots\!\!\impi {dk\ns_N\over 2\pi}\> \HP(k\ns_1,\ldots,k\ns_N)\,\exp\bigg(\!+i\sum_{j=1}^N k\ns_j x\ns_j\bigg)\ .$ Actuando sobre$$\HP(\Bk)$$, el$$i\,{\pz\over\pz k\ns_i}$$ operador diferencial baja del factor exponencial a de$$x\ns_i$$ dentro de la integral. Así, de$\Bigg[\bigg(\!i\,{\pz\over\pz k\ns_1}\bigg)^{\!m\ns_1}\!\!\cdots\bigg(\!i\,{\pz\over\pz k\ns_N}\bigg)^{\!m\ns_N}\,\HP(\Bk) \Bigg]\nd_{\Bk=0} \!\!\!\!=\blangle x_1^{m\ns_1}\cdots x_N^{m\ns_N}\brangle\ .$ igual manera, podemos reconstruir la distribución a partir de sus momentos, a saber. $\HP(\Bk)=\sum_{m\ns_1=0}^\infty\cdots\sum_{m\ns_N=0}^\infty {(-i k\ns_1)^{m\ns_1}\over m\ns_1!}\cdots {(-i k\ns_N)^{m\ns_N}\over m\ns_N!}\, \blangle x_1^{m\ns_1}\cdots x_N^{m\ns_N}\brangle\ .$

Los acumulantes$$\langle\!\langle x_1^{m\ns_1}\cdots x_N^{m\ns_N} \rangle\!\rangle$$ se definen por la expansión Taylor de$$\ln \HP(\Bk)$$: No$\ln\HP(\Bk)=\sum_{m\ns_1=0}^\infty\cdots\sum_{m\ns_N=0}^\infty {(-i k\ns_1)^{m\ns_1}\over m\ns_1!}\cdots {(-i k\ns_N)^{m\ns_N}\over m\ns_N!}\, \big\langle\!\big\langle x_1^{m\ns_1}\cdots x_N^{m\ns_N}\big\rangle\!\big\rangle\ .$ hay forma general para los cumulantes. Es sencillo derivar los siguientes resultados de orden bajo:$\begin{split} \langle\!\langle x\ns_i \rangle\!\rangle&= \langle x\ns_i \rangle \\ \langle\!\langle x\ns_i x\ns_j\rangle\!\rangle&= \langle x\ns_i x\ns_j \rangle - \langle x\ns_i\rangle \langle x\ns_j\rangle \\ \langle\!\langle x\ns_i x\ns_j x\ns_k \rangle\!\rangle&= \langle x\ns_i x\ns_j x\ns_k \rangle - \langle x\ns_i x\ns_j \rangle \langle x\ns_k \rangle - \langle x\ns_j x\ns_k \rangle \langle x\ns_i \rangle - \langle x\ns_k x\ns_i \rangle \langle x\ns_j \rangle + 2 \langle x\ns_i \rangle \langle x\ns_j \rangle \langle x\ns_k \rangle \ . \end{split}$

## Integral gaussiana multidimensional

Consideremos la distribución gaussiana multivariable,$P(\Bx)\equiv \bigg({\det\!A\over (2\pi)^n}\bigg)^{\!1/2}\exp\Big(-\half \, x\ns_i \, A\ns_{ij} \, x\ns_j\Big)\ ,$ donde$$A$$ es una matriz definitiva positiva de rango$$n$$. Un resultado matemático que es extremadamente importante a lo largo de la física es el siguiente:$Z(\Bb)=\bigg({\det\!A\over (2\pi)^n}\bigg)^{\!1/2}\impi dx\ns_1\cdots\!\impi dx\ns_n \> \exp\Big(-\half \, x\ns_i \, A\ns_{ij} \, x\ns_j + b\ns_i\,x\ns_i\Big)=\exp\Big(\half \, b\ns_i\,A^{-1}_{ij}\,b\ns_j\Big)\ .$ Aquí, el vector$$\Bb=(b\ns_1\,,\,\ldots\,,\,b\ns_n)$$ se identifica como fuente. Ya que$$Z(0)=1$$, tenemos que la distribución$$P(\Bx)$$ está normalizada. Ahora considera promedios de la forma$\begin{split} \langle \, x\ns_{j\ns_1}\!\!\cdots \,x\ns_{j\ns_{2k}} \, \rangle &= \int\!d^n\!x\>P(\Bx)\>x\ns_{j\ns_1}\!\!\cdots \,x\ns_{j\ns_{2k}} ={\pz^n\!Z(\Bb)\over\pz b\ns_{j\ns_1}\!\cdots\>\pz b\ns_{j\ns_{2k}}}\bigg|\nd_{\Bb=0} \\ &=\sum_{contractions} \!\!\! A^{-1}_{j\ns_{\sigma(1)} j\ns_{\sigma(2)}} \!\!\cdots A^{-1}_{j\ns_{\sigma(2k-1)} j\ns_{\sigma(2k)}}\ . \end{split}$ La suma en el último término es sobre todas las contracciones de los índices$$\{j\ns_1\,,\,\ldots\,,\,j\ns_{2k}\}$$. Una contracción es una disposición de los$$2k$$ índices en$$k$$ pares. Existen$$C\ns_{2k}=(2k)!/2^k k!$$ posibles tales contracciones. Para obtener este resultado$$C\ns_k$$, comenzamos con el primer índice y luego encontramos un mate entre los$$2k-1$$ índices restantes. Después elegimos el siguiente índice desapareado y encontramos un mate entre los$$2k-3$$ índices restantes. Procediendo de esta manera, tenemos$C\ns_{2k}=(2k-1)\cdot(2k-3)\cdots 3\cdot 1 = {(2k)!\over 2^k k!}\ .$ Equivalentemente, podemos tomar todas las permutaciones posibles de los$$2k$$ índices, y luego dividirlas$$2^k k!$$ ya que la permutación dentro de un par dado da como resultado la misma contracción y la permutación entre los$$k$$ pares da como resultado la misma contracción. Por ejemplo, para$$k=2$$, tenemos$$C\ns_4=3$$, y$\langle \, x\ns_{j\ns_1} x\ns_{j\ns_2} x\ns_{j\ns_3} x\ns_{j\ns_4 \, }\rangle = A^{-1}_{j\ns_1 j\ns_2} A^{-1}_{j\ns_3 j\ns_4} + A^{-1}_{j\ns_1 j\ns_3} A^{-1}_{j\ns_2 j\ns_4} + A^{-1}_{j\ns_1 j\ns_4} A^{-1}_{j\ns_2 j\ns_3} \ .$ si definimos$$b\ns_i=ik\ns_i$$, tenemos$\HP(\Bk)=\exp\Big(\!-\half\, k\ns_i \, A^{-1}_{ij}\,k\ns_j\Big)\ ,$ de donde leemos los cumulantes$$\langle\!\langle x\ns_i x\ns_j \rangle\!\rangle= A^{-1}_{ij}$$, con todos los acumulantes de orden superior desapareciendo.

This page titled 1.4: Aspectos generales de las distribuciones de probabilidad is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by Daniel Arovas.