Saltar al contenido principal
LibreTexts Español

3.13: El valor esperado de una función de varias variables y el teorema del límite central

  • Page ID
    73975
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Podemos extender la idea de un valor esperado a una función de múltiples variables aleatorias. Sea U y V distribuciones cuyas variables aleatorias son\(u\) y\(v\), respectivamente. Deje que las funciones de densidad de probabilidad para estas distribuciones sean\({df_u\left(u\right)}/{du}\) y\({df_v\left(v\right)}/{dv}\). En general, estas funciones de densidad de probabilidad son funciones diferentes; es decir,\(U\) y\(V\) son distribuciones diferentes. Dejar\(g\left(u,v\right)\) ser alguna función de estas variables aleatorias. La probabilidad de que una observación realizada en\(U\) produzca un valor de\(u\) en el rango\(u^*<u<u^*+du\) es

    \[P\left(u^*<u<u^*+du\right)\ =\frac{df_u\left(u^*\right)}{du}du\nonumber \]

    y la probabilidad de que una observación realizada sobre\(V\) produzca un valor de\(v\) en el rango\(v^*<v<v^*+dv\) es

    \[P\left(v^*<v<v^*+dv\right)=\frac{df_v\left(v^*\right)}{dv}dv\nonumber \]

    La probabilidad de que hacer una observación en cada una de estas distribuciones produzca un valor de\(u\) que se encuentra en el rango\(u^*<u<u^*+du\) y un valor de\(v\) ese se encuentra en el rango\(v^*<v<v^*+dv\) es

    \[\frac{df_u\left(u^*\right)}{du}\frac{df_v\left(v^*\right)}{dv}du\,dv\nonumber \]

    En una generalización sencilla, definimos el valor esperado de\(g\left(u,v\right)\),\(\left\langle g\left(u,v\right)\ \right\rangle\), as\[\left\langle g\left(u,v\right)\ \right\rangle =\int^{\infty }_{v=-\infty }{\int^{\infty }_{u=-\infty }{g\left(u,v\right)}}\frac{df_u\left(u\right)}{du}\frac{df_v\left(v\right)}{dv}dudv\nonumber \]

    Si\(g\left(u,v\right)\) es una suma de funciones de variables independientes\(g\left(u,v\right)=h\left(u\right)+k\left(v\right)\),, tenemos

    \[\left\langle g\left(u,v\right)\right\rangle =\int^{\infty }_{-\infty }{\int^{\infty }_{-\infty }{\left[h\left(u\right)+k\left(v\right)\right]\frac{df_u\left(u\right)}{du}\frac{df_v\left(v\right)}{dv}}dudv}=\int^{\infty }_{-\infty }{h\left(u\right)\frac{df_u\left(u\right)}{du}}du+\int^{\infty }_{-\infty }{k\left(v\right)\frac{df_v\left(v\right)}{dv}}dv=\ \left\langle h\left(u\right)\ \right\rangle +\left\langle k\left(v\right)\ \right\rangle\nonumber \]

    Si\(g\left(u,v\right)\) es un producto de funciones independientes\(g\left(u,v\right)=h\left(u\right)k\left(v\right)\),, tenemos

    \[\left\langle g\left(u,v\right)\right\rangle =\int^{\infty }_{-\infty }{\int^{\infty }_{-\infty }{h\left(u\right)k\left(v\right)\frac{df_u\left(u\right)}{du}\frac{df_v\left(v\right)}{dv}}dudv}\ \ \ \ =\int^{\infty }_{-\infty }{h\left(u\right)\frac{df_u\left(u\right)}{du}}du\times \int^{\infty }_{-\infty }{k\left(v\right)\frac{df_v\left(v\right)}{dv}}d=\ \left\langle h\left(u\right)\right\rangle \ \left\langle k\left(v\right)\right\rangle\nonumber \]

    Podemos extender estas conclusiones a funciones de las variables aleatorias de cualquier número de distribuciones. Si\(u_i\) es la variable aleatoria de distribución\(U_i\) cuya función de densidad de probabilidad es\({df_i\left(u_i\right)}/{du_i}\), el valor esperado de

    \[g\left(u_1,\dots ,u_i,\dots ,u_N\right)=h_1\left(u_1\right)+\dots +h_i\left(u_i\right)+\dots +h_N\left(u_N\right)\nonumber \]

    se convierte

    \[\left\langle g\left(u_1,\dots ,u_i,\dots ,u_N\right)\right\rangle =\sum^N_{i=1}{\left\langle h_i\left(u_i\right)\right\rangle }\nonumber \]

    y el valor esperado de

    \[g\left(u_1,\dots ,u_i,\dots ,u_N\right)=h_1\left(u_1\right)\dots h_i\left(u_i\right)\dots h_N\left(u_N\right)\nonumber \]

    se convierte\[\left\langle g\left(u_1,\dots ,u_i,\dots ,u_N\right)\right\rangle =\ \ \prod^N_{i=1}{\left\langle h_i\left(u_i\right)\right\rangle }\nonumber \]

    Estamos particularmente interesados en los valores esperados para ensayos repetidos realizados en la misma distribución. Consideramos distribuciones para las cuales el resultado de un juicio es independiente del resultado de cualquier otro juicio. La función de densidad de probabilidad es la misma para cada ensayo, así que tenemos\(f\left(u\right)=f_1\left(u_1\right)=\dots =f_i\left(u_i\right)=\dots =f_N\left(u_N\right)\). Que los valores obtenidos para la variable aleatoria en una serie de ensayos en la misma distribución sean\(u_1\),...\(u_i\),...,\(u_N\). Para cada juicio, tenemos

    \[\left\langle h_i\left(u_i\right)\right\rangle \ =\ \ \int^{\infty }_{-\infty }{h_i\left(u_i\right)\frac{df_i\left(u_i\right)}{du_i}}du_i\nonumber \]

    Si consideramos el caso especial de los ensayos repetidos en los que las funciones\(h_i\left(u_i\right)\) son todas la misma función, de manera que\(h\left(u\right)=h_1\left(u_1\right)=\dots =h_i\left(u_i\right)=\dots =h_N\left(u_N\right)\), el valor esperado de

    \[g\left(u_1,\dots ,u_i,\dots ,u_N\right)\nonumber \]\[=h_1\left(u_1\right)+\dots +h_i\left(u_i\right)+\dots +h_N\left(u_N\right)\nonumber \]

    se convierte

    \[\left\langle g\left(u_1,\dots ,u_i,\dots ,u_N\right)\right\rangle =\ \sum^N_{i=1}{\left\langle h_i\left(u_i\right)\right\rangle \ }=N\left\langle h\left(u\right)\right\rangle\nonumber \]

    y el valor esperado de

    \[g\left(u_1,\dots ,u_i,\dots ,u_N\right)=h_1\left(u_1\right)\dots h_i\left(u_i\right)\dots h_N\left(u_N\right)\nonumber \]

    se convierte

    \[\left\langle g\left(u_1,\dots ,u_i,\dots ,u_N\right)\right\rangle =\ \prod^N_{i=1}{\left\langle h_i\left(u_i\right)\right\rangle }={\left\langle h\left(u\right)\right\rangle }^N\nonumber \]

    Ahora consideremos juicios\(N\) independientes sobre la misma distribución y vamos\(h_i\left(u_i\right)=h\left(u_i\right)=u_i\). Entonces, el valor esperado de

    \[g\left(u_1,\dots ,u_i,\dots ,u_N\right)= h_1\left(u_1\right)+\dots +h_i\left(u_i\right)+\dots +h_N\left(u_N\right)\nonumber \]

    se convierte\[\ \left\langle u_1+\dots +u_i+\dots +u_N\right\rangle =\sum^N_{i=1}{\left\langle u_i\right\rangle }=N\left\langle u\right\rangle =N\mu\nonumber \]

    Por definición, el promedio de ensayos\(N\) repetidos es

    \({\overline{u}}_N={\left(u_1+\dots +u_i+\dots +u_N\right)}/{N}\), de manera que el valor esperado de la media de una distribución de un promedio de ensayos\(N\) repetidos es

    \[\left\langle {\overline{u}}_N\right\rangle =\frac{\left\langle u_1+\dots +u_i+\dots +u_N\right\rangle }{N}=\mu\nonumber \]

    Esto prueba un elemento del teorema del límite central: La media de una distribución de\(N\) valores promedio de una variable aleatoria extraída de una distribución padre es igual a la media de la distribución padre.

    La varianza de estos promedios de-\(N\) es

    \[\sigma^2_N=\left\langle {\left({\overline{u}}_N-\mu \right)}^2\right\rangle =\left\langle {\left[\left(\frac{1}{N}\sum^N_{i=1}{u_i}\right)-\mu \right]}^2\ \right\rangle =\left\langle {\left[\left(\frac{1}{N}\sum^N_{i=1}{u_i}\right)-\frac{N\mu }{N}\right]}^2\right\rangle =\ \frac{1}{N^2}\ \left\langle \ {\left[\left(\sum^N_{i=1}{u_i}\right)-N\mu \right]}^2\right\rangle =\ \frac{1}{N^2}\ \left\langle {\left[\left(\sum^N_{i=1}{\left(u_i-\mu \right)}\right)\right]}^2\ \right\rangle =\frac{1}{N^2\ }\ \left\langle \ \sum^N_{i=1}\left(u_i-\mu \right)^2 \right\rangle +\frac{2}{N^2} \left\langle \sum^{N-1}_{i=1} \left(u_i-\mu \right)\sum^N_{j=i+1} \left(u_j-\mu \right) \right \rangle =\frac{1}{N^2}\sum^N_{i=1} \left\langle \left(u_i-\mu \right)^2 \right\rangle +\frac{2}{N^2} \left\langle \sum^{N-1}_{i=1} \left(u_i-\mu \right) \right\rangle \ \left\langle \sum^N_{j=i+1} \left(u_j-\mu \right) \right\rangle\nonumber \]

    Donde el último término es cero, porque

    \[\left\langle \sum^{N-1}_{i=1}{\left(u_i-\mu \right)}\ \right\rangle = \sum^{N-1}_{i=1}{\left\langle \ \left(u_i-\mu \right)\ \right\rangle }\]

    y

    \[\left\langle \ \left(u_i-\mu \right)\ \right\rangle \ =0\nonumber \]

    Por definición,\(\sigma^2=\ \left\langle \ {\left(u_i-\mu \right)}^2\ \right\rangle\), para que tengamos

    \[\sigma^2_N=\frac{N\sigma^2}{N^2}=\frac{\sigma^2}{N}\nonumber \]

    Esto prueba un segundo elemento del teorema del límite central: La varianza de un promedio de\(N\) valores de una variable aleatoria extraída de una distribución padre es igual a la varianza de la distribución padre dividida por\(N\).


    This page titled 3.13: El valor esperado de una función de varias variables y el teorema del límite central is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Paul Ellgen via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.