Saltar al contenido principal
LibreTexts Español

3.9: Variables aleatorias, Valores Esperados y Conjuntos de Población

  • Page ID
    73919
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Cuando se muestrear una distribución particular, el valor que obtenemos depende del azar y de la naturaleza de la distribución descrita por la función\(f\left(u\right)\). La probabilidad de que algún ensayo dado produzca\(u\) en el intervalo\(a<u<b\) es igual a\(f\left(b\right)-f\left(a\right)\). A menudo encontramos situaciones en las que una segunda función de\(u\), llamarla\(g\left(u\right)\), también es de interés. Si muestreamos la distribución y obtenemos un valor de la variable aleatoria\(u_k\), entonces el valor de\(g\) asociado a ese ensayo es\(g\left(u_k\right)\). Surge la pregunta: Dado\(g(u)\) y la función de distribución\(f(u)\), ¿cuál debemos esperar que sea el valor de\(g\left(u_k\right)\)? Es decir, si obtenemos un valor de\(u\) de la distribución y luego encontramos\(g\left(u\right)\), ¿qué valor debemos esperar encontrar\(g\left(u\right)\)? Si bien esto parece una pregunta razonable, es obvio que podemos dar una respuesta significativa solo cuando podemos definir con mayor precisión lo que queremos decir con “esperar”.

    Para entender nuestra definición del valor esperado (a veces llamado el valor de expectativa) de\(g\left(u\right)\), consideremos un juego de azar. Supongamos que tenemos una aguja que gira libremente sobre un eje central. Cuando se hace girar, la aguja describe una trayectoria circular, y su punto finalmente llega a descansar en algún punto de este camino. La ubicación en la que se detiene la aguja es completamente aleatoria. Imagínese que dividimos la trayectoria circular en seis segmentos iguales, que numeramos del uno al seis. Cuando hacemos girar la aguja, es igualmente probable que se detenga sobre cualquiera de estos segmentos. Ahora, supongamos que realizamos una lotería vendiendo seis boletos, también numerados del uno al seis. Decidimos el ganador de la lotería haciendo girar la aguja. El titular del boleto cuyo número coincide con el número en el que se detiene la aguja recibe un pago de $6000. Después del giro, un boleto vale $6000, y los otros cinco no tienen valor. Preguntamos: Antes del giro, ¿cuál es el valor de cualquiera de los boletos de lotería?

    En este contexto, es razonable definir el valor esperado de un boleto como la cantidad que deberíamos estar dispuestos a pagar para comprar un boleto. Si los compramos todos, recibimos $6000 cuando se selecciona el boleto ganador. Si pagamos $1000 por boleto para comprarlos todos, nos devolvemos nuestro dinero. Si compramos todos los boletos, el valor esperado de cada boleto es de $1000. ¿Y si compramos solo un boleto? ¿Es razonable seguir diciendo que su valor esperado es de 1000 dólares? Argumentamos que lo es. Un argumento es que el valor esperado de un boleto no debe depender de quién es el dueño del boleto; así, no debe depender de si compramos uno, dos, o todos ellos. Un argumento más general supone que las loterías repetidas se llevan a cabo bajo las mismas reglas. Si gastamos 1000 dólares para comprar un boleto en cada una de una gran cantidad de tales loterías, esperamos que eventualmente “rompamos el equilibrio”. Dado que la aguja viene a descansar en cada número con igual probabilidad, razonamos que

    \[\begin{array}{l} \text{Expected value of a ticket} \\ =\$6000\left(fraction\ of\ times\ our\ ticket\ would\ be\ selected\right) \\ =\$6000\left({1}/{6}\right) \\ =\$1000 \end{array}\]

    Dado que suponemos que la fracción de veces que nuestro boleto sería seleccionado en una larga serie de loterías idénticas es lo mismo que la probabilidad de que nuestro boleto sea seleccionado en cualquier sorteo dado, también podemos expresar el valor esperado como

    \[ \begin{array}{l} \text{Expected value of a ticket} \\ =\$6000\left(probability\ that\ our\ ticket\ will\ be\ be\ selected\right) \\ =\$6000\left({1}/{6}\right) \\ =\$1000 \end{array}\]

    Claramente, el boleto es superfluo. El juego depende de obtener un valor de una variable aleatoria a partir de una distribución. La distribución es un giro de la aguja. La variable aleatoria es la ubicación en la que la aguja llega a descansar. Podemos conducir esencialmente el mismo juego permitiendo que cualquier número de participantes apueste a que la aguja llegará a descansar en cualquiera de los seis segmentos igualmente probables del círculo. Si un individuo apuesta repetidamente por el mismo segmento en muchas repeticiones de este juego, el total de sus ganancias eventualmente coincide con la cantidad total que ha apostado. (Más precisamente, el total de sus ganancias dividido por el monto total que ha apostado se vuelve arbitrariamente cercano a una.)

    Supongamos ahora que cambiamos las reglas. Bajo las nuevas reglas, designamos segmento\(1\) del círculo como el segmento de pago. Los participantes pagan una suma fija para ser elegibles para el pago de un juego en particular. Cada juego se decide por un giro de la aguja. Si la aguja aterriza en segmento\(1\), todos los que pagaron para participar en ese juego reciben $6000. Evidentemente, las nuevas reglas no inciden en el valor de la participación. A largo plazo, un participante en una gran cantidad de juegos gana $6000 en una sexta parte de estos juegos. Tomamos esto como equivalente a decir que tiene una probabilidad de una sexta parte de ganar $6000 en un juego dado en el que participa. Su pago esperado es

    \[ \begin{array}{l} \text{Expected value of game} \\ =\$6000\left(probability\ of\ winning\ \$6000\right) \\ =\$6000\left({1}/{6}\right) \\ =\$1000 \end{array}\]

    Cambiemos de nuevo el juego. Subdividimos segmento\(2\) en segmentos de igual tamaño\(2A\) y\(2B\). La probabilidad de que la aguja aterrice en\(2A\) o\(2B\) sea\({1}/{12}\). En este nuevo juego, el pago es de $6000 cuando la aguja aterriza en cualquiera de los segmentos\(1\) o segmentos\(2A\). Podemos usar cualquiera de los argumentos que hemos hecho anteriormente para ver que el juego de pago esperado es ahora\(\$6000\left({1}/{4}\right)=\$1500\). Sin embargo, el análisis que se generaliza más fácilmente reconoce que el pago de este juego es solo la suma del pago del juego anterior más el pago de un juego en el que el único pago es de $6000 cada vez que la aguja aterriza en segmento\(2A\). Para el nuevo juego, tenemos

    \[ \begin{array}{l} \text{Expected value of a game} \\ =\$6000\times P\left(segment\ 1\right)+\$6000\times P\left(segment\ 2A\right) \\ =\$6000\left({1}/{6}\right)+\$6000\left({1}/{12}\right) \\ =\$1500 \end{array}\]

    Podemos idear cualquier número de juegos nuevos dividiendo la trayectoria circular de la aguja en segmentos\(\mathrm{\textrm{Ω}}\) no superpuestos. Cada segmento es un posible resultado. Numeramos los posibles resultados\(1\),\(2\),...,\(i\),..., Ω, etiquetamos estos resultados\(u_1\)\(u_2\),,...\(u_i\),...\(u_{\textrm{Ω}}\), y denotamos sus probabilidades como\(P\left(u_1\right)\),\(P\left(u_2\right)\),... ,\(P\left(u_i\right)\),...,\(P\left(u_{\textrm{Ω}}\right)\). Decimos que la probabilidad de desenlace\(u_i\),\(P\left(u_i\right)\), es la frecuencia esperada de desenlace\(u_i\). Denotamos los respectivos pagos como\(g\left(u_1\right)\),\(g\left(u_2\right)\),... ,\(g\left(u_i\right)\),...,\(g\left(u_{\textrm{Ω}}\right)\). La generalización directa de nuestro último análisis muestra que el valor esperado para participar en cualquier juego de este tipo es

    \[\sum^{\textrm{Ω}}_{i=1}{g\left(u_i\right)\times P\left(u_i\right)}\]

    Además, el spinner es representativo de cualquier distribución, por lo que es razonable generalizar más. Podemos decir que el valor esperado del resultado de un solo ensayo es siempre la suma ponderada por probabilidad, sobre todos los resultados posibles, del valor de cada resultado. Una notación común utiliza corchetes angulares para denotar el valor esperado para una función de la variable aleatoria; el valor esperado de\(g\left(u\right)\) es\(\left\langle g\left(u\right)\right\rangle\). Para una distribución discreta con resultados\(\textrm{Ω}\) exhaustivos mutuamente exclusivos\(u_i\)\(P\left(u_i\right)\), probabilidades y valores de resultado (pagos)\(g\left(u_i\right)\), definimos el valor esperado valor esperado de\(g\left(u\right)\) a ser

    \[\left\langle g\left(u\right)\right\rangle \ =\sum^{\textrm{Ω}}_{i=1}{g\left(u_i\right)}\times P\left(u_i\right)\]

    Ahora, examinemos el valor esperado de\(g\left(u\right)\) desde una perspectiva ligeramente diferente. Sea el número de veces que se observe cada uno de los diversos resultados en una muestra particular de\(N\) observaciones\(N_1,\ N_2,\dots ,N_3,\dots ,N_{\textrm{Ω}}\). Nosotros tenemos\(N=N_1+\ N_2+\dots +N_i+\dots +N_{\textrm{Ω}}\). El conjunto\(\{N_1,\ N_2,\dots ,N_i,\dots ,N_{\textrm{Ω}}\}\) especifica la forma en que se pueblan los posibles resultados en esta serie particular de\(N\) observaciones. Llamamos\(\{N_1,\ N_2,\dots ,N_i,\dots ,N_{\textrm{Ω}}\}\) conjunto poblacional. Si hacemos una segunda serie de observaciones de N, obtenemos un segundo conjunto poblacional. Inferimos que el mejor pronóstico que podemos hacer para el número de ocurrencias de resultado\(u_i\) en cualquier serie futura de N observaciones es\(N\times P\left(u_i\right)\). Llamamos\(N\times P\left(u_i\right)\) al número esperado de observaciones de resultado\(u_i\) en una muestra de tamaño\(N\).

    En una serie particular de\(N\) ensayos, el número de ocurrencias de desenlace\(u_i\), y por lo tanto de\(g\left(u_i\right)\), es\(N_i\). Para el conjunto de resultados\(\{N_1,\ N_2,\dots ,N_3,\dots ,N_{\textrm{Ω}}\}\), el valor promedio de\(g\left(u\right)\) es

    \[\overline{g\left(u\right)}=\frac{1}{N}\sum^{\textrm{Ω}}_{i=1}{g\left(u_i\right)\times N_i}\]

    La recolección de una segunda muestra de\(N\) observaciones produce una segunda estimación de\(\overline{g\left(u\right)}\). Si\(N\) es pequeño, las estimaciones sucesivas de\(\overline{g\left(u\right)}\) pueden diferir significativamente entre sí. Si hacemos una serie de\(N\) observaciones varias veces, obtenemos múltiples conjuntos de población. En general, el conjunto poblacional de una serie de\(N\) observaciones es diferente del conjunto poblacional para una segunda serie de\(N\) observaciones. Si\(N\gg \mathit{\Omega}\), la recolección de tales muestras de\(N\) un número suficientemente grande de veces debe producir algunos conjuntos poblacionales más de una vez, y entre las que se observan más de una vez, uno debe ocurrir con más frecuencia que cualquier otro. Nosotros lo llamamos el conjunto poblacional más probable. Que sean los elementos del conjunto poblacional más probable\(\{N_1,N_2,\dots ,N_i,\dots ,N_{\textrm{Ω}}\}\). Inferimos que el conjunto poblacional más probable es el mejor pronóstico que podamos hacer sobre los resultados de cualquier muestra futura\(N\) de esta distribución. Además, inferimos que la mejor estimación que podemos hacer\(N_i\) es que equivale al número esperado de observaciones de resultado\(u_i\); es decir,

    \[N_i\approx N\times P\left(u_i\right)\]

    Ahora,\(N_i\) y\(N_i\) deben ser números naturales, mientras que solo\(N\times P\left(u_i\right)\) necesitan ser reales. En particular, podemos tener\(0, but \(N_i\) debe ser\(0\) o\(1\) (o algún entero superior). Esta es una situación de importancia práctica, ya que las circunstancias pueden limitar el tamaño de la muestra a un número\(N\),, es decir, mucho menor que el número de posibles resultados,\(\mathit{\Omega}\). (Nos encontramos con esta situación en nuestra discusión sobre la termodinámica estadística en el Capítulo 21. Encontramos que el número de moléculas en un sistema puede ser mucho menor que el número de resultados (niveles de energía observables) disponibles para cualquier molécula dada).

    Si muchos más que\(N\) resultados tienen aproximadamente la misma probabilidad, la recolección repetida de muestras de\(N\) observaciones puede producir una serie de conjuntos poblacionales (cada conjunto poblacional diferente de todos los demás) en cada uno de los cuales cada elemento es cero o uno. Cuando esto ocurre, puede ser que ningún conjunto de población individual sea significativamente más probable que cualquiera de muchos otros. Sin embargo, cada resultado ocurre con una probabilidad bien definida. Se deduce que el conjunto\(\left\{N\times P\left(u_1\right),N\times P\left(u_2\right),\dots ,N\times P\left(u_i\right),\dots ,N\times P\left(u_{\textrm{Ω}}\right)\right\}\) es siempre un proxy adecuado para calcular el valor esperado para el conjunto poblacional más probable.

    Para ilustrar este tipo de distribución, supongamos que existen\(3000\) posibles resultados, de los cuales el primer y último mil tienen probabilidades que son tan bajas que pueden tomarse como cero, mientras que\(1000\) los resultados medios tienen probabilidades aproximadamente iguales. Después\(P\left(u_i\right)\approx 0\) para\(1<\) > 1000 y 2001\(<\) > 3000, mientras que\(P\left(u_i\right)\approx {10}^{-3}\) para\(1001<2000\) >. Estamos ilustrando la situación en la que el número de resultados que podemos observar,\(N\), es mucho menor que el número de resultados que tienen una probabilidad apreciable, que es\(1000\). Así que tomemos el número de juicios para ser\(N=4\). Si el valor de\(g\left(u\right)\) para cada uno de los resultados\(1000\) medios es el mismo, digamos\(g\left(u_i\right)=100\) para\(1001<2000\) >, entonces nuestro cálculo del valor esperado de\(g\left(u\right)\) será

    \[\left\langle g\left(u\right)\right\rangle \ =\frac{1}{4}\sum^{3000}_{i=1}{g\left(u_i\right)\times N}\times P\left(u_i\right)=\frac{1}{4}\sum^{2000}_{i=1001}{100\times N_i}=\frac{400}{4}=100\]

    independientemente de cuál conjunto poblacional resulte de los cuatro ensayos. Es decir, debido a que todos los conjuntos de poblaciones que tienen una probabilidad significativa de ser observados tienen\(N_i=1\) y\(g\left(u_i\right)=100\) para exactamente cuatro valores de\(i\) en el rango\(1001<2011\) >, todos los conjuntos poblacionales que tienen una probabilidad significativa de ser observados dan lugar al mismo valor esperado.

    Calculemos el promedio aritmético\(\overline{g\left(u\right)}\), utilizando el conjunto poblacional más probable para una muestra de N ensayos. En este caso, el número de observaciones del resultado\(u_i\) es\(N_i=N\times P\left(u_i\right).\)

    \(\overline{g\left(u\right)}\mathrm{\ }\ =\frac{1}{N}\sum^{\textrm{Ω}}_{i=1}{g\left(u_i\right)}\times N_i\)\(=\frac{1}{N}\sum^{\textrm{Ω}}_{i=1}{g\left(u_i\right)}\times N\times P\left(u_i\right)\)\(=\sum^{\textrm{Ω}}_{i=1}{g\left(u_i\right)\times P\left(u_i\right)}\)\(=\ \ \left\langle g\left(u\right)\right\rangle\)

    Para una distribución discreta,\(\left\langle g\left(u\right)\right\rangle\) es el valor del\(\overline{g\left(u\right)}\) que calculamos a partir del conjunto poblacional más probable\(\left\{N_1,N_2,\dots ,N_i,\dots ,N_{\textrm{Ω}}\right\}\), o su proxy\(\left\{N\times P\left(u_1\right),N\times P\left(u_2\right),\dots ,N\times P\left(u_i\right),\dots ,N\times P\left(u_{\textrm{Ω}}\right)\right\}\).

    Podemos extender la definición del valor esperado,\(\left\langle g\left(u\right)\right\rangle\), a los casos en los que la función de distribución de probabilidad acumulada\(f\left(u\right)\), y la función de valor de salida,\(g\left(u\right)\), son continuas en el dominio de la variable aleatoria,\(u_{min}<u_{max}\) >. Para ello, dividimos este dominio en un número finito,\(\mathit{\Omega}\), de intervalos,\(\Delta u_i\). Dejamos\(u_i\) ser el límite inferior de\(u\) en el intervalo\(\Delta u_i\). Entonces la probabilidad de que un ensayo dado produzca un valor de la variable aleatoria en el intervalo\(\Delta u_i\) es\(P\left({\Delta u}_i\right)=f\left(u_i+\Delta u_i\right)-f\left(u_i\right)\), y podemos aproximar el valor esperado de\(g\left(u\right)\) para la distribución continua por la suma finita

    \[\left\langle g\left(u\right)\right\rangle \ =\sum^{\textrm{Ω}}_{i=1}{g\left(u_i\right)\times P\left(\Delta u_i\right)}=\sum^{\textrm{Ω}}_{i=1}{g\left(u_i\right)}\times \left[f\left(u_i+\Delta u_i\right)-f\left(u_i\right)\right]=\sum^{\textrm{Ω}}_{i=1}{g\left(u_i\right)\times \left[\frac{f\left(u_i+\Delta u_i\right)-f\left(u_i\right)}{\Delta u_i}\right]}\times \Delta u_i\]

    En el límite como\(\mathit{\Omega}\) se vuelve arbitrariamente grande y todos los intervalos\(\Delta u_i\) se vuelven arbitrariamente pequeños, el valor esperado de\(g\left(u\right)\) para una distribución continua se vuelve

    \[\left\langle g\left(u\right)\right\rangle \ =\int^{\infty }_{-\infty }{g\left(u\right)\left[\frac{df\left(u\right)}{du}\right]du}\]

    Esta integral es el valor de\(\left\langle g\left(u\right)\right\rangle\), donde\({df\left(u\right)}/{du}\) está la función de densidad de probabilidad para la distribución. Si c es una constante, tenemos

    \[\left\langle g\left(cu\right)\right\rangle =c\left\langle g\left(u\right)\right\rangle\]

    Si\(h\left(u\right)\) es una segunda función de la variable aleatoria, tenemos

    \[\left\langle g\left(u\right)+h\left(u\right)\right\rangle =\left\langle g\left(u\right)\right\rangle +\left\langle h\left(u\right)\right\rangle\]


    This page titled 3.9: Variables aleatorias, Valores Esperados y Conjuntos de Población is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Paul Ellgen via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.