Loading [MathJax]/jax/output/HTML-CSS/jax.js
Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

11.1: Expectativa matemática- Variables aleatorias simples

( \newcommand{\kernel}{\mathrm{null}\,}\)

Introducción

La probabilidad de que la variable aleatoria realX tome un valor en un conjuntoM de números reales se interpreta como la probabilidad de que se encuentreX(ω) el valor observado en cualquier ensayoM. Históricamente, esta idea de verosimilitud está enraizada en la noción intuitiva de que si el experimento se repite suficientes veces la probabilidad es aproximadamente la fracción de veces que el valor deX caerá enM. Asociada a esta interpretación se encuentra la noción del promedio de los valores tomados. Incorporamos el concepto de expectativa matemática en el modelo matemático como una forma apropiada de tales promedios. Comenzamos por estudiar la expectativa matemática de variables aleatorias simples, luego extendemos la definición y propiedades al caso general. En el proceso, observamos la relación de la expectativa matemática con la integral de Lebesque, la cual se desarrolla en la teoría de medidas abstractas. Aunque no desarrollamos esta teoría, que se encuentra fuera del alcance de este estudio, la identificación de esta relación proporciona acceso a un rico y poderoso conjunto de propiedades que tienen consecuencias de largo alcance tanto en la aplicación como en la teoría.

Expectativa para variables aleatorias simples

La noción de expectativa matemática está estrechamente relacionada con la idea de una media ponderada, utilizada ampliamente en el manejo de datos numéricos. Considera el promedio aritméticoˉx de los diez números siguientes: 1, 2, 2, 2, 4, 5, 5, 8, 8, 8, que viene dada por

ˉx=110(1+2+2+2+4+5+5+8+8+8)

El examen de los diez números a sumar muestra que se incluyen cinco valores distintos. Uno de los diez, o la fracción 1/10 de ellos, tiene el valor 1, tres de los diez, o la fracción 3/10 de ellos, tienen el valor 2, 1/10 tiene el valor 4, 2/10 tienen el valor 5, y 3/10 tienen el valor 8. Así, podríamos escribir

ˉx=(0.11+0.32+0.14+0.25+0.38)

El patrón en esta última expresión se puede afirmar con palabras: Multiplica cada valor posible por la fracción de los números que tienen ese valor y luego suma estos productos. Las fracciones a menudo se denominan frecuencias relativas. Una suma de este tipo se conoce como promedio ponderado.

En general, supongamos que hayn números{x1,x2,xn} a promediar, con m≤nm≤n valores distintos{t1,t2tm}. Supongamosf1 tener valort1,f2 tener valort2,,fm tener valortm. Elfi debe agregar an. Si establecemospi=fi/n, entonces la fracciónpi se llama la frecuencia relativa de aquellos números en el conjunto que tienen el valorti,1im. Se puede escribir el promedioˉx de losn números

ˉx=1nni=1xi=mj=1tjpj

En teoría de probabilidad, tenemos un proceso de promedio similar en el que las frecuencias relativas de los diversos valores posibles de son reemplazadas por las probabilidades de que esos valores se observen en cualquier ensayo.

Definición. Para una variable aleatoria simpleX con valores{t1,t2,tn} y probabilidades correspondientes expectativapi=P(X=ti) matemática, designadaE[X], es el promedio ponderado de probabilidad de los valores tomados porX. En símbolos

E[X]=ni=1tiP(X=ti)=ni=1tipi

Tenga en cuenta que la expectativa está determinada por la distribución. Dos variables aleatorias muy diferentes pueden tener la misma distribución, de ahí la misma expectativa. Tradicionalmente, este promedio se ha denominado la media, o el valor medio, de la variable aleatoriaX.

Ejemplo 11.1.1. Algunos casos especiales

  1. Ya queX=aIE=0IEc+aIE, tenemosE[aIE]=aP(E).
  2. PorX una constantec,X=cIΩ, así queE[c]=cP(Ω)=c.
  3. SiX=ni=1tiIAi entoncesaX=ni=1atiIAi, para que

E[aX]=ni=1atiP(Ai)=ani=1tiP(Ai)=aE[X]

La Figura 1 es un dibujo del momento de una distribución de probabilidad sobre el origen. El valor esperado de X, E [X], es igual a la suma de los momentos, que es igual al centro de masa. El dibujo muestra una línea horizontal principal dividida a la mitad por una línea vertical mayor. Como título, la parte superior del dibujo dice Momentos negativos a la izquierda de la línea vertical, y Momentos positivos a la derecha, que están destinados a distinguir las flechas y etiquetas en el dibujo. En la línea horizontal hay cinco puntos negros, dos a la izquierda de la línea vertical y tres a la derecha. Debajo de los puntos correspondientes están las etiquetas correspondientes: t_1, t_2, t_3, t_4 y t_5. Encima de los puntos negros están las siguientes etiquetas: p_1, p_2, p_3, p_4 y p_5. Por encima de la línea horizontal hay otra línea horizontal más pequeña con flechas apuntando en ambas direcciones. La etiqueta para la flecha que apunta a la izquierda es t_2 p_2, y la etiqueta para la flecha de la izquierda es t_3 p_3. Una línea horizontal más larga se asienta más arriba en el dibujo, que también tiene flechas apuntando en ambas direcciones. e interseca la misma línea vertical. Las flechas son aproximadamente el doble de largas que las dos flechas de abajo. La etiqueta para la flecha que apunta a la izquierda es t_1 p_1, y la etiqueta para la flecha a la izquierda es t_4 p_4. finalmente, hay una línea horizontal que se extiende solo a la derecha de la línea vertical, con una flecha apuntando a la derecha. Esta línea es más larga en esta dirección que cualquiera de las flechas que se sientan debajo de ella apuntando a la derecha. La flecha está etiquetada t_5 p_5.

Figura 1. Momento de una distribución de probabilidad sobre el origen.

Interpretación mecánica

Para ayudar a visualizar un sistema esencialmente abstracto, hemos empleado la noción de probabilidad como masa. La distribución inducida por una variable aleatoria real en la línea se visualiza como una unidad de masa de probabilidad realmente distribuida a lo largo de la línea. Utilizamos la distribución masiva para dar una interpretación mecánica importante y útil de la expectativa o valor medio. En el Ejemplo 6 en “Expectativa Matemática: Variables Aleatorias Generales”, damos una interpretación alternativa en términos de estimación cuadrática media.

Supongamos que la variable aleatoriaX tiene valores{ti;1in}, conP(X=ti)=pi. Esto produce una distribución de masa de probabilidad, como se muestra en la Figura 1, con concentración de masa puntual en la cantidad depi en el puntoti. La expectativa es

itipi

Ahora |ti||ti| es la distancia de masa puntualpi desde el origen, conpi a la izquierda del origen iffti es negativo. Mecánicamente, la suma de los productos tipitipi es el momento de la distribución de la masa de probabilidad sobre el origen en la línea real. A partir de la teoría física, se sabe que este momento es el mismo que el producto de la masa total multiplicado por el número que localiza el centro de masa. Dado que la masa total es uno, el valor medio es la ubicación del centro de masa. Si la línea real se ve como una varilla rígida e ingrávida con masa puntualpi unida a cada valorti deX, entonces el valor medioμX es el punto de equilibrio. A menudo hay simetrías en la distribución que permiten determinar la expectativa sin un cálculo detallado.

Ejemplo 11.1.2. el número de manchas en un dado

XSea el número de manchas que aparecen en un tiro de un simple dado de seis lados. Suponemos que cada número es igualmente probable. Así los valores son los enteros uno a seis, y cada probabilidad es 1/6. Por definición

E[X]=161+162+163+164+165+166=16(1+2+3+4+5+6)=72

Aunque el cálculo es muy sencillo en este caso, realmente no es necesario. La distribución de probabilidad coloca la misma masa en cada uno de los valores enteros uno a seis. El centro de masa está en el punto medio.

Ejemplo 11.1.3. una elección simple

A una niña se le dice que puede tener uno de cuatro juguetes. Los precios son de $2.50. $3.00, $2.00, y $3.50, respectivamente. Ella elige uno, con respectivas probabilidades 0.2, 0.3, 0.2 y 0.3 de elegir el primero, segundo, tercero o cuarto. ¿Cuál es el costo esperado de su selección?

E[X]=2.000.2+2.500.2+3.000.3+3.500.3+2.85

Para una variable aleatoria simple, la expectativa matemática se determina como el producto de puntos de la matriz de valores con la matriz de probabilidad. Esto se calcula fácilmente usando MATLAB.

cálculo de matlab por ejemplo 11.1.3

X = [2 2.5 3 3.5];  % Matrix of values (ordered)
PX = 0.1*[2 2 3 3]; % Matrix of probabilities
EX = dot(X,PX)      % The usual MATLAB operation
EX = 2.8500
Ex = sum(X.*PX)     % An alternate calculation
Ex = 2.8500
ex = X*PX'          % Another alternate
ex = 2.8500

Expectativa y forma primitiva

La definición y tratamiento anterior asumeX es en forma canónica, en cuyo caso

X=ni=1tiIAi, dondeAi={X=ti}, implicaE[X]=ni=1tiP(Ai)

Deseamos aliviar esta restricción a la forma canónica.

Supongamos que la variable aleatoria simpleX está en una forma primitiva

X=mj=1cjICj, donde{Cj:1jm} es una partición

Demostramos que

E[X]=mj=1cjP(Cj)

Antes de una verificación formal, comenzamos con un ejemplo que exhibe el patrón esencial. Establecer el caso general es simplemente una cuestión de uso apropiado de la notación.

Ejemplo 11.1.4. variable aleatoria simple x en forma primitiva

X=IC1+2IC2+IC3+3IC4+2IC5+2IC6, con{C1,C2,C3,C4,C5,C6} una partición

inspección muestra los distintos valores posiblesX de ser 1, 2 o 3. También

A1={X=1}=C1C3,A2={X=2}=C2C5C6 yA3={X=3}=C4

para que

P(A1)=P(C1)+P(C3),P(A2)=P(C2)+P(C5)+P(C6), yP(A3)=P(C4)

Ahora

E[X]=P(A1)+2P(A2)+3P(A3)=P(C1)+P(C3)+2[P(C2)+P(C5)+P(C6)]+3P(C4)

=P(C1)+2P(C2)+P(C3)+3P(C4)+2P(C5)+2P(C6)

Para establecer el patrón general, considereX=mj=1cjICj. Identificamos el conjunto distinto de valores contenidos en el conjunto{cj:1jm}. Supongamos que estos sont1<t2<<tn. Para cualquier valorti en el rango, identificar el conjuntoJi de índices de aquellosj tales quecj=ti. Luego los términos

JicjICj=tiJiICj=tiIAi, dondeAi=jJiCj

Por la aditividad de la probabilidad

P(Ai)=P(X=ti)=jJiP(Cj)

Ya que para cada unojJi tenemoscj=ti, tenemos

E[X]=ni=1tiP(Ai)=ni=1tijJiP(Cj)=ni=1jJicjP(Cj)=mj=1cjP(Cj)

— □

Así, la expresión definitoria de expectativa se mantiene así para X en una forma primitiva.

Un enfoque alternativo para obtener la expectativa de una forma primitiva es utilizar la operación csort para determinar la distribuciónX de los coeficientes y probabilidades de la forma primitiva.

Ejemplo 11.1.5. Determinaciones alternas de E [x]

Supongamos queX en una forma primitiva es

X=IC1+2IC2+IC3+3IC4+2IC5+2IC6+IC7+3IC8+2IC9+IC10

con probabilidades respectivas

P(Ci)=0.08,0.11,0.06,0.13,0.05,0.08,0.12,0.07,0.14,0.16

c = [1 2 1 3 2 2 1 3 2 1];             % Matrix of coefficients
pc = 0.01*[8 11 6 13 5 8 12 7 14 16];  % Matrix of probabilities
EX = c*pc'
EX = 1.7800                            % Direct solution
[X,PX] = csort(c,pc);                  % Determinatin of dbn for X
disp([X;PX]')
    1.0000    0.4200
    2.0000    0.3800
    3.0000    0.2000
Ex = X*PX'                             % E[X] from distribution
Ex = 1.7800

Linealidad

El resultado en formas primitivas puede ser utilizado para establecer la linealidad de la expectativa matemática para variables aleatorias simples. Por su importancia fundamental, trabajamos a través de la verificación con cierto detalle.

SupongamosX=ni=1tiIAi yY=mj=1ujIBj (ambos en forma canónica). Desde

ni=1IAi=mj=1IBj=1

tenemos

X+Y=ni=1tiIAi(mj=1IBj)+mj=1ujIBj(ni=1IAi)=ni=1mj=1(ti+uj)IAiIBj

Tenga en cuenta queIAiIBj=IAiBj yAiBj={X=ti,Y=uj}. La clase de estos conjuntos para todos los pares posibles(i,j) forma una partición. Así, la última suma se expresaZ=X+Y en una forma primitiva. Debido al resultado sobre las formas primitivas, arriba, tenemos

E[X+Y]=ni=1mj=1(ti+uj)P(AiBj)=ni=1mj=1tiP(AiBj)+ni=1mj=1ujP(AiBj)

=ni=1timj=1P(AiBj)+mj=1ujni=1P(AiBj)

Observamos que para cada unoi y para cadaj

P(Ai)=mj=1P(AiBj)yP(Bj)=ni=1P(AiBj)

Por lo tanto, podemos escribir

E[X+Y]=ni=1tiP(Ai)+mj=1ujP(Bj)=E[X]+E[Y]

AhoraaX ybY son simples siX yY son, de modo que con el aide del Ejemplo 11.1.1 tenemos

E[aX+bY]=E[aX]+E[bY]=aE[X]+bE[Y]

SiX,Y,Z son simples, entonces también lo sonaX+bY, ycZ. De ello se deduce que

E[aX+bY+cZ]=E[aX+bY]+cE[Z]=aE[X]+bE[Y]+cE[Z]

Mediante un argumento inductivo, este patrón puede extenderse a una combinación lineal de cualquier número finito de variables aleatorias simples. Así podemos afirmar

Linealidad. La expectativa de una combinación lineal de un número finito de variables aleatorias simples es esa combinación lineal de las expectativas de las variables aleatorias individuales.

— □

Expectativa de una variable aleatoria simple en forma afín

Como consecuencia directa de la linealidad, siempre que la variable aleatoria simpleX esté en forma afín, entonces

E[X]=E[c0+ni=1ciIEi]=c0+ni=1ciP(Ei)

Así, la expresión definitoria se mantiene para cualquier combinación afín de funciones indicadoras, ya sea en forma canónica o no.

Ejemplo 11.1.6. distribución binomial (n, p)

Esta variable aleatoria aparece como el número de éxitos en los ensayos den Bernoulli con probabilidad p de éxito en cada ensayo componente. Se expresa naturalmente en forma afín

X=ni=1IEipara queE[X]=ni=1p=np

Como alternativa, en forma canónica

X=nk=0kIAkn, conpk=P(Akn)=P(X=k)=C(n,k)pkqnk,q=1p

para que

E[X]=nk=0kC(n,k)pkqnk,q=1p

Algunos trucos algebraicos pueden ser utilizados para demostrar que la segunda forma suma anp, pero no hay necesidad de eso. El cómputo para la forma afín es mucho más sencillo.

Ejemplo 11.1.7. Ganancias esperadas

Un apostador hace tres apuestas a $2.00 cada una. La primera apuesta paga $10.00 con probabilidad 0.15, la segunda paga $8.00 con probabilidad 0.20, y la tercera paga $20.00 con probabilidad 0.10. ¿Cuál es la ganancia esperada?

Solución

La ganancia neta puede ser expresada

X=10IA+8IB+20IC6, conP(A)=0.15,P(B)=0.20,P(C)=0.10

Entonces

E[X]=100.15+80.20+200.106=0.90

Estos cálculos se pueden hacer en MATLAB de la siguiente manera:

c = [10 8 20 -6];
p = [0.15 0.20 0.10 1.00]; % Constant a = aI_(Omega), with P(Omega) = 1
E = c*p'
E = -0.9000

Funciones de variables aleatorias simples

SiX está en una forma primitiva (incluida la forma canónica) yg es una función real definida en el rango deX, entonces

Z=g(X)=mj=1g(cj)ICjuna forma primitiva

para que

E[Z]=E[g(X)]=mj=1g(cj)P(Cj)

Como alternativa, podemos usar csort para determinar la distribuciónZ y trabajar con esa distribución.

Precaución. SiX está en forma afín (pero no una forma primitiva)

X=c0+mj=1cjIEjentoncesg(X)g(c0)+mj=1g(cj)IEj

para que

E[g(X)]g(c0)+mj=1g(cj)P(Ej)

Ejemplo 11.1.8. expectativa de una función de x

Supongamos queX en una forma primitiva es

X=3IC1IC2+2IC33IC4+4IC5IC6+IC7+2IC8+3IC9+2IC10

con probabilidadesP(Ci)=0.08,0.11,0.06,0.13,0.05,0.08,0.12,0.07,0.14,0.16.

Vamosg(t)=t2+2t. DeterminarE(g(X)].

c = [-3 -1 2 -3 4 -1 1 2 3 2];            % Original coefficients
pc = 0.01*[0 11 6 13 5 8 12 7 14 16];     % Probabilities for C_j
G = c.^2 + 2*c                            % g(c_j)
G = 3  -1  8  3  24  -1  3  8  15  8
EG = G*pc'                                % Direct computation
EG = 6.4200
[Z,PZ] = csort(G,pc);                     % Distribution for Z = g(X)
disp([Z; PZ]')
    -1.0000    0.1900
     3.0000    0.3300
     8.0000    0.2900
    15.0000    0.1400
    24.0000    0.0500
EZ = Z*PZ'                                % E[Z] from distribution for Z
EZ = 6.4200

Un enfoque similar se puede hacer a una función de un par de variables aleatorias simples, siempre que la distribución conjunta esté disponible. SupongamosX=ni=1tiIAi yY=mj=1ujIBj (ambos en forma canónica). Entonces

Z=g(X,Y)=ni=1mj=1g(ti,uj)IAiBj

LaAiBj forma una partición, asíZ es en una forma primitiva. Tenemos las mismas dos posibilidades alternativas: (1) cálculo directo a partir de valoresg(ti,uj) y probabilidades correspondientesP(AiBj)=P(X=ti,Y=uj), o (2) uso de csort para obtener la distribución paraZ.

Ejemplo 11.1.9. expectativa para z = g (x, y)

Utilizamos la distribución conjunta en archivo jdemo1.m y letg(t,u)=t2+2tu3u. Para configurar los cálculos, utilizamos jcalc.

% file jdemo1.m
X = [-2.37 -1.93 -0.47 -0.11 0 0.57 1.22 2.15 2.97 3.74];
Y = [-3.06 -1.44 -1.21 0.07 0.88 1.77 2.01 2.84];
P = 0.0001*[ 53   8 167 170 184  18  67 122  18  12;
             11  13 143 221 241 153  87 125 122 185;
            165 129 226 185  89 215  40  77  93 187;
            165 163 205  64  60  66 118 239  67 201;
            227   2 128  12 238 106 218 120 222  30;
             93  93  22 179 175 186 221  65 129   4;
            126  16 159  80 183 116  15  22 113 167;
            198 101 101 154 158  58 220 230 228 211];
jdemo1                   % Call for data
jcalc                    % Set up
Enter JOINT PROBABILITIES (as on the plane)   P
Enter row matrix of VALUES of X  X
Enter row matrix of VALUES of Y  Y
 Use array operations on matrices X, Y, PX, PY, t, u, and P
G = t.^2 + 2*t.*u - 3*u; % Calculation of matrix of [g(t_i, u_j)]
EG = total(G.*P)         % Direct claculation of expectation
EG = 3.2529
[Z,PZ] = csort(G,P);     % Determination of distribution for Z
EZ = Z*PZ'               % E[Z] from distribution
EZ = 3.2529

This page titled 11.1: Expectativa matemática- Variables aleatorias simples is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform.

Support Center

How can we help?