11.1: Expectativa matemática- Variables aleatorias simples
( \newcommand{\kernel}{\mathrm{null}\,}\)
Introducción
La probabilidad de que la variable aleatoria realX tome un valor en un conjuntoM de números reales se interpreta como la probabilidad de que se encuentreX(ω) el valor observado en cualquier ensayoM. Históricamente, esta idea de verosimilitud está enraizada en la noción intuitiva de que si el experimento se repite suficientes veces la probabilidad es aproximadamente la fracción de veces que el valor deX caerá enM. Asociada a esta interpretación se encuentra la noción del promedio de los valores tomados. Incorporamos el concepto de expectativa matemática en el modelo matemático como una forma apropiada de tales promedios. Comenzamos por estudiar la expectativa matemática de variables aleatorias simples, luego extendemos la definición y propiedades al caso general. En el proceso, observamos la relación de la expectativa matemática con la integral de Lebesque, la cual se desarrolla en la teoría de medidas abstractas. Aunque no desarrollamos esta teoría, que se encuentra fuera del alcance de este estudio, la identificación de esta relación proporciona acceso a un rico y poderoso conjunto de propiedades que tienen consecuencias de largo alcance tanto en la aplicación como en la teoría.
Expectativa para variables aleatorias simples
La noción de expectativa matemática está estrechamente relacionada con la idea de una media ponderada, utilizada ampliamente en el manejo de datos numéricos. Considera el promedio aritméticoˉx de los diez números siguientes: 1, 2, 2, 2, 4, 5, 5, 8, 8, 8, que viene dada por
ˉx=110(1+2+2+2+4+5+5+8+8+8)
El examen de los diez números a sumar muestra que se incluyen cinco valores distintos. Uno de los diez, o la fracción 1/10 de ellos, tiene el valor 1, tres de los diez, o la fracción 3/10 de ellos, tienen el valor 2, 1/10 tiene el valor 4, 2/10 tienen el valor 5, y 3/10 tienen el valor 8. Así, podríamos escribir
ˉx=(0.1⋅1+0.3⋅2+0.1⋅4+0.2⋅5+0.3⋅8)
El patrón en esta última expresión se puede afirmar con palabras: Multiplica cada valor posible por la fracción de los números que tienen ese valor y luego suma estos productos. Las fracciones a menudo se denominan frecuencias relativas. Una suma de este tipo se conoce como promedio ponderado.
En general, supongamos que hayn números{x1,x2,⋅⋅⋅xn} a promediar, con m≤nm≤n valores distintos{t1,t2⋅⋅⋅tm}. Supongamosf1 tener valort1,f2 tener valort2⋅⋅⋅,,fm tener valortm. Elfi debe agregar an. Si establecemospi=fi/n, entonces la fracciónpi se llama la frecuencia relativa de aquellos números en el conjunto que tienen el valorti,1≤i≤m. Se puede escribir el promedioˉx de losn números
ˉx=1n∑ni=1xi=∑mj=1tjpj
En teoría de probabilidad, tenemos un proceso de promedio similar en el que las frecuencias relativas de los diversos valores posibles de son reemplazadas por las probabilidades de que esos valores se observen en cualquier ensayo.
Definición. Para una variable aleatoria simpleX con valores{t1,t2,⋅⋅⋅tn} y probabilidades correspondientes expectativapi=P(X=ti) matemática, designadaE[X], es el promedio ponderado de probabilidad de los valores tomados porX. En símbolos
E[X]=∑ni=1tiP(X=ti)=∑ni=1tipi
Tenga en cuenta que la expectativa está determinada por la distribución. Dos variables aleatorias muy diferentes pueden tener la misma distribución, de ahí la misma expectativa. Tradicionalmente, este promedio se ha denominado la media, o el valor medio, de la variable aleatoriaX.
Ejemplo 11.1.1. Algunos casos especiales
- Ya queX=aIE=0IEc+aIE, tenemosE[aIE]=aP(E).
- PorX una constantec,X=cIΩ, así queE[c]=cP(Ω)=c.
- SiX=∑ni=1tiIAi entoncesaX=∑ni=1atiIAi, para que
E[aX]=∑ni=1atiP(Ai)=a∑ni=1tiP(Ai)=aE[X]
Figura 1. Momento de una distribución de probabilidad sobre el origen.
Interpretación mecánica
Para ayudar a visualizar un sistema esencialmente abstracto, hemos empleado la noción de probabilidad como masa. La distribución inducida por una variable aleatoria real en la línea se visualiza como una unidad de masa de probabilidad realmente distribuida a lo largo de la línea. Utilizamos la distribución masiva para dar una interpretación mecánica importante y útil de la expectativa o valor medio. En el Ejemplo 6 en “Expectativa Matemática: Variables Aleatorias Generales”, damos una interpretación alternativa en términos de estimación cuadrática media.
Supongamos que la variable aleatoriaX tiene valores{ti;1≤i≤n}, conP(X=ti)=pi. Esto produce una distribución de masa de probabilidad, como se muestra en la Figura 1, con concentración de masa puntual en la cantidad depi en el puntoti. La expectativa es
∑itipi
Ahora |ti||ti| es la distancia de masa puntualpi desde el origen, conpi a la izquierda del origen iffti es negativo. Mecánicamente, la suma de los productos tipitipi es el momento de la distribución de la masa de probabilidad sobre el origen en la línea real. A partir de la teoría física, se sabe que este momento es el mismo que el producto de la masa total multiplicado por el número que localiza el centro de masa. Dado que la masa total es uno, el valor medio es la ubicación del centro de masa. Si la línea real se ve como una varilla rígida e ingrávida con masa puntualpi unida a cada valorti deX, entonces el valor medioμX es el punto de equilibrio. A menudo hay simetrías en la distribución que permiten determinar la expectativa sin un cálculo detallado.
Ejemplo 11.1.2. el número de manchas en un dado
XSea el número de manchas que aparecen en un tiro de un simple dado de seis lados. Suponemos que cada número es igualmente probable. Así los valores son los enteros uno a seis, y cada probabilidad es 1/6. Por definición
E[X]=16⋅1+16⋅2+16⋅3+16⋅4+16⋅5+16⋅6=16(1+2+3+4+5+6)=72
Aunque el cálculo es muy sencillo en este caso, realmente no es necesario. La distribución de probabilidad coloca la misma masa en cada uno de los valores enteros uno a seis. El centro de masa está en el punto medio.
Ejemplo 11.1.3. una elección simple
A una niña se le dice que puede tener uno de cuatro juguetes. Los precios son de $2.50. $3.00, $2.00, y $3.50, respectivamente. Ella elige uno, con respectivas probabilidades 0.2, 0.3, 0.2 y 0.3 de elegir el primero, segundo, tercero o cuarto. ¿Cuál es el costo esperado de su selección?
E[X]=2.00⋅0.2+2.50⋅0.2+3.00⋅0.3+3.50⋅0.3+2.85
Para una variable aleatoria simple, la expectativa matemática se determina como el producto de puntos de la matriz de valores con la matriz de probabilidad. Esto se calcula fácilmente usando MATLAB.
cálculo de matlab por ejemplo 11.1.3
X = [2 2.5 3 3.5]; % Matrix of values (ordered) PX = 0.1*[2 2 3 3]; % Matrix of probabilities EX = dot(X,PX) % The usual MATLAB operation EX = 2.8500 Ex = sum(X.*PX) % An alternate calculation Ex = 2.8500 ex = X*PX' % Another alternate ex = 2.8500
Expectativa y forma primitiva
La definición y tratamiento anterior asumeX es en forma canónica, en cuyo caso
X=∑ni=1tiIAi, dondeAi={X=ti}, implicaE[X]=∑ni=1tiP(Ai)
Deseamos aliviar esta restricción a la forma canónica.
Supongamos que la variable aleatoria simpleX está en una forma primitiva
X=∑mj=1cjICj, donde{Cj:1≤j≤m} es una partición
Demostramos que
E[X]=∑mj=1cjP(Cj)
Antes de una verificación formal, comenzamos con un ejemplo que exhibe el patrón esencial. Establecer el caso general es simplemente una cuestión de uso apropiado de la notación.
Ejemplo 11.1.4. variable aleatoria simple x en forma primitiva
X=IC1+2IC2+IC3+3IC4+2IC5+2IC6, con{C1,C2,C3,C4,C5,C6} una partición
inspección muestra los distintos valores posiblesX de ser 1, 2 o 3. También
A1={X=1}=C1⋁C3,A2={X=2}=C2⋁C5⋁C6 yA3={X=3}=C4
para que
P(A−1)=P(C1)+P(C3),P(A2)=P(C2)+P(C5)+P(C6), yP(A3)=P(C4)
Ahora
E[X]=P(A1)+2P(A2)+3P(A3)=P(C1)+P(C3)+2[P(C2)+P(C5)+P(C6)]+3P(C4)
=P(C1)+2P(C2)+P(C3)+3P(C4)+2P(C5)+2P(C6)
Para establecer el patrón general, considereX=∑mj=1cjICj. Identificamos el conjunto distinto de valores contenidos en el conjunto{cj:1≤j≤m}. Supongamos que estos sont1<t2<⋅⋅⋅<tn. Para cualquier valorti en el rango, identificar el conjuntoJi de índices de aquellosj tales quecj=ti. Luego los términos
∑JicjICj=ti∑JiICj=tiIAi, dondeAi=⋁j∈JiCj
Por la aditividad de la probabilidad
P(Ai)=P(X=ti)=∑j∈JiP(Cj)
Ya que para cada unoj∈Ji tenemoscj=ti, tenemos
E[X]=∑ni=1tiP(Ai)=∑ni=1ti∑j∈JiP(Cj)=∑ni=1∑j∈JicjP(Cj)=∑mj=1cjP(Cj)
— □
Así, la expresión definitoria de expectativa se mantiene así para X en una forma primitiva.
Un enfoque alternativo para obtener la expectativa de una forma primitiva es utilizar la operación csort para determinar la distribuciónX de los coeficientes y probabilidades de la forma primitiva.
Ejemplo 11.1.5. Determinaciones alternas de E [x]
Supongamos queX en una forma primitiva es
X=IC1+2IC2+IC3+3IC4+2IC5+2IC6+IC7+3IC8+2IC9+IC10
con probabilidades respectivas
P(Ci)=0.08,0.11,0.06,0.13,0.05,0.08,0.12,0.07,0.14,0.16
c = [1 2 1 3 2 2 1 3 2 1]; % Matrix of coefficients pc = 0.01*[8 11 6 13 5 8 12 7 14 16]; % Matrix of probabilities EX = c*pc' EX = 1.7800 % Direct solution [X,PX] = csort(c,pc); % Determinatin of dbn for X disp([X;PX]') 1.0000 0.4200 2.0000 0.3800 3.0000 0.2000 Ex = X*PX' % E[X] from distribution Ex = 1.7800
Linealidad
El resultado en formas primitivas puede ser utilizado para establecer la linealidad de la expectativa matemática para variables aleatorias simples. Por su importancia fundamental, trabajamos a través de la verificación con cierto detalle.
SupongamosX=∑ni=1tiIAi yY=∑mj=1ujIBj (ambos en forma canónica). Desde
∑ni=1IAi=∑mj=1IBj=1
tenemos
X+Y=∑ni=1tiIAi(∑mj=1IBj)+∑mj=1ujIBj(∑ni=1IAi)=∑ni=1∑mj=1(ti+uj)IAiIBj
Tenga en cuenta queIAiIBj=IAiBj yAiBj={X=ti,Y=uj}. La clase de estos conjuntos para todos los pares posibles(i,j) forma una partición. Así, la última suma se expresaZ=X+Y en una forma primitiva. Debido al resultado sobre las formas primitivas, arriba, tenemos
E[X+Y]=∑ni=1∑mj=1(ti+uj)P(AiBj)=∑ni=1∑mj=1tiP(AiBj)+∑ni=1∑mj=1ujP(AiBj)
=∑ni=1ti∑mj=1P(AiBj)+∑mj=1uj∑ni=1P(AiBj)
Observamos que para cada unoi y para cadaj
P(Ai)=∑mj=1P(AiBj)yP(Bj)=∑ni=1P(AiBj)
Por lo tanto, podemos escribir
E[X+Y]=∑ni=1tiP(Ai)+∑mj=1ujP(Bj)=E[X]+E[Y]
AhoraaX ybY son simples siX yY son, de modo que con el aide del Ejemplo 11.1.1 tenemos
E[aX+bY]=E[aX]+E[bY]=aE[X]+bE[Y]
SiX,Y,Z son simples, entonces también lo sonaX+bY, ycZ. De ello se deduce que
E[aX+bY+cZ]=E[aX+bY]+cE[Z]=aE[X]+bE[Y]+cE[Z]
Mediante un argumento inductivo, este patrón puede extenderse a una combinación lineal de cualquier número finito de variables aleatorias simples. Así podemos afirmar
Linealidad. La expectativa de una combinación lineal de un número finito de variables aleatorias simples es esa combinación lineal de las expectativas de las variables aleatorias individuales.
— □
Expectativa de una variable aleatoria simple en forma afín
Como consecuencia directa de la linealidad, siempre que la variable aleatoria simpleX esté en forma afín, entonces
E[X]=E[c0+∑ni=1ciIEi]=c0+∑ni=1ciP(Ei)
Así, la expresión definitoria se mantiene para cualquier combinación afín de funciones indicadoras, ya sea en forma canónica o no.
Ejemplo 11.1.6. distribución binomial (n, p)
Esta variable aleatoria aparece como el número de éxitos en los ensayos den Bernoulli con probabilidad p de éxito en cada ensayo componente. Se expresa naturalmente en forma afín
X=∑ni=1IEipara queE[X]=∑ni=1p=np
Como alternativa, en forma canónica
X=∑nk=0kIAkn, conpk=P(Akn)=P(X=k)=C(n,k)pkqn−k,q=1−p
para que
E[X]=∑nk=0kC(n,k)pkqn−k,q=1−p
Algunos trucos algebraicos pueden ser utilizados para demostrar que la segunda forma suma anp, pero no hay necesidad de eso. El cómputo para la forma afín es mucho más sencillo.
Ejemplo 11.1.7. Ganancias esperadas
Un apostador hace tres apuestas a $2.00 cada una. La primera apuesta paga $10.00 con probabilidad 0.15, la segunda paga $8.00 con probabilidad 0.20, y la tercera paga $20.00 con probabilidad 0.10. ¿Cuál es la ganancia esperada?
Solución
La ganancia neta puede ser expresada
X=10IA+8IB+20IC−6, conP(A)=0.15,P(B)=0.20,P(C)=0.10
Entonces
E[X]=10⋅0.15+8⋅0.20+20⋅0.10−6=−0.90
Estos cálculos se pueden hacer en MATLAB de la siguiente manera:
c = [10 8 20 -6]; p = [0.15 0.20 0.10 1.00]; % Constant a = aI_(Omega), with P(Omega) = 1 E = c*p' E = -0.9000
Funciones de variables aleatorias simples
SiX está en una forma primitiva (incluida la forma canónica) yg es una función real definida en el rango deX, entonces
Z=g(X)=∑mj=1g(cj)ICjuna forma primitiva
para que
E[Z]=E[g(X)]=∑mj=1g(cj)P(Cj)
Como alternativa, podemos usar csort para determinar la distribuciónZ y trabajar con esa distribución.
Precaución. SiX está en forma afín (pero no una forma primitiva)
X=c0+∑mj=1cjIEjentoncesg(X)≠g(c0)+∑mj=1g(cj)IEj
para que
E[g(X)]≠g(c0)+∑mj=1g(cj)P(Ej)
Ejemplo 11.1.8. expectativa de una función de x
Supongamos queX en una forma primitiva es
X=−3IC1−IC2+2IC3−3IC4+4IC5−IC6+IC7+2IC8+3IC9+2IC10
con probabilidadesP(Ci)=0.08,0.11,0.06,0.13,0.05,0.08,0.12,0.07,0.14,0.16.
Vamosg(t)=t2+2t. DeterminarE(g(X)].
c = [-3 -1 2 -3 4 -1 1 2 3 2]; % Original coefficients pc = 0.01*[0 11 6 13 5 8 12 7 14 16]; % Probabilities for C_j G = c.^2 + 2*c % g(c_j) G = 3 -1 8 3 24 -1 3 8 15 8 EG = G*pc' % Direct computation EG = 6.4200 [Z,PZ] = csort(G,pc); % Distribution for Z = g(X) disp([Z; PZ]') -1.0000 0.1900 3.0000 0.3300 8.0000 0.2900 15.0000 0.1400 24.0000 0.0500 EZ = Z*PZ' % E[Z] from distribution for Z EZ = 6.4200
Un enfoque similar se puede hacer a una función de un par de variables aleatorias simples, siempre que la distribución conjunta esté disponible. SupongamosX=∑ni=1tiIAi yY=∑mj=1ujIBj (ambos en forma canónica). Entonces
Z=g(X,Y)=∑ni=1∑mj=1g(ti,uj)IAiBj
LaAiBj forma una partición, asíZ es en una forma primitiva. Tenemos las mismas dos posibilidades alternativas: (1) cálculo directo a partir de valoresg(ti,uj) y probabilidades correspondientesP(AiBj)=P(X=ti,Y=uj), o (2) uso de csort para obtener la distribución paraZ.
Ejemplo 11.1.9. expectativa para z = g (x, y)
Utilizamos la distribución conjunta en archivo jdemo1.m y letg(t,u)=t2+2tu−3u. Para configurar los cálculos, utilizamos jcalc.
% file jdemo1.m X = [-2.37 -1.93 -0.47 -0.11 0 0.57 1.22 2.15 2.97 3.74]; Y = [-3.06 -1.44 -1.21 0.07 0.88 1.77 2.01 2.84]; P = 0.0001*[ 53 8 167 170 184 18 67 122 18 12; 11 13 143 221 241 153 87 125 122 185; 165 129 226 185 89 215 40 77 93 187; 165 163 205 64 60 66 118 239 67 201; 227 2 128 12 238 106 218 120 222 30; 93 93 22 179 175 186 221 65 129 4; 126 16 159 80 183 116 15 22 113 167; 198 101 101 154 158 58 220 230 228 211];
jdemo1 % Call for data jcalc % Set up Enter JOINT PROBABILITIES (as on the plane) P Enter row matrix of VALUES of X X Enter row matrix of VALUES of Y Y Use array operations on matrices X, Y, PX, PY, t, u, and P G = t.^2 + 2*t.*u - 3*u; % Calculation of matrix of [g(t_i, u_j)] EG = total(G.*P) % Direct claculation of expectation EG = 3.2529 [Z,PZ] = csort(G,P); % Determination of distribution for Z EZ = Z*PZ' % E[Z] from distribution EZ = 3.2529