11.1: Expectativa matemática- Variables aleatorias simples
- Page ID
- 151137
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)Introducción
La probabilidad de que la variable aleatoria real\(X\) tome un valor en un conjunto\(M\) de números reales se interpreta como la probabilidad de que se encuentre\(X(\omega)\) el valor observado en cualquier ensayo\(M\). Históricamente, esta idea de verosimilitud está enraizada en la noción intuitiva de que si el experimento se repite suficientes veces la probabilidad es aproximadamente la fracción de veces que el valor de\(X\) caerá en\(M\). Asociada a esta interpretación se encuentra la noción del promedio de los valores tomados. Incorporamos el concepto de expectativa matemática en el modelo matemático como una forma apropiada de tales promedios. Comenzamos por estudiar la expectativa matemática de variables aleatorias simples, luego extendemos la definición y propiedades al caso general. En el proceso, observamos la relación de la expectativa matemática con la integral de Lebesque, la cual se desarrolla en la teoría de medidas abstractas. Aunque no desarrollamos esta teoría, que se encuentra fuera del alcance de este estudio, la identificación de esta relación proporciona acceso a un rico y poderoso conjunto de propiedades que tienen consecuencias de largo alcance tanto en la aplicación como en la teoría.
Expectativa para variables aleatorias simples
La noción de expectativa matemática está estrechamente relacionada con la idea de una media ponderada, utilizada ampliamente en el manejo de datos numéricos. Considera el promedio aritmético\(\bar{x}\) de los diez números siguientes: 1, 2, 2, 2, 4, 5, 5, 8, 8, 8, que viene dada por
\(\bar{x} = \dfrac{1}{10} (1 + 2 + 2 + 2 + 4 + 5 + 5 + 8 + 8 + 8)\)
El examen de los diez números a sumar muestra que se incluyen cinco valores distintos. Uno de los diez, o la fracción 1/10 de ellos, tiene el valor 1, tres de los diez, o la fracción 3/10 de ellos, tienen el valor 2, 1/10 tiene el valor 4, 2/10 tienen el valor 5, y 3/10 tienen el valor 8. Así, podríamos escribir
\(\bar{x} = (0.1 \cdot 1 + 0.3 \cdot 2 + 0.1 \cdot 4 + 0.2 \cdot 5 + 0.3 \cdot 8)\)
El patrón en esta última expresión se puede afirmar con palabras: Multiplica cada valor posible por la fracción de los números que tienen ese valor y luego suma estos productos. Las fracciones a menudo se denominan frecuencias relativas. Una suma de este tipo se conoce como promedio ponderado.
En general, supongamos que hay\(n\) números\(\{x_1, x_2, \cdot\cdot\cdot x_n\}\) a promediar, con m≤nm≤n valores distintos\(\{t_1, t_2 \cdot \cdot\cdot t_m\}\). Supongamos\(f_1\) tener valor\(t_1\),\(f_2\) tener valor\(t_2\)\(\cdot\cdot\cdot\),,\(f_m\) tener valor\(t_m\). El\(f_i\) debe agregar a\(n\). Si establecemos\(p_i = f_i / n\), entonces la fracción\(p_i\) se llama la frecuencia relativa de aquellos números en el conjunto que tienen el valor\(t_i\),\(1 \le i \le m\). Se puede escribir el promedio\(\bar{x}\) de los\(n\) números
\(\bar{x} = \dfrac{1}{n} \sum_{i = 1}^{n} x_i = \sum_{j = 1}^{m} t_j p_j\)
En teoría de probabilidad, tenemos un proceso de promedio similar en el que las frecuencias relativas de los diversos valores posibles de son reemplazadas por las probabilidades de que esos valores se observen en cualquier ensayo.
Definición. Para una variable aleatoria simple\(X\) con valores\(\{t_1, t_2, \cdot\cdot\cdot t_n\}\) y probabilidades correspondientes expectativa\(p_i = P(X = t_i)\) matemática, designada\(E[X]\), es el promedio ponderado de probabilidad de los valores tomados por\(X\). En símbolos
\(E[X] = \sum_{i = 1}^{n} t_i P(X = t_i) = \sum_{i = 1}^{n} t_ip_i\)
Tenga en cuenta que la expectativa está determinada por la distribución. Dos variables aleatorias muy diferentes pueden tener la misma distribución, de ahí la misma expectativa. Tradicionalmente, este promedio se ha denominado la media, o el valor medio, de la variable aleatoria\(X\).
Ejemplo 11.1.1. Algunos casos especiales
- Ya que\(X = aI_E = 0 I_{E^c} + aI_E\), tenemos\(E[aI_E] = a P(E)\).
- Por\(X\) una constante\(c\),\(X = cI_{\Omega}\), así que\(E[c] = cP(\Omega) = c\).
- Si\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) entonces\(aX = \sum_{i = 1}^{n} at_i I_{A_i}\), para que
\(E[aX] = \sum_{i = 1}^{n} at_i P(A_i) = a\sum_{i = 1}^{n} t_i P(A_i) = aE[X]\)
Figura 1. Momento de una distribución de probabilidad sobre el origen.
Interpretación mecánica
Para ayudar a visualizar un sistema esencialmente abstracto, hemos empleado la noción de probabilidad como masa. La distribución inducida por una variable aleatoria real en la línea se visualiza como una unidad de masa de probabilidad realmente distribuida a lo largo de la línea. Utilizamos la distribución masiva para dar una interpretación mecánica importante y útil de la expectativa o valor medio. En el Ejemplo 6 en “Expectativa Matemática: Variables Aleatorias Generales”, damos una interpretación alternativa en términos de estimación cuadrática media.
Supongamos que la variable aleatoria\(X\) tiene valores\(\{t_i; 1 \le i \le n\}\), con\(P(X = t_i) = p_i\). Esto produce una distribución de masa de probabilidad, como se muestra en la Figura 1, con concentración de masa puntual en la cantidad de\(p_i\) en el punto\(t_i\). La expectativa es
\(\sum_{i} t_i p_i\)
Ahora |ti||ti| es la distancia de masa puntual\(p_i\) desde el origen, con\(p_i\) a la izquierda del origen iff\(t_i\) es negativo. Mecánicamente, la suma de los productos tipitipi es el momento de la distribución de la masa de probabilidad sobre el origen en la línea real. A partir de la teoría física, se sabe que este momento es el mismo que el producto de la masa total multiplicado por el número que localiza el centro de masa. Dado que la masa total es uno, el valor medio es la ubicación del centro de masa. Si la línea real se ve como una varilla rígida e ingrávida con masa puntual\(p_i\) unida a cada valor\(t_i\) de\(X\), entonces el valor medio\(\mu_X\) es el punto de equilibrio. A menudo hay simetrías en la distribución que permiten determinar la expectativa sin un cálculo detallado.
Ejemplo 11.1.2. el número de manchas en un dado
\(X\)Sea el número de manchas que aparecen en un tiro de un simple dado de seis lados. Suponemos que cada número es igualmente probable. Así los valores son los enteros uno a seis, y cada probabilidad es 1/6. Por definición
\(E[X] = \dfrac{1}{6} \cdot 1 + \dfrac{1}{6} \cdot 2 + \dfrac{1}{6} \cdot 3 + \dfrac{1}{6} \cdot 4 + \dfrac{1}{6} \cdot 5 + \dfrac{1}{6} \cdot 6 = \dfrac{1}{6} (1 + 2 + 3 + 4 + 5 + 6) = \dfrac{7}{2}\)
Aunque el cálculo es muy sencillo en este caso, realmente no es necesario. La distribución de probabilidad coloca la misma masa en cada uno de los valores enteros uno a seis. El centro de masa está en el punto medio.
Ejemplo 11.1.3. una elección simple
A una niña se le dice que puede tener uno de cuatro juguetes. Los precios son de $2.50. $3.00, $2.00, y $3.50, respectivamente. Ella elige uno, con respectivas probabilidades 0.2, 0.3, 0.2 y 0.3 de elegir el primero, segundo, tercero o cuarto. ¿Cuál es el costo esperado de su selección?
\(E[X] = 2.00 \cdot 0.2 + 2.50 \cdot 0.2 + 3.00 \cdot 0.3 + 3.50 \cdot 0.3 + 2.85\)
Para una variable aleatoria simple, la expectativa matemática se determina como el producto de puntos de la matriz de valores con la matriz de probabilidad. Esto se calcula fácilmente usando MATLAB.
cálculo de matlab por ejemplo 11.1.3
X = [2 2.5 3 3.5]; % Matrix of values (ordered) PX = 0.1*[2 2 3 3]; % Matrix of probabilities EX = dot(X,PX) % The usual MATLAB operation EX = 2.8500 Ex = sum(X.*PX) % An alternate calculation Ex = 2.8500 ex = X*PX' % Another alternate ex = 2.8500
Expectativa y forma primitiva
La definición y tratamiento anterior asume\(X\) es en forma canónica, en cuyo caso
\(X = \sum_{i = 1}^{n} t_i I_{A_i}\), donde\(A_i = \{X = t_i\}\), implica\(E[X] = \sum_{i = 1}^{n} t_i P(A_i)\)
Deseamos aliviar esta restricción a la forma canónica.
Supongamos que la variable aleatoria simple\(X\) está en una forma primitiva
\(X = \sum_{j = 1}^{m} c_j I_{C_j}\), donde\(\{C_j: 1 \le j \le m\}\) es una partición
Demostramos que
\(E[X] = \sum_{j = 1}^{m} c_j P(C_j)\)
Antes de una verificación formal, comenzamos con un ejemplo que exhibe el patrón esencial. Establecer el caso general es simplemente una cuestión de uso apropiado de la notación.
Ejemplo 11.1.4. variable aleatoria simple x en forma primitiva
\(X = I_{C_1} + 2I_{C_2} + I_{C_3} + 3 I_{C_4} + 2 I_{C_5} + 2I_{C_6}\), con\(\{C_1, C_2, C_3, C_4, C_5, C_6\}\) una partición
inspección muestra los distintos valores posibles\(X\) de ser 1, 2 o 3. También
\(A_1 = \{X = 1\} = C_1 \bigvee C_3\),\(A_2 = \{X = 2\} = C_2 \bigvee C_5 \bigvee C_6\) y\(A_3 = \{X = 3\} = C_4\)
para que
\(P(A-1) = P(C_1) + P(C_3)\),\(P(A_2) = P(C_2) + P(C_5) + P(C_6)\), y\(P(A_3) = P(C_4)\)
Ahora
\(E[X] = P(A_1) + 2P(A_2) + 3P(A_3) = P(C_1) + P(C_3) + 2[P(C_2) + P(C_5) + P(C_6)] + 3P(C_4)\)
\(= P(C_1) + 2P(C_2) + P(C_3) + 3P(C_4) + 2P(C_5) + 2P(C_6)\)
Para establecer el patrón general, considere\(X = \sum_{j = 1}^{m} c_j I_{C_j}\). Identificamos el conjunto distinto de valores contenidos en el conjunto\(\{c_j: 1 \le j \le m\}\). Supongamos que estos son\(t_1 < t_2 < \cdot\cdot\cdot < t_n\). Para cualquier valor\(t_i\) en el rango, identificar el conjunto\(J_i\) de índices de aquellos\(j\) tales que\(c_j = t_i\). Luego los términos
\(\sum_{J_i} c_j I_{C_j} = t_i \sum_{J_i} I_{C_j} = t_i I_{A_i}\), donde\(A_i = \bigvee_{j \in J_i} C_j\)
Por la aditividad de la probabilidad
\(P(A_i) = P(X = t_i) = \sum_{j \in J_i} P(C_j)\)
Ya que para cada uno\(j \in J_i\) tenemos\(c_j = t_i\), tenemos
\(E[X] = \sum_{i = 1}^{n} t_i P(A_i) = \sum_{i = 1}^{n} t_i \sum_{j \in J_i} P(C_j) = \sum_{i = 1}^{n} \sum_{j \in J_i} c_j P(C_j) = \sum_{j = 1}^{m} c_j P(C_j)\)
— □
Así, la expresión definitoria de expectativa se mantiene así para X en una forma primitiva.
Un enfoque alternativo para obtener la expectativa de una forma primitiva es utilizar la operación csort para determinar la distribución\(X\) de los coeficientes y probabilidades de la forma primitiva.
Ejemplo 11.1.5. Determinaciones alternas de E [x]
Supongamos que\(X\) en una forma primitiva es
\(X = I_{C_1} + 2 I_{C_2} + I_{C_3} + 3I_{C_4} + 2I_{C_5} + 2I_{C_6} + I_{C_7} + 3I_{C_8} + 2I_{C_9} + I_{C_{10}}\)
con probabilidades respectivas
\(P(C_i) = 0.08, 0.11, 0.06, 0.13, 0.05, 0.08, 0.12, 0.07, 0.14, 0.16\)
c = [1 2 1 3 2 2 1 3 2 1]; % Matrix of coefficients pc = 0.01*[8 11 6 13 5 8 12 7 14 16]; % Matrix of probabilities EX = c*pc' EX = 1.7800 % Direct solution [X,PX] = csort(c,pc); % Determinatin of dbn for X disp([X;PX]') 1.0000 0.4200 2.0000 0.3800 3.0000 0.2000 Ex = X*PX' % E[X] from distribution Ex = 1.7800
Linealidad
El resultado en formas primitivas puede ser utilizado para establecer la linealidad de la expectativa matemática para variables aleatorias simples. Por su importancia fundamental, trabajamos a través de la verificación con cierto detalle.
Supongamos\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) y\(Y = \sum_{j = 1}^{m} u_j I_{B_j}\) (ambos en forma canónica). Desde
\(\sum_{i = 1}^{n} I_{A_i} = \sum_{j = 1}^{m} I_{B_j} = 1\)
tenemos
\(X + Y = \sum_{i = 1}^{n} t_i I_{A_i} (\sum_{j = 1}^{m} I_{B_j}) + \sum_{j = 1}^{m} u_j I_{B_j} (\sum_{i = 1}^{n} I_{A_i}) = \sum_{i = 1}^{n} \sum_{j = 1}^{m} (t_i + u_j) I_{A_i} I_{B_j}\)
Tenga en cuenta que\(I_{A_i} I_{B_j} = I_{A_i B_j}\) y\(A_i B_j = \{X = t_i, Y = u_j\}\). La clase de estos conjuntos para todos los pares posibles\((i, j)\) forma una partición. Así, la última suma se expresa\(Z = X + Y\) en una forma primitiva. Debido al resultado sobre las formas primitivas, arriba, tenemos
\(E[X + Y] = \sum_{i = 1}^{n} \sum_{j = 1}^{m} (t_i + u_j) P(A_i B_j) = \sum_{i = 1}^{n} \sum_{j = 1}^{m} t_i P(A_i B_j) + \sum_{i = 1}^{n} \sum_{j = 1}^{m} u_j P(A_i B_j)\)
\(= \sum_{i = 1}^{n} t_i \sum_{j = 1}^{m} P(A_i B_j) + \sum_{j = 1}^{m} u_j \sum_{i = 1}^{n} P(A_i B_j)\)
Observamos que para cada uno\(i\) y para cada\(j\)
\(P(A_i) = \sum_{j = 1}^{m} P(A_i B_j)\)y\(P(B_j) = \sum_{i = 1}^{n} P(A_i B_j)\)
Por lo tanto, podemos escribir
\(E[X + Y] = \sum_{i = 1}^{n} t_i P(A_i) + \sum_{j = 1}^{m} u_j P(B_j) = E[X] + E[Y]\)
Ahora\(aX\) y\(bY\) son simples si\(X\) y\(Y\) son, de modo que con el aide del Ejemplo 11.1.1 tenemos
\(E[aX + bY] = E[aX] + E[bY] = aE[X] + bE[Y]\)
Si\(X, Y, Z\) son simples, entonces también lo son\(aX + bY\), y\(cZ\). De ello se deduce que
\(E[aX + bY + cZ] = E[aX + bY] + cE[Z] = aE[X] + bE[Y] + cE[Z]\)
Mediante un argumento inductivo, este patrón puede extenderse a una combinación lineal de cualquier número finito de variables aleatorias simples. Así podemos afirmar
Linealidad. La expectativa de una combinación lineal de un número finito de variables aleatorias simples es esa combinación lineal de las expectativas de las variables aleatorias individuales.
— □
Expectativa de una variable aleatoria simple en forma afín
Como consecuencia directa de la linealidad, siempre que la variable aleatoria simple\(X\) esté en forma afín, entonces
\(E[X] = E[c_0 + \sum_{i = 1}^{n} c_i I_{E_i}] = c_0 + \sum_{i = 1}^{n} c_i P(E_i)\)
Así, la expresión definitoria se mantiene para cualquier combinación afín de funciones indicadoras, ya sea en forma canónica o no.
Ejemplo 11.1.6. distribución binomial (n, p)
Esta variable aleatoria aparece como el número de éxitos en los ensayos de\(n\) Bernoulli con probabilidad p de éxito en cada ensayo componente. Se expresa naturalmente en forma afín
\(X = \sum_{i = 1}^{n} I_{E_i}\)para que\(E[X] = \sum_{i = 1}^{n} p = np\)
Como alternativa, en forma canónica
\(X = \sum_{k = 0}^{n} k I_{A_{kn}}\), con\(p_k = P(A_{kn}) = P(X = k) = C(n, k) p^{k} q^{n - k}\),\(q = 1 - p\)
para que
\(E[X] = \sum_{k = 0}^{n} kC(n, k) p^k q^{n - k}\),\(q = 1 - p\)
Algunos trucos algebraicos pueden ser utilizados para demostrar que la segunda forma suma a\(np\), pero no hay necesidad de eso. El cómputo para la forma afín es mucho más sencillo.
Ejemplo 11.1.7. Ganancias esperadas
Un apostador hace tres apuestas a $2.00 cada una. La primera apuesta paga $10.00 con probabilidad 0.15, la segunda paga $8.00 con probabilidad 0.20, y la tercera paga $20.00 con probabilidad 0.10. ¿Cuál es la ganancia esperada?
Solución
La ganancia neta puede ser expresada
\(X = 10I_A + 8I_B + 20 I_C - 6\), con\(P(A) = 0.15\),\(P(B) = 0.20\),\(P(C) = 0.10\)
Entonces
\(E[X] = 10 \cdot 0.15 + 8 \cdot 0.20 + 20 \cdot 0.10 - 6 = -0.90\)
Estos cálculos se pueden hacer en MATLAB de la siguiente manera:
c = [10 8 20 -6]; p = [0.15 0.20 0.10 1.00]; % Constant a = aI_(Omega), with P(Omega) = 1 E = c*p' E = -0.9000
Funciones de variables aleatorias simples
Si\(X\) está en una forma primitiva (incluida la forma canónica) y\(g\) es una función real definida en el rango de\(X\), entonces
\(Z = g(X) = \sum_{j = 1}^{m} g(c_j) I_{C_j}\)una forma primitiva
para que
\(E[Z] = E[g(X)] = \sum_{j = 1}^{m} g(c_j) P(C_j)\)
Como alternativa, podemos usar csort para determinar la distribución\(Z\) y trabajar con esa distribución.
Precaución. Si\(X\) está en forma afín (pero no una forma primitiva)
\(X = c_0 + \sum_{j = 1}^{m} c_j I_{E_j}\)entonces\(g(X) \ne g(c_0) + \sum_{j = 1}^{m} g(c_j) I_{E_j}\)
para que
\(E[g(X)] \ne g(c_0) + \sum_{j = 1}^{m} g(c_j) P(E_j)\)
Ejemplo 11.1.8. expectativa de una función de x
Supongamos que\(X\) en una forma primitiva es
\(X = -3I_{C_1} - I_{C_2} + 2I_{C_3} - 3I_{C_4} + 4I_{C_5} - I_{C_6} + I_{C_7} + 2I_{C_8} + 3I_{C_9} + 2I_{C_{10}}\)
con probabilidades\(P(C_i) = 0.08, 0.11, 0.06, 0.13, 0.05, 0.08, 0.12, 0.07, 0.14, 0.16\).
Vamos\(g(t) = t^2 +2t\). Determinar\(E(g(X)]\).
c = [-3 -1 2 -3 4 -1 1 2 3 2]; % Original coefficients pc = 0.01*[0 11 6 13 5 8 12 7 14 16]; % Probabilities for C_j G = c.^2 + 2*c % g(c_j) G = 3 -1 8 3 24 -1 3 8 15 8 EG = G*pc' % Direct computation EG = 6.4200 [Z,PZ] = csort(G,pc); % Distribution for Z = g(X) disp([Z; PZ]') -1.0000 0.1900 3.0000 0.3300 8.0000 0.2900 15.0000 0.1400 24.0000 0.0500 EZ = Z*PZ' % E[Z] from distribution for Z EZ = 6.4200
Un enfoque similar se puede hacer a una función de un par de variables aleatorias simples, siempre que la distribución conjunta esté disponible. Supongamos\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) y\(Y = \sum_{j = 1}^{m} u_j I_{B_j}\) (ambos en forma canónica). Entonces
\(Z = g(X,Y) = \sum_{i = 1}^{n} \sum_{j = 1}^{m} g(t_i, u_j) I_{A_i B_j}\)
La\(A_i B_j\) forma una partición, así\(Z\) es en una forma primitiva. Tenemos las mismas dos posibilidades alternativas: (1) cálculo directo a partir de valores\(g(t_i, u_j)\) y probabilidades correspondientes\(P(A_i B_j) = P(X = t_i, Y = u_j)\), o (2) uso de csort para obtener la distribución para\(Z\).
Ejemplo 11.1.9. expectativa para z = g (x, y)
Utilizamos la distribución conjunta en archivo jdemo1.m y let\(g(t, u) = t^2 + 2tu - 3u\). Para configurar los cálculos, utilizamos jcalc.
% file jdemo1.m X = [-2.37 -1.93 -0.47 -0.11 0 0.57 1.22 2.15 2.97 3.74]; Y = [-3.06 -1.44 -1.21 0.07 0.88 1.77 2.01 2.84]; P = 0.0001*[ 53 8 167 170 184 18 67 122 18 12; 11 13 143 221 241 153 87 125 122 185; 165 129 226 185 89 215 40 77 93 187; 165 163 205 64 60 66 118 239 67 201; 227 2 128 12 238 106 218 120 222 30; 93 93 22 179 175 186 221 65 129 4; 126 16 159 80 183 116 15 22 113 167; 198 101 101 154 158 58 220 230 228 211];
jdemo1 % Call for data jcalc % Set up Enter JOINT PROBABILITIES (as on the plane) P Enter row matrix of VALUES of X X Enter row matrix of VALUES of Y Y Use array operations on matrices X, Y, PX, PY, t, u, and P G = t.^2 + 2*t.*u - 3*u; % Calculation of matrix of [g(t_i, u_j)] EG = total(G.*P) % Direct claculation of expectation EG = 3.2529 [Z,PZ] = csort(G,P); % Determination of distribution for Z EZ = Z*PZ' % E[Z] from distribution EZ = 3.2529