Saltar al contenido principal
LibreTexts Español

11.1: Expectativa matemática- Variables aleatorias simples

  • Page ID
    151137
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Introducción

    La probabilidad de que la variable aleatoria real\(X\) tome un valor en un conjunto\(M\) de números reales se interpreta como la probabilidad de que se encuentre\(X(\omega)\) el valor observado en cualquier ensayo\(M\). Históricamente, esta idea de verosimilitud está enraizada en la noción intuitiva de que si el experimento se repite suficientes veces la probabilidad es aproximadamente la fracción de veces que el valor de\(X\) caerá en\(M\). Asociada a esta interpretación se encuentra la noción del promedio de los valores tomados. Incorporamos el concepto de expectativa matemática en el modelo matemático como una forma apropiada de tales promedios. Comenzamos por estudiar la expectativa matemática de variables aleatorias simples, luego extendemos la definición y propiedades al caso general. En el proceso, observamos la relación de la expectativa matemática con la integral de Lebesque, la cual se desarrolla en la teoría de medidas abstractas. Aunque no desarrollamos esta teoría, que se encuentra fuera del alcance de este estudio, la identificación de esta relación proporciona acceso a un rico y poderoso conjunto de propiedades que tienen consecuencias de largo alcance tanto en la aplicación como en la teoría.

    Expectativa para variables aleatorias simples

    La noción de expectativa matemática está estrechamente relacionada con la idea de una media ponderada, utilizada ampliamente en el manejo de datos numéricos. Considera el promedio aritmético\(\bar{x}\) de los diez números siguientes: 1, 2, 2, 2, 4, 5, 5, 8, 8, 8, que viene dada por

    \(\bar{x} = \dfrac{1}{10} (1 + 2 + 2 + 2 + 4 + 5 + 5 + 8 + 8 + 8)\)

    El examen de los diez números a sumar muestra que se incluyen cinco valores distintos. Uno de los diez, o la fracción 1/10 de ellos, tiene el valor 1, tres de los diez, o la fracción 3/10 de ellos, tienen el valor 2, 1/10 tiene el valor 4, 2/10 tienen el valor 5, y 3/10 tienen el valor 8. Así, podríamos escribir

    \(\bar{x} = (0.1 \cdot 1 + 0.3 \cdot 2 + 0.1 \cdot 4 + 0.2 \cdot 5 + 0.3 \cdot 8)\)

    El patrón en esta última expresión se puede afirmar con palabras: Multiplica cada valor posible por la fracción de los números que tienen ese valor y luego suma estos productos. Las fracciones a menudo se denominan frecuencias relativas. Una suma de este tipo se conoce como promedio ponderado.

    En general, supongamos que hay\(n\) números\(\{x_1, x_2, \cdot\cdot\cdot x_n\}\) a promediar, con m≤nm≤n valores distintos\(\{t_1, t_2 \cdot \cdot\cdot t_m\}\). Supongamos\(f_1\) tener valor\(t_1\),\(f_2\) tener valor\(t_2\)\(\cdot\cdot\cdot\),,\(f_m\) tener valor\(t_m\). El\(f_i\) debe agregar a\(n\). Si establecemos\(p_i = f_i / n\), entonces la fracción\(p_i\) se llama la frecuencia relativa de aquellos números en el conjunto que tienen el valor\(t_i\),\(1 \le i \le m\). Se puede escribir el promedio\(\bar{x}\) de los\(n\) números

    \(\bar{x} = \dfrac{1}{n} \sum_{i = 1}^{n} x_i = \sum_{j = 1}^{m} t_j p_j\)

    En teoría de probabilidad, tenemos un proceso de promedio similar en el que las frecuencias relativas de los diversos valores posibles de son reemplazadas por las probabilidades de que esos valores se observen en cualquier ensayo.

    Definición. Para una variable aleatoria simple\(X\) con valores\(\{t_1, t_2, \cdot\cdot\cdot t_n\}\) y probabilidades correspondientes expectativa\(p_i = P(X = t_i)\) matemática, designada\(E[X]\), es el promedio ponderado de probabilidad de los valores tomados por\(X\). En símbolos

    \(E[X] = \sum_{i = 1}^{n} t_i P(X = t_i) = \sum_{i = 1}^{n} t_ip_i\)

    Tenga en cuenta que la expectativa está determinada por la distribución. Dos variables aleatorias muy diferentes pueden tener la misma distribución, de ahí la misma expectativa. Tradicionalmente, este promedio se ha denominado la media, o el valor medio, de la variable aleatoria\(X\).

    Ejemplo 11.1.1. Algunos casos especiales

    1. Ya que\(X = aI_E = 0 I_{E^c} + aI_E\), tenemos\(E[aI_E] = a P(E)\).
    2. Por\(X\) una constante\(c\),\(X = cI_{\Omega}\), así que\(E[c] = cP(\Omega) = c\).
    3. Si\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) entonces\(aX = \sum_{i = 1}^{n} at_i I_{A_i}\), para que

    \(E[aX] = \sum_{i = 1}^{n} at_i P(A_i) = a\sum_{i = 1}^{n} t_i P(A_i) = aE[X]\)

    La Figura 1 es un dibujo del momento de una distribución de probabilidad sobre el origen. El valor esperado de X, E [X], es igual a la suma de los momentos, que es igual al centro de masa. El dibujo muestra una línea horizontal principal dividida a la mitad por una línea vertical mayor. Como título, la parte superior del dibujo dice Momentos negativos a la izquierda de la línea vertical, y Momentos positivos a la derecha, que están destinados a distinguir las flechas y etiquetas en el dibujo. En la línea horizontal hay cinco puntos negros, dos a la izquierda de la línea vertical y tres a la derecha. Debajo de los puntos correspondientes están las etiquetas correspondientes: t_1, t_2, t_3, t_4 y t_5. Encima de los puntos negros están las siguientes etiquetas: p_1, p_2, p_3, p_4 y p_5. Por encima de la línea horizontal hay otra línea horizontal más pequeña con flechas apuntando en ambas direcciones. La etiqueta para la flecha que apunta a la izquierda es t_2 p_2, y la etiqueta para la flecha de la izquierda es t_3 p_3. Una línea horizontal más larga se asienta más arriba en el dibujo, que también tiene flechas apuntando en ambas direcciones. e interseca la misma línea vertical. Las flechas son aproximadamente el doble de largas que las dos flechas de abajo. La etiqueta para la flecha que apunta a la izquierda es t_1 p_1, y la etiqueta para la flecha a la izquierda es t_4 p_4. finalmente, hay una línea horizontal que se extiende solo a la derecha de la línea vertical, con una flecha apuntando a la derecha. Esta línea es más larga en esta dirección que cualquiera de las flechas que se sientan debajo de ella apuntando a la derecha. La flecha está etiquetada t_5 p_5.

    Figura 1. Momento de una distribución de probabilidad sobre el origen.

    Interpretación mecánica

    Para ayudar a visualizar un sistema esencialmente abstracto, hemos empleado la noción de probabilidad como masa. La distribución inducida por una variable aleatoria real en la línea se visualiza como una unidad de masa de probabilidad realmente distribuida a lo largo de la línea. Utilizamos la distribución masiva para dar una interpretación mecánica importante y útil de la expectativa o valor medio. En el Ejemplo 6 en “Expectativa Matemática: Variables Aleatorias Generales”, damos una interpretación alternativa en términos de estimación cuadrática media.

    Supongamos que la variable aleatoria\(X\) tiene valores\(\{t_i; 1 \le i \le n\}\), con\(P(X = t_i) = p_i\). Esto produce una distribución de masa de probabilidad, como se muestra en la Figura 1, con concentración de masa puntual en la cantidad de\(p_i\) en el punto\(t_i\). La expectativa es

    \(\sum_{i} t_i p_i\)

    Ahora |ti||ti| es la distancia de masa puntual\(p_i\) desde el origen, con\(p_i\) a la izquierda del origen iff\(t_i\) es negativo. Mecánicamente, la suma de los productos tipitipi es el momento de la distribución de la masa de probabilidad sobre el origen en la línea real. A partir de la teoría física, se sabe que este momento es el mismo que el producto de la masa total multiplicado por el número que localiza el centro de masa. Dado que la masa total es uno, el valor medio es la ubicación del centro de masa. Si la línea real se ve como una varilla rígida e ingrávida con masa puntual\(p_i\) unida a cada valor\(t_i\) de\(X\), entonces el valor medio\(\mu_X\) es el punto de equilibrio. A menudo hay simetrías en la distribución que permiten determinar la expectativa sin un cálculo detallado.

    Ejemplo 11.1.2. el número de manchas en un dado

    \(X\)Sea el número de manchas que aparecen en un tiro de un simple dado de seis lados. Suponemos que cada número es igualmente probable. Así los valores son los enteros uno a seis, y cada probabilidad es 1/6. Por definición

    \(E[X] = \dfrac{1}{6} \cdot 1 + \dfrac{1}{6} \cdot 2 + \dfrac{1}{6} \cdot 3 + \dfrac{1}{6} \cdot 4 + \dfrac{1}{6} \cdot 5 + \dfrac{1}{6} \cdot 6 = \dfrac{1}{6} (1 + 2 + 3 + 4 + 5 + 6) = \dfrac{7}{2}\)

    Aunque el cálculo es muy sencillo en este caso, realmente no es necesario. La distribución de probabilidad coloca la misma masa en cada uno de los valores enteros uno a seis. El centro de masa está en el punto medio.

    Ejemplo 11.1.3. una elección simple

    A una niña se le dice que puede tener uno de cuatro juguetes. Los precios son de $2.50. $3.00, $2.00, y $3.50, respectivamente. Ella elige uno, con respectivas probabilidades 0.2, 0.3, 0.2 y 0.3 de elegir el primero, segundo, tercero o cuarto. ¿Cuál es el costo esperado de su selección?

    \(E[X] = 2.00 \cdot 0.2 + 2.50 \cdot 0.2 + 3.00 \cdot 0.3 + 3.50 \cdot 0.3 + 2.85\)

    Para una variable aleatoria simple, la expectativa matemática se determina como el producto de puntos de la matriz de valores con la matriz de probabilidad. Esto se calcula fácilmente usando MATLAB.

    cálculo de matlab por ejemplo 11.1.3

    X = [2 2.5 3 3.5];  % Matrix of values (ordered)
    PX = 0.1*[2 2 3 3]; % Matrix of probabilities
    EX = dot(X,PX)      % The usual MATLAB operation
    EX = 2.8500
    Ex = sum(X.*PX)     % An alternate calculation
    Ex = 2.8500
    ex = X*PX'          % Another alternate
    ex = 2.8500
    

    Expectativa y forma primitiva

    La definición y tratamiento anterior asume\(X\) es en forma canónica, en cuyo caso

    \(X = \sum_{i = 1}^{n} t_i I_{A_i}\), donde\(A_i = \{X = t_i\}\), implica\(E[X] = \sum_{i = 1}^{n} t_i P(A_i)\)

    Deseamos aliviar esta restricción a la forma canónica.

    Supongamos que la variable aleatoria simple\(X\) está en una forma primitiva

    \(X = \sum_{j = 1}^{m} c_j I_{C_j}\), donde\(\{C_j: 1 \le j \le m\}\) es una partición

    Demostramos que

    \(E[X] = \sum_{j = 1}^{m} c_j P(C_j)\)

    Antes de una verificación formal, comenzamos con un ejemplo que exhibe el patrón esencial. Establecer el caso general es simplemente una cuestión de uso apropiado de la notación.

    Ejemplo 11.1.4. variable aleatoria simple x en forma primitiva

    \(X = I_{C_1} + 2I_{C_2} + I_{C_3} + 3 I_{C_4} + 2 I_{C_5} + 2I_{C_6}\), con\(\{C_1, C_2, C_3, C_4, C_5, C_6\}\) una partición

    inspección muestra los distintos valores posibles\(X\) de ser 1, 2 o 3. También

    \(A_1 = \{X = 1\} = C_1 \bigvee C_3\),\(A_2 = \{X = 2\} = C_2 \bigvee C_5 \bigvee C_6\) y\(A_3 = \{X = 3\} = C_4\)

    para que

    \(P(A-1) = P(C_1) + P(C_3)\),\(P(A_2) = P(C_2) + P(C_5) + P(C_6)\), y\(P(A_3) = P(C_4)\)

    Ahora

    \(E[X] = P(A_1) + 2P(A_2) + 3P(A_3) = P(C_1) + P(C_3) + 2[P(C_2) + P(C_5) + P(C_6)] + 3P(C_4)\)

    \(= P(C_1) + 2P(C_2) + P(C_3) + 3P(C_4) + 2P(C_5) + 2P(C_6)\)

    Para establecer el patrón general, considere\(X = \sum_{j = 1}^{m} c_j I_{C_j}\). Identificamos el conjunto distinto de valores contenidos en el conjunto\(\{c_j: 1 \le j \le m\}\). Supongamos que estos son\(t_1 < t_2 < \cdot\cdot\cdot < t_n\). Para cualquier valor\(t_i\) en el rango, identificar el conjunto\(J_i\) de índices de aquellos\(j\) tales que\(c_j = t_i\). Luego los términos

    \(\sum_{J_i} c_j I_{C_j} = t_i \sum_{J_i} I_{C_j} = t_i I_{A_i}\), donde\(A_i = \bigvee_{j \in J_i} C_j\)

    Por la aditividad de la probabilidad

    \(P(A_i) = P(X = t_i) = \sum_{j \in J_i} P(C_j)\)

    Ya que para cada uno\(j \in J_i\) tenemos\(c_j = t_i\), tenemos

    \(E[X] = \sum_{i = 1}^{n} t_i P(A_i) = \sum_{i = 1}^{n} t_i \sum_{j \in J_i} P(C_j) = \sum_{i = 1}^{n} \sum_{j \in J_i} c_j P(C_j) = \sum_{j = 1}^{m} c_j P(C_j)\)

    — □

    Así, la expresión definitoria de expectativa se mantiene así para X en una forma primitiva.

    Un enfoque alternativo para obtener la expectativa de una forma primitiva es utilizar la operación csort para determinar la distribución\(X\) de los coeficientes y probabilidades de la forma primitiva.

    Ejemplo 11.1.5. Determinaciones alternas de E [x]

    Supongamos que\(X\) en una forma primitiva es

    \(X = I_{C_1} + 2 I_{C_2} + I_{C_3} + 3I_{C_4} + 2I_{C_5} + 2I_{C_6} + I_{C_7} + 3I_{C_8} + 2I_{C_9} + I_{C_{10}}\)

    con probabilidades respectivas

    \(P(C_i) = 0.08, 0.11, 0.06, 0.13, 0.05, 0.08, 0.12, 0.07, 0.14, 0.16\)

    c = [1 2 1 3 2 2 1 3 2 1];             % Matrix of coefficients
    pc = 0.01*[8 11 6 13 5 8 12 7 14 16];  % Matrix of probabilities
    EX = c*pc'
    EX = 1.7800                            % Direct solution
    [X,PX] = csort(c,pc);                  % Determinatin of dbn for X
    disp([X;PX]')
        1.0000    0.4200
        2.0000    0.3800
        3.0000    0.2000
    Ex = X*PX'                             % E[X] from distribution
    Ex = 1.7800
    

    Linealidad

    El resultado en formas primitivas puede ser utilizado para establecer la linealidad de la expectativa matemática para variables aleatorias simples. Por su importancia fundamental, trabajamos a través de la verificación con cierto detalle.

    Supongamos\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) y\(Y = \sum_{j = 1}^{m} u_j I_{B_j}\) (ambos en forma canónica). Desde

    \(\sum_{i = 1}^{n} I_{A_i} = \sum_{j = 1}^{m} I_{B_j} = 1\)

    tenemos

    \(X + Y = \sum_{i = 1}^{n} t_i I_{A_i} (\sum_{j = 1}^{m} I_{B_j}) + \sum_{j = 1}^{m} u_j I_{B_j} (\sum_{i = 1}^{n} I_{A_i}) = \sum_{i = 1}^{n} \sum_{j = 1}^{m} (t_i + u_j) I_{A_i} I_{B_j}\)

    Tenga en cuenta que\(I_{A_i} I_{B_j} = I_{A_i B_j}\) y\(A_i B_j = \{X = t_i, Y = u_j\}\). La clase de estos conjuntos para todos los pares posibles\((i, j)\) forma una partición. Así, la última suma se expresa\(Z = X + Y\) en una forma primitiva. Debido al resultado sobre las formas primitivas, arriba, tenemos

    \(E[X + Y] = \sum_{i = 1}^{n} \sum_{j = 1}^{m} (t_i + u_j) P(A_i B_j) = \sum_{i = 1}^{n} \sum_{j = 1}^{m} t_i P(A_i B_j) + \sum_{i = 1}^{n} \sum_{j = 1}^{m} u_j P(A_i B_j)\)

    \(= \sum_{i = 1}^{n} t_i \sum_{j = 1}^{m} P(A_i B_j) + \sum_{j = 1}^{m} u_j \sum_{i = 1}^{n} P(A_i B_j)\)

    Observamos que para cada uno\(i\) y para cada\(j\)

    \(P(A_i) = \sum_{j = 1}^{m} P(A_i B_j)\)y\(P(B_j) = \sum_{i = 1}^{n} P(A_i B_j)\)

    Por lo tanto, podemos escribir

    \(E[X + Y] = \sum_{i = 1}^{n} t_i P(A_i) + \sum_{j = 1}^{m} u_j P(B_j) = E[X] + E[Y]\)

    Ahora\(aX\) y\(bY\) son simples si\(X\) y\(Y\) son, de modo que con el aide del Ejemplo 11.1.1 tenemos

    \(E[aX + bY] = E[aX] + E[bY] = aE[X] + bE[Y]\)

    Si\(X, Y, Z\) son simples, entonces también lo son\(aX + bY\), y\(cZ\). De ello se deduce que

    \(E[aX + bY + cZ] = E[aX + bY] + cE[Z] = aE[X] + bE[Y] + cE[Z]\)

    Mediante un argumento inductivo, este patrón puede extenderse a una combinación lineal de cualquier número finito de variables aleatorias simples. Así podemos afirmar

    Linealidad. La expectativa de una combinación lineal de un número finito de variables aleatorias simples es esa combinación lineal de las expectativas de las variables aleatorias individuales.

    — □

    Expectativa de una variable aleatoria simple en forma afín

    Como consecuencia directa de la linealidad, siempre que la variable aleatoria simple\(X\) esté en forma afín, entonces

    \(E[X] = E[c_0 + \sum_{i = 1}^{n} c_i I_{E_i}] = c_0 + \sum_{i = 1}^{n} c_i P(E_i)\)

    Así, la expresión definitoria se mantiene para cualquier combinación afín de funciones indicadoras, ya sea en forma canónica o no.

    Ejemplo 11.1.6. distribución binomial (n, p)

    Esta variable aleatoria aparece como el número de éxitos en los ensayos de\(n\) Bernoulli con probabilidad p de éxito en cada ensayo componente. Se expresa naturalmente en forma afín

    \(X = \sum_{i = 1}^{n} I_{E_i}\)para que\(E[X] = \sum_{i = 1}^{n} p = np\)

    Como alternativa, en forma canónica

    \(X = \sum_{k = 0}^{n} k I_{A_{kn}}\), con\(p_k = P(A_{kn}) = P(X = k) = C(n, k) p^{k} q^{n - k}\),\(q = 1 - p\)

    para que

    \(E[X] = \sum_{k = 0}^{n} kC(n, k) p^k q^{n - k}\),\(q = 1 - p\)

    Algunos trucos algebraicos pueden ser utilizados para demostrar que la segunda forma suma a\(np\), pero no hay necesidad de eso. El cómputo para la forma afín es mucho más sencillo.

    Ejemplo 11.1.7. Ganancias esperadas

    Un apostador hace tres apuestas a $2.00 cada una. La primera apuesta paga $10.00 con probabilidad 0.15, la segunda paga $8.00 con probabilidad 0.20, y la tercera paga $20.00 con probabilidad 0.10. ¿Cuál es la ganancia esperada?

    Solución

    La ganancia neta puede ser expresada

    \(X = 10I_A + 8I_B + 20 I_C - 6\), con\(P(A) = 0.15\),\(P(B) = 0.20\),\(P(C) = 0.10\)

    Entonces

    \(E[X] = 10 \cdot 0.15 + 8 \cdot 0.20 + 20 \cdot 0.10 - 6 = -0.90\)

    Estos cálculos se pueden hacer en MATLAB de la siguiente manera:

    c = [10 8 20 -6];
    p = [0.15 0.20 0.10 1.00]; % Constant a = aI_(Omega), with P(Omega) = 1
    E = c*p'
    E = -0.9000
    

    Funciones de variables aleatorias simples

    Si\(X\) está en una forma primitiva (incluida la forma canónica) y\(g\) es una función real definida en el rango de\(X\), entonces

    \(Z = g(X) = \sum_{j = 1}^{m} g(c_j) I_{C_j}\)una forma primitiva

    para que

    \(E[Z] = E[g(X)] = \sum_{j = 1}^{m} g(c_j) P(C_j)\)

    Como alternativa, podemos usar csort para determinar la distribución\(Z\) y trabajar con esa distribución.

    Precaución. Si\(X\) está en forma afín (pero no una forma primitiva)

    \(X = c_0 + \sum_{j = 1}^{m} c_j I_{E_j}\)entonces\(g(X) \ne g(c_0) + \sum_{j = 1}^{m} g(c_j) I_{E_j}\)

    para que

    \(E[g(X)] \ne g(c_0) + \sum_{j = 1}^{m} g(c_j) P(E_j)\)

    Ejemplo 11.1.8. expectativa de una función de x

    Supongamos que\(X\) en una forma primitiva es

    \(X = -3I_{C_1} - I_{C_2} + 2I_{C_3} - 3I_{C_4} + 4I_{C_5} - I_{C_6} + I_{C_7} + 2I_{C_8} + 3I_{C_9} + 2I_{C_{10}}\)

    con probabilidades\(P(C_i) = 0.08, 0.11, 0.06, 0.13, 0.05, 0.08, 0.12, 0.07, 0.14, 0.16\).

    Vamos\(g(t) = t^2 +2t\). Determinar\(E(g(X)]\).

    c = [-3 -1 2 -3 4 -1 1 2 3 2];            % Original coefficients
    pc = 0.01*[0 11 6 13 5 8 12 7 14 16];     % Probabilities for C_j
    G = c.^2 + 2*c                            % g(c_j)
    G = 3  -1  8  3  24  -1  3  8  15  8
    EG = G*pc'                                % Direct computation
    EG = 6.4200
    [Z,PZ] = csort(G,pc);                     % Distribution for Z = g(X)
    disp([Z; PZ]')
        -1.0000    0.1900
         3.0000    0.3300
         8.0000    0.2900
        15.0000    0.1400
        24.0000    0.0500
    EZ = Z*PZ'                                % E[Z] from distribution for Z
    EZ = 6.4200
    

    Un enfoque similar se puede hacer a una función de un par de variables aleatorias simples, siempre que la distribución conjunta esté disponible. Supongamos\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) y\(Y = \sum_{j = 1}^{m} u_j I_{B_j}\) (ambos en forma canónica). Entonces

    \(Z = g(X,Y) = \sum_{i = 1}^{n} \sum_{j = 1}^{m} g(t_i, u_j) I_{A_i B_j}\)

    La\(A_i B_j\) forma una partición, así\(Z\) es en una forma primitiva. Tenemos las mismas dos posibilidades alternativas: (1) cálculo directo a partir de valores\(g(t_i, u_j)\) y probabilidades correspondientes\(P(A_i B_j) = P(X = t_i, Y = u_j)\), o (2) uso de csort para obtener la distribución para\(Z\).

    Ejemplo 11.1.9. expectativa para z = g (x, y)

    Utilizamos la distribución conjunta en archivo jdemo1.m y let\(g(t, u) = t^2 + 2tu - 3u\). Para configurar los cálculos, utilizamos jcalc.

    % file jdemo1.m
    X = [-2.37 -1.93 -0.47 -0.11 0 0.57 1.22 2.15 2.97 3.74];
    Y = [-3.06 -1.44 -1.21 0.07 0.88 1.77 2.01 2.84];
    P = 0.0001*[ 53   8 167 170 184  18  67 122  18  12;
                 11  13 143 221 241 153  87 125 122 185;
                165 129 226 185  89 215  40  77  93 187;
                165 163 205  64  60  66 118 239  67 201;
                227   2 128  12 238 106 218 120 222  30;
                 93  93  22 179 175 186 221  65 129   4;
                126  16 159  80 183 116  15  22 113 167;
                198 101 101 154 158  58 220 230 228 211];
    
    jdemo1                   % Call for data
    jcalc                    % Set up
    Enter JOINT PROBABILITIES (as on the plane)   P
    Enter row matrix of VALUES of X  X
    Enter row matrix of VALUES of Y  Y
     Use array operations on matrices X, Y, PX, PY, t, u, and P
    G = t.^2 + 2*t.*u - 3*u; % Calculation of matrix of [g(t_i, u_j)]
    EG = total(G.*P)         % Direct claculation of expectation
    EG = 3.2529
    [Z,PZ] = csort(G,P);     % Determination of distribution for Z
    EZ = Z*PZ'               % E[Z] from distribution
    EZ = 3.2529
    

    This page titled 11.1: Expectativa matemática- Variables aleatorias simples is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.