Saltar al contenido principal
LibreTexts Español

11.2: Expectativa matemática y variables aleatorias generales

  • Page ID
    151132
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En esta unidad, extendemos la definición y propiedades de expectativa matemática al caso general. En el proceso, observamos la relación de la expectativa matemática con la integral de Lebesque, la cual se desarrolla en la teoría de medidas abstractas. Aunque no desarrollamos esta teoría, que se encuentra fuera del alcance de este estudio, la identificación de esta relación proporciona acceso a un rico y poderoso conjunto de propiedades que tienen consecuencias de largo alcance tanto en la aplicación como en la teoría.

    Extensión al Caso General

    En la unidad sobre Aproximaciones de Distribución, mostramos que una variable aleatoria acotada se\(X\) puede representar como el límite de una secuencia no decreciente de variables aleatorias simples. Además, una variable aleatoria real se puede expresar como la diferencia\(X = X^{+} - X^{-}\) de dos variables aleatorias no negativas. La extensión de la expectativa matemática al caso general se basa en estos hechos y ciertas propiedades básicas de variables aleatorias simples, algunas de las cuales se establecen en la unidad sobre la expectativa para variables aleatorias simples. Enumeramos estas propiedades y esbozamos cómo se logra la extensión.

    Definición: casi seguro

    Se dice que una condición en una variable aleatoria o en una relación entre variables aleatorias se mantiene casi seguramente, abreviada “a.s.” si la condición o relación se mantiene para todos\(\omega\) excepto posiblemente un conjunto con probabilidad cero.

    Propiedades básicas de variables aleatorias simples

    (E0): Si\(X = Y\) a.s. entonces\(E[X] = E[Y]\).
    (E1):\(E(aI_E) = aP(E)\).
    (E2): Linealidad. \(X = \sum_{i = 1}^{n} a_i X_i\)implica\(E[X] = \sum_{i = 1}^{n} a_i E[X_i]\) |
    (E3): Positividad: monotonicidad
    a. si\(X \ge 0\) a.s.\(E[X] \ge 0\), entonces, con igualdad iff\(X = 0\) a.s.
    b. Si\(X \ge Y\) a.s., entonces\(E[X] \ge E[Y]\), con igualdad iff\(X = Y\) a.s.
    (E4): Lema fundamental Si\(X \ge 0\) está acotado y\(\{X_n: 1 \le n\}\) es una secuencia no negativa, no decreciente de a.s. con\(\text{lim}_{n} \ X_n(\omega) \ge X(\omega)\) para casi todos\(\omega\), entonces\(\text{lim}_{n} \ E[X_n] \ge E[X]\).
    (E4a): Si para todos\(n\),\(0 \le X_n \le X_{n + 1}\) a.s. y\(X_n \to X\) a.s., entonces\(E[X_n] \to E[X]\) (es decir, la expectativa del límite es el límite de las expectativas).

    Ideas de las pruebas de las propiedades fundamentales

    • Modificar la variable aleatoria\(X\) en un conjunto de probabilidad cero simplemente modifica uno o más de los\(A_i\) sin cambiar\(P(A_i)\)
    • Las propiedades (E1) y (E2) se establecen en la unidad sobre la expectativa de variables aleatorias simples.
    • La positividad (E3a) es una propiedad simple de las sumas de números reales. La modificación de conjuntos de probabilidad cero no puede afectar la expectativa.
    • La monotonicidad (E3b) es consecuencia de la positividad y linealidad.

    \(X \ge Y\)iff\(X - Y \ge 0\) a.s. e\(E[X] \ge E[Y]\) iff\(E[X] - E[Y] = E[X - Y] \ge 0\)

    • El lema fundamental (E4) juega un papel esencial en la extensión del concepto de expectativa. Implica un uso elemental, pero algo sofisticado, de linealidad y monotonicidad, limitado a variables aleatorias no negativas y coeficientes positivos. Renunciamos a una prueba.
    • La monotonicidad y el lema fundamental proporcionan una prueba muy simple de la convergencia monótona theoem, a menudo designado MC. Su papel es esencial en la extensión.

    Variables aleatorias no negativas

    Hay una secuencia no decreciente de variables aleatorias simples no negativas que convergen a\(X\). La monotonicidad implica que las integrales de la secuencia no decreciente es una secuencia no decreciente de números reales, que debe tener un límite o aumento sin límite (en cuyo caso decimos que el límite es infinito). Definimos\(E[X] = \text{lim } E[X_n]\).

    Surgen dos preguntas.

    ¿El límite es único? Las secuencias aproximadas para una variable aleatoria simple no son únicas, aunque su límite es el mismo.
    ¿La definición es consistente? Si la variable aleatoria limit\(X\) es simple, ¿coincide la nueva definición con la anterior?

    El lema fundamental y la convergencia monótona pueden utilizarse para demostrar que la respuesta a ambas preguntas es afirmativa, de manera que la definición es razonable. Además, las seis propiedades fundamentales sobreviven al paso al límite.

    Como una simple aplicación de estas ideas, considere variables aleatorias discretas como la geométrica (\(p\)) o Poisson (\(\mu\)), que son de valor entero pero no acotadas.

    Ejemplo 11.2.1: Variables aleatorias no acotadas, no negativas, de valor completo

    La variable aleatoria\(X\) puede expresarse

    \(X = \sum_{k = 0}^{\infty} k I_{E_k}\), donde\(E_k = \{X = k\}\) con\(P(E_k) = p_k\)

    Let

    \(X_n = \sum_{k = 0}^{n - 1} kI_{E_k} + n I_{B_n}\), donde\(B_n = \{X \ge n\}\)

    Entonces cada uno\(X_n\) es una simple variable aleatoria con\(X_n \le X_{n + 1}\). Si\(X(\omega) = k\), entonces\(X_n(\omega) = k = X(\omega)\) para todos\(n \ge k + 1\). De ahí,\(X_{n} (\omega) \to X(\omega)\) para todos\(\omega\). Por convergencia monótona,\(E[X_n] \to E[X]\). Ahora

    \(E[X_n] = \sum_{k = 1}^{n - 1} k P(E_k) + nP(B_n)\)

    Si\(\sum_{k = 0}^{\infty} kP(E_k) < \infty\), entonces

    \(0 \le nP(B_n) = n \sum_{k = n}^{\infty} P(E_k) \le \sum_{k = n}^{\infty} kP(E_k) \to 0\)como\(n \to \infty\)

    De ahí

    \(E[X] = \text{lim}_{n} \ E[X_n] = \sum_{k = 0}^{\infty} k P(A_k)\)

    Podemos usar este resultado para establecer la expectativa para las distribuciones geométricas y Poisson.

    Ejemplo 11.2.2: X~Geométrico (\(p\))

    Nosotros tenemos\(p_k = P(X = k) = q^k p\). \(0 \le k\). Por el resultado del Ejemplo 11.2.1.

    \(E[X] = \sum_{k = 0}^{\infty} kpq^k = pq \sum_{k = 1}^{\infty} kq^{k - 1} = \dfrac{pq}{(1 - q)^2} = q/p\)

    Para\(Y - 1\) ~ geométrico (\(p\)), de\(p_k = pq^{k - 1}\) modo que\(E[Y] = \dfrac{1}{q} E[X] = 1/p\)

    Ejemplo 11.2.3: x~Poisson (\(\mu\))

    Nosotros tenemos\(p_k = e^{-\mu} \dfrac{\mu^{k}}{k!}\). Por el resultado del Ejemplo 11.2.1.

    \(E[X] = e^{-\mu} \sum_{k = 0}^{\infty} k \dfrac{\mu^k}{k!} = \mu e^{-\mu} \sum_{k = 1}^{\infty} \dfrac{\mu^{k - 1}}{(k - 1)!} = \mu e^{-\mu} e^{\mu} = \mu\)

    El caso general

    Hacemos uso del hecho de que\(X = X^{+} - X^{-}\), donde ambos\(X^{+}\) y\(X^{-}\) son no negativos. Entonces

    \(E[X] = E[X^{+}] - E[X^{-}]\)siempre que al menos uno de\(E[X^{+}]\),\(E[X^{-}]\) sea finito

    Definición. Si ambos\(E[X^{+}]\) y\(E[X^{-}]\) son finitos,\(X\) se dice que son integrables.

    El término integrable proviene de la relación de expectativa con la integral abstracta de Lebesgue de la teoría de medidas.

    Nuevamente, las propiedades básicas sobreviven a la extensión. La propiedad (E0) está subsumida en una propiedad de singularidad más general señalada en la lista de propiedades que se analiza a continuación.

    Nota teórica

    El desarrollo de la expectativa esbozado anteriormente es exactamente el desarrollo de la integral Lebesgue de la variable aleatoria\(X\) como una función medible en el espacio de probabilidad básico (\(\Omega\), \(F\),\(P\)), de manera que

    \[E[X] = \int_{\Omega} X\ dP\]

    Como consecuencia, podemos utilizar las propiedades de la integral general de Lebesgue. En su forma abstracta, no es particularmente útil para cálculos reales. Un uso cuidadoso del mapeo de la masa de probabilidad a la línea real por variable aleatoria\(X\) produce un mapeo correspondiente de la integral en el espacio básico a una integral en la línea real. Si bien esta integral es también una integral de Lebesgue, concuerda con la integral ordinaria de Riemann de cálculo cuando esta última existe, por lo que las integrales ordinarias pueden ser utilizadas para calcular las expectativas.

    Propiedades adicionales

    Las propiedades fundamentales de las variables aleatorias simples que sobreviven a la extensión sirven como base de una extensa y poderosa lista de propiedades de expectativa de variables aleatorias reales y funciones reales de vectores aleatorios. Algunos de los más importantes se enumeran en la tabla del Apéndice E. A menudo nos referimos a estas propiedades por los números utilizados en esa tabla.

    Algunas formas básicas

    Los teoremas de mapeo proporcionan una serie de formas integrales básicas (o sumatorias) para el cálculo.

    En general, si\(Z = g(X)\) con funciones de distribución\(F_X\) y\(F_Z\), tenemos la expectativa como integral de Stieltjes.

    \(E[Z] = E[g(X)] = \int g(t) F_X (dt) = \int u F_Z (du)\)

    Si\(X\) y\(g(X)\) son absolutamente continuas, las integrales de Stieltjes son reemplazadas por

    \(E[Z] = \int g(t) f_X (t)\ dt = \int uF_Z (du)\)

    donde los límites de integración están determinados por\(f_X\) o\(f_Y\). La justificación para el uso de la función de densidad es proporcionada por el teoremo—propiedad Radon-Nikodym (E19).

    Si\(X\) es simple, en una forma primitiva (incluida la forma canónica), entonces

    \(E[Z] = E[g(X)] = \sum_{j = 1}^{m} g(c_j) P(C_j)\)

    Si la distribución para\(Z = g(X)\) está determinada por una operación csort, entonces

    \(E[Z] = \sum_{k = 1}^{n} v_k P(Z = v_k)\)

    La extensión a variables aleatorias no acotadas, no negativas, de valor entero se muestra en el Ejemplo 11.2.1, anterior. Las sumas finitas son reemplazadas por series infinitas (siempre que converjan).

    Para\(Z = g(X, Y)\),

    \(E[Z] = E[g(X, Y)] = \int \int g(t, u) F_{XY} (dtdu) = \int v F_Z (dv)\)

    En el caso absolutamente continuo

    \(E[Z] = E[g(X,Y)] = \int \int g(t,u) f_{XY} (t, u) dudt = \int v f_Z (v) dv\)

    Para simple conjunto\(X,Y\) (Sección sobre Expectativa para Variables Aleatorias Simples)

    \(E[Z] = E[g(X, Y)] = \sum_{i = 1}^{n} \sum_{j = 1}^{m} g(t_i, u_j) P(X = t_i, Y = u_j)\)

    Interpretación mecánica y procedimientos de aproximación

    En la mecánica elemental, dado que la masa total es una, la cantidad\(E[X] = \int t f_X (t)\ dt\) es la ubicación del centro de masa. Este hecho teóricamente riguroso puede derivarse heurísticamente de un examen de la expectativa para una variable aleatoria de aproximación simple. Recordemos la discusión del procedimiento m para aproximación discreta en la unidad sobre Aproximaciones de Distribución El rango de\(X\) se divide en subintervalos iguales. Los valores de la variable aleatoria aproximada se encuentran en los puntos medios de los subintervalos. La probabilidad asociada es la masa de probabilidad en el subintervalo, que es aproximadamente\(f_X (t_i) dx\), donde\(dx\) está la longitud del subintervalo. Esta aproximación mejora con un número creciente de subdivisiones, con la disminución correspondiente en dxdx\(X_s\) es

    \(E[X_s] = \sum_{i} t_i f_X(t_i) dx \approx \int tf_X(t)\ dt\)

    La aproximación mejora con subdivisiones cada vez más finas. El centro de masa de la distribución aproximada se aproxima al centro de masa de la distribución suave.

    Debe quedar claro que un argumento similar para\(g(X)\) lleva a la expresión integral

    \(E[g(X)] = \int g(t) f_X (t)\ dt\)

    Este argumento muestra que deberíamos poder usar tappr para configurar para aproximar la expectativa así\(E[g(X)]\) como para aproximar\(P(g(X) \in M)\), etc. volvemos a esto en Sección.

    Valores medios para algunas distribuciones absolutamente continuas

    Uniforme encendido\([a, b]f_X (t) = \dfrac{1}{b-a}\),\(a \le t \le b\) El centro de masa está en\((a + b)/2\). Para calcular el valor formalmente, escribimos

    \(E[X] = \int tf_X (t) dt = \dfrac{1}{b - a} \int_{a}^{b} t dt = \dfrac{b^2 - a^2}{2(b - a)} = \dfrac{b + a}{2}\)

    Triangular simétrico en [\(a, b\)] La gráfica de la densidad es un triángulo isóceles con base en el intervalo\([a, b]\). Por simetría, el centro de masa, de ahí la expectativa, está en el punto medio\((a + b)/2\).

    Exponencial (\(\lambda\))\(f_X (t) = \lambda e^{-\lambda t}\),\(0 \le t\) Usando una integral definida bien conocida (ver Apéndice B), tenemos

    \(E[X] = \int tf_X(t)\ dt = \int_{0}^{\infty} \lambda te^{-\lambda t} dt = 1/\lambda\)

    Gamma (\(\alpha, \lambda\))\(f_X (t) = \dfrac{1}{\Gamma} (\alpha) t^{\alpha - 1} \lambda^{\alpha} e^{-\lambda t}\),\(0 \le t\) Nuevamente utilizamos una de las integrales en el Apéndice B para obtener

    \(E[X] = \int tf_X (t)\ dt = \dfrac{1}{\Gamma} \int_{0}^{\infty} \lambda^{\alpha} t^{\alpha} e^{-\lambda t} dt = \dfrac{\Gamma(\alpha + 1)}{\lambda \Gamma (\alpha)} = a/lambda\)

    La última igualdad viene del hecho de que\(\Gamma (\alpha + 1) = \alpha \Gamma (\alpha)\).

    Beta (\(r, s\)). \(f_X (t) = \dfrac{\Gamma (r + s)}{\Gamma (r) \Gamma (s)} t^{r - 1} (1 - t)^{s - 1}\),\(0 < t < 1\) Utilizamos el hecho de que

    \(\int_{0}^{1} u^{r - 1} (1 - u)^{s - 1} \ du = \dfrac{\Gamma (r) \Gamma (s)}{\Gamma (r + s)}\),\(r > 0\),\(s > 0\).

    \(E[X] = \int tf_X (t)\ dt = \dfrac{\Gamma (r + s)}{\Gamma (r) \Gamma (s)} \int_{0}^{1} t^r (1 - t)^{s - 1} dt = \dfrac{\Gamma (r + s)}{\Gamma (r) \Gamma (s)} \cdot \dfrac{\Gamma (r + 1) \Gamma (s)}{\Gamma (r + s + 1)} = \dfrac{r}{r + s}\)

    Weibull (\(\alpha, \lambda, v\)). \(F_X (t) = 1 - e^{-\lambda (t - v)^{\alpha}}\)\(\alpha > 0\),\(\lambda > 0\),\(v \ge 0\),\(t \ge v\). Demostración de diferenciación

    \(f_X (t) = \alpha \lambda (t - v)^{\alpha - 1} e^{-\lambda (t -v)^{\alpha}}\),\(t \ge v\)

    Primero, considere\(Y\) ~ exponencial\((\lambda)\). Para esta variable aleatoria

    \(E[Y^r] = \int_{0}^{\infty} t^r \lambda e^{-\lambda t}\ dt = \dfrac{\Gamma (r + 1)}{\lambda^r}\)

    Si\(Y\) es exponencial (1), entonces las técnicas para funciones de variables aleatorias muestran que\([\dfrac{1}{\lambda} Y]^{1/\alpha} + v\) ~ Weibull (\(\alpha, lambda, v\)). Por lo tanto,

    \(E[X] = \dfrac{1}{\lambda ^{1/\alpha}} E[Y^{1/\alpha}] + v = \dfrac{1}{\lambda ^{1/\alpha}} \Gamma (\dfrac{1}{\alpha} + 1) + v\)

    Normal (\(\mu, \sigma^2\)) La simetría de la distribución sobre lo\(t = \mu\) demuestra\(E[X] = \mu\). Esto, por supuesto, puede verificarse por integración. Un truco estándar simplifica el trabajo.

    \(E[X] = \int_{-\infty}^{\infty} t f_X (t) \ dt = \int_{-\infty}^{\infty} (t - \mu) f_X (t) \ dt + \mu\)

    Nosotros hemos aprovechado el hecho de que\(\int_{-\infty}^{\infty} f_X (t) \ dt = 1\). Si hacemos el cambio de variable\(x = t-\mu\) en la última integral, el integrando se convierte en una función impar, de manera que la integral es cero. Por lo tanto,\(E[X] = \mu\).

    Propiedades y Computación

    Las propiedades en la tabla del Apéndice E constituyen un recurso poderoso y conveniente para el uso de la expectativa matemática. Estas son propiedades de la integral abstracta de Lebesgue, expresadas en la notación para la expectativa matemática.

    \[E[g(X)] = \int g(X)\ dP\]

    En el desarrollo de propiedades adicionales, las cuatro propiedades básicas: (E1) Expectativa de funciones indicadoras, (E2) Linealidad, (E3) Positividad; monotonicidad y (E4a) Convergencia monótona juegan un papel fundamental. Utilizamos las propiedades en la tabla, según sea necesario, a menudo refiriéndonos a ellas por los números asignados en la tabla.

    En esta sección, incluimos una serie de ejemplos que ilustran el uso de diversas propiedades. Algunos son ejemplos teóricos, derivando propiedades adicionales o mostrando la base y estructura de algunas en la tabla. Otros aplican estas propiedades para facilitar el cálculo

    Ejemplo 11.2.4: Probabilidad como expectativa

    La probabilidad puede expresarse enteramente en términos de expectativa.

    • Por propiedades (E1) y positividad (E3a),\(P(A) = E[I_A] \ge 0\).
    • Como casos especiales de (E1), tenemos\(P(\Omega) = E[I_{\Omega}] = 1\)
    • Por las sumas contables propiedad (E8),

    \(A = \bigvee_i A_i\)implica\(P(A) = E[I_A] = E[ \sum_{i} I_{A_i}] = \sum_i E[I_{A_i}] = \sum_i P(A_i)\)

    Así, se satisfacen las tres propiedades definitorias para una medida de probabilidad.

    OBSERVACIÓN. Existen tratamientos de probabilidad que caracterizan la expectativa matemática con propiedades (E0) a (E4a), luego definen\(P(A) = E[I_A]\). Si bien tal desarrollo es bastante factible, no ha sido ampliamente adoptado.

    Ejemplo 11.2.5: Un patrón de función de indicador

    Supongamos que\(X\) es una variable aleatoria real y\(E = X^{-1} (M) =\{\omega: X(\omega) \in M\}\). Entonces

    \(I_E = I_M (X)\)

    Para ver esto, tenga en cuenta que\(X(\omega) \in M\) iff\(\omega \in E\), así que ese\(I_E(\omega) = 1\) iff\(I_M(X(\omega)) = 1\).

    Del mismo modo, si\(E = X^{-1} (M) \cap Y^{-1} (N)\), entonces\(I_E = I_M (X) I_N (Y)\). Así tenemos, por (E1).

    \(P(X \in M) = E[I_M(X)]\)y\(P(X \in M, Y \in N) = E[I_M(X) I_N (Y)]\)

    Ejemplo 11.2.6: Interpretación alternativa del valor medio

    \(E[(X - c)^2]\)es un iff mínimo\(c = E[X]\), en cuyo caso\(E[(X - E[X])^2] = E[X^2] - E^2[X]\)

    INTERPRETACIÓN. Si aproximamos la variable aleatoria\(X\) por una constante\(c\), entonces para cualquier ω el error de aproximación es\(X(\omega) - c\). El promedio ponderado de probabilidad del cuadrado del error (a menudo llamado el error medio al cuadrado) es\(E[(X - c)^2]\). Este error cuadrático promedio es menor si la constante de aproximación\(c\) es el valor medio.

    verificación

    Ampliamos\((X - c)^2\) y aplicamos linealidad para obtener

    \(E[(X - c)^2 = E[X^2 - 2cX + c^2] = E[X^2] - 2E[X] c + c^2\)

    La última expresión es una cuadrática en\(c\) (since\(E[X^2]\) y\(E[X]\) son constantes). El tratamiento habitual de cálculo muestra que la expresión tiene un mínimo para\(c = E[X]\). Sustitución de este valor por\(c\) muestra la expresión se reduce a\(E[X^2] - E^2[X]\).

    Una serie de desigualdades se enumeran entre las propiedades en la tabla. La base de estas desigualdades suele ser alguna desigualdad analítica estándar sobre variables aleatorias a las que se aplica la propiedad de monotonicidad. Ilustramos con una derivación de la importante desigualdad de Jensen.

    Ejemplo 11.2.7: La desigualdad de Jensen

    Si\(X\) es una variable aleatoria real y\(g\) es una función convexa en un intervalo\(I\) que incluye el rango de\(X\), entonces

    verificación

    La función\(g\) es convexa en\(I\) iff para cada uno\(t_0 \in [a,b]\) hay un número\(\lambda (t_0)\) tal que

    \(g(t) \ge g(t_0) + \lambda (t_0) (t - t_0)\)

    Esto significa que hay una línea through (\(t_0, g(t_0)\)) tal que la gráfica de\(g\) yace sobre ella o por encima de ella. Si\(a \le X \le b\), entonces por monotonicidad\(E(a) = a \le E[X] \le E[b] = b\) (esta es la propiedad de valor medio (E11)). Podemos elegir\(t_0 = E[X] \in I\). Si designamos la constante\(\lambda (E[X])\) por\(c\), tenemos

    \(g(X) \ge g(E[X]) + c(X - E[X])\)

    Recordando que\(E[X]\) es una constante, tomamos expectativa de ambas partes, usando linealidad y monotonicidad, para conseguir

    \(E[g(X)] \ge g(E[X]) + c(E[X] - E[X]) = g(E[X])\)

    OBSERVACIÓN. Es fácil demostrar que la función\(\lambda (\cdot)\) es no decreciente. Este hecho se utiliza para establecer la desigualdad de Jensen para la expectativa condicional.

    La regla del producto para expectativas de variables aleatorias independientes

    Ejemplo 11.2.8: regla de producto para variables aleatorias simples

    Considere un par independiente\(\{X, Y\}\) de variables aleatorias simples

    \(X = \sum_{i = 1}^{n} t_i I_{A_i}\)\(Y = \sum_{j = 1}^{m} u_j I_{B_j}\)(ambos en forma canónica)

    Sabemos que cada par\(\{A_i, B_j\}\) es independiente, así que eso\(P(A_i B_j) = P(A_i) P(B_j)\). Considera el producto\(XY\). De acuerdo con el patrón descrito después del Ejemplo 9 de “Expectativa Matemática: Variables Aleatorias Simples”.

    \(XY = \sum_{i = 1}^{n} t_i I_{A_i} \sum_{j = 1}^{m} u_j I_{B_j} = \sum_{i = 1}^{n} \sum_{j = 1}^{m} t_i u_j I_{A_i B_j}\)

    Esta última suma doble es una forma primitiva, por lo que

    \(E[XY] = \sum_{i = 1}^{n} \sum_{j = 1}^{m} t_i u_j P(A_i B_j) = \sum_{i = 1}^{n} \sum_{j = 1}^{m} t_i u_j P(A_i) P(B_j) = (\sum_{i = 1}^{n} t_i P(A_i)) (\sum_{j = 1}^{m} u_j P(B_j)) = E[X]E[Y]\)

    Por lo tanto, la regla del producto se mantiene para variables aleatorias simples independientes.

    Ejemplo 11.2.9: aproximación de funciones simples para un par independiente

    Supongamos que\(\{X, Y\}\) es un par independiente, con un par simple aproximado\(\{X_s, Y_s\}\). Como funciones de\(X\) y\(Y\), respectivamente, el par\(\{X_s, Y_s\}\) es independiente. Según Ejemplo, anterior, la regla del producto\(E[X_s Y_s] = E[X_s] E[Y_s]\) debe mantenerse.

    Ejemplo 11.2.10. regla de producto para un par independiente

    Para\(X \ge 0\),\(Y \ge 0\), existen secuencias no decrecientes\(\{X_n: 1 \le n\}\) y\(\{Y_n: 1 \le n\}\) de variables aleatorias simples que aumentan a\(X\) y\(Y\), respectivamente. La secuencia también\(\{X_n Y_n: 1 \le n\}\) es una secuencia no decreciente de variables aleatorias simples, aumentando a\(XY\). Por el teorema de convergencia monótona (MC)

    \(E[X_n] \nearrow E[X]\),\(E[Y_n] \nearrow E[Y]\), y\(E[X_n Y_n] \nearrow E[XY]\)

    Ya que\(E[X_n Y_n] = E[X_n] E[Y_n]\) para cada uno\(n\), concluimos\(E[XY] = E[X] E[Y]\)

    En el caso general,

    \(XY = (X^{+} - X^{-}) (Y^{+} - Y^{-}) = X^{+}Y^{+} - X^{+} Y^{-} - X^{-} Y^{+} + X^{-} Y^{-}\)

    La aplicación de la regla del producto a cada par no negativo y el uso de linealidad da la regla del producto para el par\(\{X, Y\}\)

    OBSERVACIÓN. Debe ser evidente que la regla del producto se puede extender a cualquier clase independiente finita.

    Ejemplo 11.2.11: la distribución conjunta de tres variables aleatorias

    La clase\(\{X, Y, Z\}\) es independiente, con las distribuciones marginales que se muestran a continuación. Let

    \(W = g(X, Y, Z) = 3X^2 + 2XY - 3XYZ\). Determinar\(E[W]\).

    X = 0:4;
    Y = 1:2:7;
    Z = 0:3:12;
    PX = 0.1*[1 3 2 3 1];
    PY = 0.1*[2 2 3 3];
    PZ = 0.1*[2 2 1 3 2];
    
    icalc3                                        % Setup for joint dbn for {X,Y,Z}
    Enter row matrix of X-values   X
    Enter row matrix of Y-values   Y
    Enter row matrix of Z-values   Z
    Enter X probabilities  PX
    Enter Y probabilities  PY
    Enter Z probabilities  PZ
    Use array operations on matrices  X, Y, Z,
    PX, PY, PZ, t, u, v, and P
    EX = X*PX'                                    % E[X]
    EX =    2
    EX2 = (X.^2)*PX'                              % E[X^2]
    EX2 = 5.4000
    EY = Y*PY'                                    % E[Y]
    EY =  4.4000
    EZ = Z*PZ'                                    % E[Z]
    EZ =  6.3000
    G = 3*t.^2 + 2*t.*u - 3*t.*u.*v;              % W = g(X,Y,Z) = 3X^2 + 2XY - 2XYZ
    

    Ejemplo 11.2.12. una función con una definición compuesta: exponencial truncado

    Supongamos\(X\) ~ exponencial (0, 3). Let

    \(Z = \begin{cases} X^2 & \text{for } X \le 4 \\ 16 & \text{for } X > 4 \end{cases} = I_{[0, 4]} (X) X^2 + I_{(4, \infty]} (X) 16\)

    Determinar\(E(Z)\).

    Solución Analítica

    \(E[g(X)] = \int g(t) f_X (t) \ dt = \int_{0}^{\infty} I_{[0, 4]} (t) t^2 0.3 e^{-0.3t}\ dt + 16 E[I_{(4, \infty]} (X)]\)

    \(= \int_{0}^{4} t^2 0.3 e^{-0.3t}\ dt + 16 P(X > 4) \approx 7.4972\)(por Maple)

    APROXIMACIÓN

    Para obtener una aproximación simple, debemos aproximar lo exponencial por una variable aleatoria acotada. Ya que\(P(X > 50) = e^{-15} \approx 3 \cdot 10^{-7}\) podemos truncar la seguridad\(X\) al 50.

    tappr
    Enter matrix [a b] of x-range endpoints [0 50]
    Enter number of x approximation points 1000
    Enter density as a function of t 0.3*exp(-0.3*t)
    Use row matrices X and PX as in the simple case
    M = X <= 4
    G = M.*X.^2 + 16*(1 - M); % g(X)
    EG = G*PX'                % E[g(X)]
    EG = 7.4972
    [Z,PZ] = csort(G,PX);     % Distribution for Z = g(X)
    EZ = Z*PZ'                % E[Z] from distribution
    EZ = 7.4972
    

    Debido al gran número de puntos de aproximación, los resultados concuerdan bastante estrechamente con el valor teórico.

    Ejemplo 11.2.13. almacenamiento para demanda aleatoria (ver ejercicio 4 de “Problemas en funciones de variables aleatorias”)

    El gerente de una tienda departamental está planeando para la temporada navideña. Un determinado artículo cuesta\(c\) dólares por unidad y se vende por\(p\) dólares por unidad. Si la demanda excede el monto\(m\) solicitado, las unidades adicionales pueden pedirse especiales por\(s\) dólares por unidad\((s > c)\). Si la demanda es inferior a la cantidad pedida, las existencias restantes pueden ser devueltas (o de otra manera enajenadas) a\(r\) dólares por unidad (\(r < c\)). La demanda\(D\) para la temporada se considera una variable aleatoria con distribución de Poisson (\(\mu\)). Supongamos\(\mu = 50\)\(c = 30\),\(p = 50\),,\(s = 40\),\(r = 20\). ¿Qué pasa con el gerente\(m\) debe ordenar maximizar el beneficio esperado?

    FORMULACIÓN DE PROBLEMAS

    Supongamos que\(D\) es la demanda y\(X\) es la ganancia. Entonces

    Para\(D \le m\),\(X = D(p - c) - (m - D) (c - r) = D(p - r) + m (r - c)\)
    Para\(D > m\),\(X = m(p - c) + (D - m) (p - s) = D(p - s) + m(s - c)\)

    Es conveniente escribir la expresión para\(X\) en términos de\(I_M\), dónde\(M = (-\infty, m]\). Así

    \(X = I_M (D) [D (p - r) + m(r - c)] + [1 - I_M(D)] [D(p - s) + m (s - c)]\)

    \(= D(p - s) + m(s - c) + I_M(D) [D(p - r) + m(r - c) - D(p - s) - m(s - c)]\)

    \(= D(p - s) + m(s - c) + I_M(D) (s - r) (D - m)\)

    Entonces\ (E [X] = (p - c) E [D] + m (s - c) + (s - r) E [I_M (D) D] - (s - r) m E [I_M (D)].

    Solución Analítica

    Para\(D\) ~ Poisson (\(\mu\)),\(E[D] = \mu\) y\(E[I_M(D)] = P(D \le m)\)

    \(E[I_M(D) D] = e^{-\mu} \sum_{k = 1}^{m} k \dfrac{\mu^k}{k!} = \mu e^{-\mu} \sum_{k = 1}^{m} \dfrac{\mu^{k - 1}}{(k - 1)!} = \mu P(D \le m - 1)\)

    Por lo tanto,

    \(E[X] = (p - s) E[D] + m(s - c) + (s - r) E[I_M (D) D] - (s - r) m E[I_M(D)]\)

    \(= (p - s)\mu + m(s - c) + (s - r) \mu P(D \le m - 1) - (s - r) m P(D \le m)\)

    Debido a la naturaleza discreta del problema, no podemos resolver para lo óptimo\(m\) mediante el cálculo ordinario. Podemos resolver para varios\(m\) acerca\(m = \mu\) y determinar el óptimo. Lo hacemos con la ayuda de MATLAB y la función m cpoisson.

    mu = 50;
    c  = 30;
    p  = 50;
    s  = 40;
    r  = 20;
    m  = 45:55;
    EX = (p - s)*mu + m*(s - c) + (s - r)*mu*(1 - cpoisson(mu, m))...
    -(s - r)*m.*(1 - cpoisson(mu,m+1));
    disp([m;EX]')
        45.0000    930.8604
        46.0000    935.5231
        47.0000    939.1895
        48.0000    941.7962
        49.0000    943.2988
        50.0000    943.6750            % Optimum m = 50
        51.0000    942.9247
        52.0000    941.0699
        53.0000    938.1532
        54.0000    934.2347
        55.0000    929.3886
    

    Una solución directa puede ser obtenida por MATLAB, usando aproximación finita para la distribución de Poisson.

    APROXIMACIÓN

    ptest = cpoisson(mu,100)            %Check for suitable value of n
    ptest = 3.2001e-10
    n = 100;
    t = 0:n;
    pD = ipoisson(mu,t);
    for i = 1:length(m)                 % Step by step calculation for various m
        M = t > m(i);
        G(i,:) = t*(p - r) - M.*(t - m(i))*(s - r) - m(i)*(c - r);
    end
    EG = G*pD';                         % Value agree with theoretical to four decimals
    

    Una ventaja de la segunda solución, basada en la simple aproximación a D, es que se\(m\) podría estudiar la distribución de ganancia para cada una, por ejemplo, las ganancias máximas y mínimas.

    — □

    Ejemplo 11.2.14. un par distribuido conjuntamente

    Supongamos que el par\(\{X, Y\}\) tiene densidad de articulación\(f_{XY} (t, u) = 3u\) en la región triangular delimitada por\(u = 0\)\(u = 1 + t\),,\(u = 1 - t\) (ver Figura 11.2.1). Vamos\(Z = g(X, Y) = X^2 + 2XY\). Determinar\(E[Z]\).

    La Figura 1 es un dibujo de densidad, con un eje horizontal etiquetado como t, y un eje vertical etiquetado como u. Un triángulo de ancho 2, con una base asentada sobre el eje horizontal, de t=-1 a t=1. El tercer punto del triángulo (el que no está en el eje horizontal) está directamente arriba, sobre el eje vertical. El dibujo del triángulo se divide así en mitades iguales por el eje vertical. El lado del triángulo en el eje horizontal no tiene etiqueta directa. El lado del triángulo de la izquierda está etiquetado u = 1 + t, y el lado del triángulo a la derecha está etiquetado u = 1- t. Un título debajo del triángulo dice f_xy (t, u) - 3u en el triángulo.

    Figura 11.2.1. La densidad para el Ejemplo 11.2.14.

    Solución Analítica

    \(E[Z] = \int \int (t^2 + 2tu) f_{XY} (t, u) \ dudt\)

    \(= 3 \int_{-1}^{0} \int_{0}^{1 + t} (t^2 u + 2tu^2) \ dudt + 3 \int_{0}^{1} \int_{0}^{1 - t} (t^2 u + 2tu^2)\ dudt = 1/10\)

    APROXIMACIÓN

    tuappr
    Enter matrix [a b] of X-range endpoints [-1 1]
    Enter matrix [c d] of Y-range endpoints [0 1]
    Enter number of X approximation points 400
    Enter number of Y approximation points 200
    Enter expression for joint density 3*u.*(u<=min(1+t,1-t))
    Use array operations on X, Y, PX, PY, t, u, and P
    G = t.^2 + 2*t.*u;                % g(X,Y) = X^2 + 2XY
    EG = total(G.*P)                  % E[g(X,Y)]
    EG = 0.1006                       % Theoretical value = 1/10
    [Z, PZ] = csort(G,P);             % Distribution for Z
    EZ = Z*PZ'                        % E[Z] from distribution
    EZ = 0.1006
    

    Ejemplo 11.2.15. Afunción con una definición compuesta

    El par\(\{X, Y\}\) tiene densidad de juntas\(f_{XY} (t, u) = 1/2\) en la región cuadrada delimitada a\(u = 1 + t, u = 1 - t, u = 3 - t\), y\(u = t - 1\) (ver Figura 11.2.2).

    \(W = \begin{cases} X & \text{for max } \{X, Y\} \le 1 \\ 2Y & \text{for max } \{X, Y\} > 1 \end{cases} = I_Q (X, Y) X + I_{Q^c} (X,Y) 2Y\)

    donde\(Q = \{(t, u): \text{max } \{t, u\} \le 1\} = \{(t, u): t \le 1, u \le 1\}\). Determinar\(E[W]\).

    La Figura 2 es un dibujo de densidad, con un eje horizontal etiquetado como t, y un eje vertical etiquetado u. El dibujo es un cuadrado sombreado girado 45 grados para estar sentado con un punto en el eje horizontal. El punto se asienta en (1, 0) y un segundo punto se asienta contra el eje vertical, en (0, 1). Al mirar el dibujo se puede deducir que el tercer vértice está en (1, 2), y que el cuarto vértice está en (2, 1). Cada lado del cuadrado está etiquetado con una ecuación. Comenzando por el lado entre los vértices que están sentados sobre los ejes, una lectura de ellos en sentido horario, las ecuaciones se listan como u= 1 - t, u = 1 + t, u= 3 - t, y u = t - 1. También hay una ecuación dentro del cuadrado sombreado, leyendo f_xy (t, u) = 1/2.

    Figura 11.2.2. La densidad para el Ejemplo 11.2.15

    Solución Analítica

    La intersección de la región\(Q\) y el cuadrado es el conjunto para el cual\(0 \le t \le 1\) y\(1 - t \le u \le 1\). La referencia a la figura muestra tres regiones de integración.

    \(E[W] = \dfrac{1}{2} \int_0^1 \int_{1 - t}^{1} t\ dudt + \dfrac{1}{2} \int_{0}^{1} \int_{1}^{1 + t} 2u\ dudt + \dfrac{1}{2} \int_{1}^{2} \int_{t - 1}^{3 - t} 2u \ dudt = 11/6 \approx 1.8333\)

    APROXIMACIÓN

    tuappr
    Enter matrix [a b] of X-range endpoints [0 2]
    Enter matrix [c d] of Y-range endpoints [0 2]
    Enter number of X approximation points 200
    Enter number of Y approximation points 200
    Enter expression for joint density ((u<=min(t+1,3-t))& ...
            (u>=max(1-t,t-1))/2
    Use array operation on X, Y, PX, PY, t, u, and P
    M = max(t,u)<=1;
    G = t.*M + 2*u.*(1 - M);    % Z = g(X,Y)
    EG = total(G.*P)            % E[g(X,Y)]
    EG = 1.8340                 % Theoretical 11/6 = 1.8333
    [Z,PZ] = csort(G,P);        % Distribution for Z
    EZ = dot(Z,PZ)              % E[Z] from distribution
    EZ = 1.8340
    

    Formularios especiales para la expectativa

    Las diversas formas especiales relacionadas con la propiedad (E20a) suelen ser útiles. El resultado general, que no necesitamos, suele derivarse de un argumento que emplea una forma general de lo que se conoce como teorema de Fubini. La forma especial (E20b)

    \(E[X] = \int_{-\infty}^{\infty} [u(t) - F_X (t)]\ dt\)

    puede derivarse de (E20a) mediante el uso de integración por partes para integrales de Stieltjes. Sin embargo, utilizamos la relación entre la gráfica de la función de distribución y la gráfica de la función cuantil para mostrar la equivalencia de (E20b) y (E20f). Esta última propiedad es fácilmente establecida por argumentos elementales.

    Ejemplo 11.2.16. La propiedad (e20f)

    Si\(Q\) es la función quantile para la función de distribución\(F_X\), entonces

    \(E[g(X)] = \int_{0}^{1} g[G(u)]\ du\)

    VERIFICACIÓN

    Si\(Y = Q(U)\), donde\(U\) ~ uniforme en (0, 1), entonces\(Y\) tiene la misma distribución que\(X\). Por lo tanto,

    \(E[g(X)] = E[g(Q(U))] = \int g(Q(u)) f_U (u)\ du = \int_{0}^{1} g(Q(u))\ du\)

    Ejemplo 11.2.17. Confiabilidad y expectativa

    En confiabilidad, si\(X\) es la duración de vida (tiempo hasta el fallo) de un dispositivo, la función de confiabilidad es la probabilidad en cualquier momento de\(t\) que el dispositivo aún esté operativo. Así

    \(R(t) = P(X > t) = 1 - F_X(t)\)

    Según propiedad (E20b)

    \(E[X] = \int_{0}^{\infty} R(t) \ dt\)

    Ejemplo 11.2.18. Uso de la función quantile

    Supongamos\(F_X (t) = t^a\)\(a > 0\),,\(0 \le t \le 1\). Entonces\(Q(u) = u^{1/a}\),\(0 \le u \le a\).

    \(E[X] = \int_{0}^{1} u^{1/a} \ du = \dfrac{1}{1 + 1/a} = \dfrac{a}{a + 1}\)

    El mismo resultado se podría obtener utilizando\(f_X(t) = F_{X}^{'} (t)\) y evaluando\(\int t f_X (t)\ dt\).

    Ejemplo 11.2.19. Equivalencia de (e20b) y (e20f)

    Para el caso especial\(g(X) = X\). La figura 3 (a) muestra\ int_ {0} ^ {1} Q (u)\ du\) es la diferencia en las áreas sombreadas

    \(\int_{0}^{1} Q(u)\ du = \text{Area } A - \text{Area } B\)

    La gráfica correspondiente de la función de distribución F se muestra en la Figura 11.2.3 (b). Debido a la construcción, las zonas de las regiones marcaron\(A\) y\(B\) son las mismas en las dos cifras. Como puede verse,

    \(\text{Area } A = \int_{0}^{\infty} [1 - F(t)]\ dt\)y\(\text{Area } B = \int_{-\infty}^{0} F(t)\ dt\)

    El uso de la función de paso de unidad\(u(t) = 1\) para\(t > 0\) y 0 para\(t < 0\) (definida arbitrariamente en\(t = 0\)) nos permite combinar las dos expresiones para obtener

    \(\int_{0}^{1} Q(u)\ du = \text{Area } A - \text{Area } B = \int_{-\infty}^{\infty} [u(t) - F(t)]\ dt\)

    La figura tres contiene dos gráficas. La primera gráfica tiene un eje horizontal etiquetado t, y un eje vertical etiquetado u. La etiqueta grande de la gráfica dice, u = Q (t). Una línea vertical discontinua a lo largo de t = 1 limita una gráfica curva creciente. La curva comienza con una asíntota vertical a lo largo del eje vertical debajo del eje horizontal, y a medida que se acerca al eje horizontal, la pendiente se vuelve más superficial. La pendiente de la curva se reduce hasta que se encuentra a mitad de camino en la distancia horizontal entre el eje vertical y la línea vertical discontinua. En este punto, la pendiente comienza a aumentar nuevamente, hasta alcanzar una asíntota vertical a lo largo de la línea discontinua en t = 1. Los ejes horizontal y vertical, junto con la propia curva, crean una forma acotada. Un pequeño triángulo rectángulo se ajusta sin apretar a esta forma delimitada, y se etiqueta como B. La línea discontinua, el eje horizontal y el segmento de la curva sobre el eje horizontal crean una forma delimitada más grande, y un triángulo rectángulo más grande se ajusta sin apretar a esta forma delimitada, etiquetada A. La segunda gráfica es más o menos similar. Los ejes están en el mismo lugar, pero con esta figura, ahora se dibuja horizontalmente s línea discontinua a lo largo de u = 1. Una curva de la misma forma comienza ahora como una asíntota horizontal a lo largo del eje t. Aumenta en pendiente a una tasa creciente para la mitad de la distancia vertical y luego disminuye en pendiente de nuevo a una asíntota horizontal en u = 1. Los mismos triángulos que se ajustan a las mismas regiones delimitadas que en la primera figura se utilizan en las segundas figuras, solo por la naturaleza girada de la nueva curva, estos triángulos se rotan de la misma manera.

    Figura 11.2.3. Equivalencia de propiedades (E20b) y (E20f).

    La propiedad (E20c) es un resultado directo de linealidad y (E20b), con las funciones de paso de unidad cancelando.

    Ejemplo 11.2.20. Desigualdades útiles de propiedad (e20d)

    Supongamos\(X \ge 0\). Entonces

    \(\sum_{n = 0}^{\infty} P(X \ge n + 1) \le E[X] \le \sum_{n = 0}^{\infty} P(X \ge n) \le N \sum_{k = 0}^{\infty} P(X \ge kN)\), para todos\(N \ge 1\)

    VERIFICACIÓN

    Para\(X \ge 0\), por (E20b)

    \(E[X] = \int_{0}^{\infty} [1 - F(t)]\ dt = \int_{0}^{\infty} P(X > t)\ dt\)

    Dado que solo\(F\) puede tener un número contable de saltos en cualquier intervalo y\(P(X > t\) y\(P(X \ge t)\) diferir solo en los puntos de salto, podemos afirmar

    \(\int_{a}^{b} P(X > t)\ dt = \int_{a}^{b} P(X \ge t)\ dt\)

    Para cada entero no negativo\(n\), let\(E_n = [n, n + 1]\). Por la aditividad contable de la expectativa

    \(E[X] = \sum_{n = 0}^{\infty} E[I_{E_n} X] = \sum_{n = 0}^{\infty} \int_{E_n} P(X \ge t) \ dt \)

    Dado que\(P(X \ge t)\) es decreciente con\(t\) y cada uno\(E_n\) tiene longitud unitaria, tenemos por el teorema del valor medio

    \(P(X \ge n + 1) \le E[I_{E_n} X] \le P(X \ge n)\)

    La tercera desigualdad se deriva del hecho de que

    \(\int_{kN}^{(k + 1)N} P(X \ge t) \ dt \le N \int_{E_{kN}} P(X \ge t) \ dt \le NP(X \ge kN)\)

    OBSERVACIÓN. La propiedad (E20d) se utiliza principalmente con fines teóricos. El caso especial (E20e) se utiliza con mayor frecuencia.

    Ejemplo 11.2.21. Propiedad (e20e)

    Si no\(X\) es negativo, valor entero, entonces

    \(E[X] = \sum_{k = 1}^{\infty} P(X \ge k) = \sum_{k = 0}^{\infty} P(X > k)\)

    VERIFICACIÓN

    El resultado sigue como caso especial de (E20d). Para variables aleatorias con valor entero,

    \(P(X \ge t) = P(X \ge n)\)encendido\(E_n\) y\(P(X \ge t) = P(X > n) = P(X \ge n + 1)\) encendido\(E_{n + 1}\)

    Se puede construir una derivación elemental de (E20e) de la siguiente manera.

    Ejemplo 11.2.22. (e20e) para variables aleatorias de valor entero

    Por definición

    \(E[X] = \sum_{k = 1}^{\infty} kP(X = k) = \text{lim}_n \sum_{k = 1}^{n} kP(X =k)\)

    Ahora por cada finito\(n\),

    \(\sum_{k = 1}^{n} kP(X = k) = \sum_{k = 1}^{n} \sum_{j = 1}^{k} P(X = k) = \sum_{j = 1}^{n} \sum_{k = j}^{n} P(X = k) = \sum_{j = 1}^{n} P(X \ge j)\)

    Tomando límites como\(n \to \infty\) arroja el resultado deseado.

    Ejemplo 11.2.23. la distribución geométrica

    Supongamos\(X\) ~ geométrico (\(p\)). Entonces\(P(X \ge k) = q^k\). El uso de (E20e) da

    \(E[X] = \sum_{k = 1}^{\infty} q^k = q \sum_{k = 0}^{\infty} q^k = \dfrac{q}{1 - q} = q/p\)


    This page titled 11.2: Expectativa matemática y variables aleatorias generales is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.