11.2: Expectativa matemática y variables aleatorias generales
- Page ID
- 151132
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)En esta unidad, extendemos la definición y propiedades de expectativa matemática al caso general. En el proceso, observamos la relación de la expectativa matemática con la integral de Lebesque, la cual se desarrolla en la teoría de medidas abstractas. Aunque no desarrollamos esta teoría, que se encuentra fuera del alcance de este estudio, la identificación de esta relación proporciona acceso a un rico y poderoso conjunto de propiedades que tienen consecuencias de largo alcance tanto en la aplicación como en la teoría.
Extensión al Caso General
En la unidad sobre Aproximaciones de Distribución, mostramos que una variable aleatoria acotada se\(X\) puede representar como el límite de una secuencia no decreciente de variables aleatorias simples. Además, una variable aleatoria real se puede expresar como la diferencia\(X = X^{+} - X^{-}\) de dos variables aleatorias no negativas. La extensión de la expectativa matemática al caso general se basa en estos hechos y ciertas propiedades básicas de variables aleatorias simples, algunas de las cuales se establecen en la unidad sobre la expectativa para variables aleatorias simples. Enumeramos estas propiedades y esbozamos cómo se logra la extensión.
Definición: casi seguro
Se dice que una condición en una variable aleatoria o en una relación entre variables aleatorias se mantiene casi seguramente, abreviada “a.s.” si la condición o relación se mantiene para todos\(\omega\) excepto posiblemente un conjunto con probabilidad cero.
Propiedades básicas de variables aleatorias simples
(E0): Si\(X = Y\) a.s. entonces\(E[X] = E[Y]\).
(E1):\(E(aI_E) = aP(E)\).
(E2): Linealidad. \(X = \sum_{i = 1}^{n} a_i X_i\)implica\(E[X] = \sum_{i = 1}^{n} a_i E[X_i]\) |
(E3): Positividad: monotonicidad
a. si\(X \ge 0\) a.s.\(E[X] \ge 0\), entonces, con igualdad iff\(X = 0\) a.s.
b. Si\(X \ge Y\) a.s., entonces\(E[X] \ge E[Y]\), con igualdad iff\(X = Y\) a.s.
(E4): Lema fundamental Si\(X \ge 0\) está acotado y\(\{X_n: 1 \le n\}\) es una secuencia no negativa, no decreciente de a.s. con\(\text{lim}_{n} \ X_n(\omega) \ge X(\omega)\) para casi todos\(\omega\), entonces\(\text{lim}_{n} \ E[X_n] \ge E[X]\).
(E4a): Si para todos\(n\),\(0 \le X_n \le X_{n + 1}\) a.s. y\(X_n \to X\) a.s., entonces\(E[X_n] \to E[X]\) (es decir, la expectativa del límite es el límite de las expectativas).
Ideas de las pruebas de las propiedades fundamentales
- Modificar la variable aleatoria\(X\) en un conjunto de probabilidad cero simplemente modifica uno o más de los\(A_i\) sin cambiar\(P(A_i)\)
- Las propiedades (E1) y (E2) se establecen en la unidad sobre la expectativa de variables aleatorias simples.
- La positividad (E3a) es una propiedad simple de las sumas de números reales. La modificación de conjuntos de probabilidad cero no puede afectar la expectativa.
- La monotonicidad (E3b) es consecuencia de la positividad y linealidad.
\(X \ge Y\)iff\(X - Y \ge 0\) a.s. e\(E[X] \ge E[Y]\) iff\(E[X] - E[Y] = E[X - Y] \ge 0\)
- El lema fundamental (E4) juega un papel esencial en la extensión del concepto de expectativa. Implica un uso elemental, pero algo sofisticado, de linealidad y monotonicidad, limitado a variables aleatorias no negativas y coeficientes positivos. Renunciamos a una prueba.
- La monotonicidad y el lema fundamental proporcionan una prueba muy simple de la convergencia monótona theoem, a menudo designado MC. Su papel es esencial en la extensión.
Variables aleatorias no negativas
Hay una secuencia no decreciente de variables aleatorias simples no negativas que convergen a\(X\). La monotonicidad implica que las integrales de la secuencia no decreciente es una secuencia no decreciente de números reales, que debe tener un límite o aumento sin límite (en cuyo caso decimos que el límite es infinito). Definimos\(E[X] = \text{lim } E[X_n]\).
Surgen dos preguntas.
¿El límite es único? Las secuencias aproximadas para una variable aleatoria simple no son únicas, aunque su límite es el mismo.
¿La definición es consistente? Si la variable aleatoria limit\(X\) es simple, ¿coincide la nueva definición con la anterior?
El lema fundamental y la convergencia monótona pueden utilizarse para demostrar que la respuesta a ambas preguntas es afirmativa, de manera que la definición es razonable. Además, las seis propiedades fundamentales sobreviven al paso al límite.
Como una simple aplicación de estas ideas, considere variables aleatorias discretas como la geométrica (\(p\)) o Poisson (\(\mu\)), que son de valor entero pero no acotadas.
Ejemplo 11.2.1: Variables aleatorias no acotadas, no negativas, de valor completo
La variable aleatoria\(X\) puede expresarse
\(X = \sum_{k = 0}^{\infty} k I_{E_k}\), donde\(E_k = \{X = k\}\) con\(P(E_k) = p_k\)
Let
\(X_n = \sum_{k = 0}^{n - 1} kI_{E_k} + n I_{B_n}\), donde\(B_n = \{X \ge n\}\)
Entonces cada uno\(X_n\) es una simple variable aleatoria con\(X_n \le X_{n + 1}\). Si\(X(\omega) = k\), entonces\(X_n(\omega) = k = X(\omega)\) para todos\(n \ge k + 1\). De ahí,\(X_{n} (\omega) \to X(\omega)\) para todos\(\omega\). Por convergencia monótona,\(E[X_n] \to E[X]\). Ahora
\(E[X_n] = \sum_{k = 1}^{n - 1} k P(E_k) + nP(B_n)\)
Si\(\sum_{k = 0}^{\infty} kP(E_k) < \infty\), entonces
\(0 \le nP(B_n) = n \sum_{k = n}^{\infty} P(E_k) \le \sum_{k = n}^{\infty} kP(E_k) \to 0\)como\(n \to \infty\)
De ahí
\(E[X] = \text{lim}_{n} \ E[X_n] = \sum_{k = 0}^{\infty} k P(A_k)\)
Podemos usar este resultado para establecer la expectativa para las distribuciones geométricas y Poisson.
Ejemplo 11.2.2: X~Geométrico (\(p\))
Nosotros tenemos\(p_k = P(X = k) = q^k p\). \(0 \le k\). Por el resultado del Ejemplo 11.2.1.
\(E[X] = \sum_{k = 0}^{\infty} kpq^k = pq \sum_{k = 1}^{\infty} kq^{k - 1} = \dfrac{pq}{(1 - q)^2} = q/p\)
Para\(Y - 1\) ~ geométrico (\(p\)), de\(p_k = pq^{k - 1}\) modo que\(E[Y] = \dfrac{1}{q} E[X] = 1/p\)
Ejemplo 11.2.3: x~Poisson (\(\mu\))
Nosotros tenemos\(p_k = e^{-\mu} \dfrac{\mu^{k}}{k!}\). Por el resultado del Ejemplo 11.2.1.
\(E[X] = e^{-\mu} \sum_{k = 0}^{\infty} k \dfrac{\mu^k}{k!} = \mu e^{-\mu} \sum_{k = 1}^{\infty} \dfrac{\mu^{k - 1}}{(k - 1)!} = \mu e^{-\mu} e^{\mu} = \mu\)
El caso general
Hacemos uso del hecho de que\(X = X^{+} - X^{-}\), donde ambos\(X^{+}\) y\(X^{-}\) son no negativos. Entonces
\(E[X] = E[X^{+}] - E[X^{-}]\)siempre que al menos uno de\(E[X^{+}]\),\(E[X^{-}]\) sea finito
Definición. Si ambos\(E[X^{+}]\) y\(E[X^{-}]\) son finitos,\(X\) se dice que son integrables.
El término integrable proviene de la relación de expectativa con la integral abstracta de Lebesgue de la teoría de medidas.
Nuevamente, las propiedades básicas sobreviven a la extensión. La propiedad (E0) está subsumida en una propiedad de singularidad más general señalada en la lista de propiedades que se analiza a continuación.
Nota teórica
El desarrollo de la expectativa esbozado anteriormente es exactamente el desarrollo de la integral Lebesgue de la variable aleatoria\(X\) como una función medible en el espacio de probabilidad básico (\(\Omega\), \(F\),\(P\)), de manera que
\[E[X] = \int_{\Omega} X\ dP\]
Como consecuencia, podemos utilizar las propiedades de la integral general de Lebesgue. En su forma abstracta, no es particularmente útil para cálculos reales. Un uso cuidadoso del mapeo de la masa de probabilidad a la línea real por variable aleatoria\(X\) produce un mapeo correspondiente de la integral en el espacio básico a una integral en la línea real. Si bien esta integral es también una integral de Lebesgue, concuerda con la integral ordinaria de Riemann de cálculo cuando esta última existe, por lo que las integrales ordinarias pueden ser utilizadas para calcular las expectativas.
Propiedades adicionales
Las propiedades fundamentales de las variables aleatorias simples que sobreviven a la extensión sirven como base de una extensa y poderosa lista de propiedades de expectativa de variables aleatorias reales y funciones reales de vectores aleatorios. Algunos de los más importantes se enumeran en la tabla del Apéndice E. A menudo nos referimos a estas propiedades por los números utilizados en esa tabla.
Algunas formas básicas
Los teoremas de mapeo proporcionan una serie de formas integrales básicas (o sumatorias) para el cálculo.
En general, si\(Z = g(X)\) con funciones de distribución\(F_X\) y\(F_Z\), tenemos la expectativa como integral de Stieltjes.
\(E[Z] = E[g(X)] = \int g(t) F_X (dt) = \int u F_Z (du)\)
Si\(X\) y\(g(X)\) son absolutamente continuas, las integrales de Stieltjes son reemplazadas por
\(E[Z] = \int g(t) f_X (t)\ dt = \int uF_Z (du)\)
donde los límites de integración están determinados por\(f_X\) o\(f_Y\). La justificación para el uso de la función de densidad es proporcionada por el teoremo—propiedad Radon-Nikodym (E19).
Si\(X\) es simple, en una forma primitiva (incluida la forma canónica), entonces
\(E[Z] = E[g(X)] = \sum_{j = 1}^{m} g(c_j) P(C_j)\)
Si la distribución para\(Z = g(X)\) está determinada por una operación csort, entonces
\(E[Z] = \sum_{k = 1}^{n} v_k P(Z = v_k)\)
La extensión a variables aleatorias no acotadas, no negativas, de valor entero se muestra en el Ejemplo 11.2.1, anterior. Las sumas finitas son reemplazadas por series infinitas (siempre que converjan).
Para\(Z = g(X, Y)\),
\(E[Z] = E[g(X, Y)] = \int \int g(t, u) F_{XY} (dtdu) = \int v F_Z (dv)\)
En el caso absolutamente continuo
\(E[Z] = E[g(X,Y)] = \int \int g(t,u) f_{XY} (t, u) dudt = \int v f_Z (v) dv\)
Para simple conjunto\(X,Y\) (Sección sobre Expectativa para Variables Aleatorias Simples)
\(E[Z] = E[g(X, Y)] = \sum_{i = 1}^{n} \sum_{j = 1}^{m} g(t_i, u_j) P(X = t_i, Y = u_j)\)
Interpretación mecánica y procedimientos de aproximación
En la mecánica elemental, dado que la masa total es una, la cantidad\(E[X] = \int t f_X (t)\ dt\) es la ubicación del centro de masa. Este hecho teóricamente riguroso puede derivarse heurísticamente de un examen de la expectativa para una variable aleatoria de aproximación simple. Recordemos la discusión del procedimiento m para aproximación discreta en la unidad sobre Aproximaciones de Distribución El rango de\(X\) se divide en subintervalos iguales. Los valores de la variable aleatoria aproximada se encuentran en los puntos medios de los subintervalos. La probabilidad asociada es la masa de probabilidad en el subintervalo, que es aproximadamente\(f_X (t_i) dx\), donde\(dx\) está la longitud del subintervalo. Esta aproximación mejora con un número creciente de subdivisiones, con la disminución correspondiente en dxdx\(X_s\) es
\(E[X_s] = \sum_{i} t_i f_X(t_i) dx \approx \int tf_X(t)\ dt\)
La aproximación mejora con subdivisiones cada vez más finas. El centro de masa de la distribución aproximada se aproxima al centro de masa de la distribución suave.
Debe quedar claro que un argumento similar para\(g(X)\) lleva a la expresión integral
\(E[g(X)] = \int g(t) f_X (t)\ dt\)
Este argumento muestra que deberíamos poder usar tappr para configurar para aproximar la expectativa así\(E[g(X)]\) como para aproximar\(P(g(X) \in M)\), etc. volvemos a esto en Sección.
Valores medios para algunas distribuciones absolutamente continuas
Uniforme encendido\([a, b]f_X (t) = \dfrac{1}{b-a}\),\(a \le t \le b\) El centro de masa está en\((a + b)/2\). Para calcular el valor formalmente, escribimos
\(E[X] = \int tf_X (t) dt = \dfrac{1}{b - a} \int_{a}^{b} t dt = \dfrac{b^2 - a^2}{2(b - a)} = \dfrac{b + a}{2}\)
Triangular simétrico en [\(a, b\)] La gráfica de la densidad es un triángulo isóceles con base en el intervalo\([a, b]\). Por simetría, el centro de masa, de ahí la expectativa, está en el punto medio\((a + b)/2\).
Exponencial (\(\lambda\))\(f_X (t) = \lambda e^{-\lambda t}\),\(0 \le t\) Usando una integral definida bien conocida (ver Apéndice B), tenemos
\(E[X] = \int tf_X(t)\ dt = \int_{0}^{\infty} \lambda te^{-\lambda t} dt = 1/\lambda\)
Gamma (\(\alpha, \lambda\))\(f_X (t) = \dfrac{1}{\Gamma} (\alpha) t^{\alpha - 1} \lambda^{\alpha} e^{-\lambda t}\),\(0 \le t\) Nuevamente utilizamos una de las integrales en el Apéndice B para obtener
\(E[X] = \int tf_X (t)\ dt = \dfrac{1}{\Gamma} \int_{0}^{\infty} \lambda^{\alpha} t^{\alpha} e^{-\lambda t} dt = \dfrac{\Gamma(\alpha + 1)}{\lambda \Gamma (\alpha)} = a/lambda\)
La última igualdad viene del hecho de que\(\Gamma (\alpha + 1) = \alpha \Gamma (\alpha)\).
Beta (\(r, s\)). \(f_X (t) = \dfrac{\Gamma (r + s)}{\Gamma (r) \Gamma (s)} t^{r - 1} (1 - t)^{s - 1}\),\(0 < t < 1\) Utilizamos el hecho de que
\(\int_{0}^{1} u^{r - 1} (1 - u)^{s - 1} \ du = \dfrac{\Gamma (r) \Gamma (s)}{\Gamma (r + s)}\),\(r > 0\),\(s > 0\).
\(E[X] = \int tf_X (t)\ dt = \dfrac{\Gamma (r + s)}{\Gamma (r) \Gamma (s)} \int_{0}^{1} t^r (1 - t)^{s - 1} dt = \dfrac{\Gamma (r + s)}{\Gamma (r) \Gamma (s)} \cdot \dfrac{\Gamma (r + 1) \Gamma (s)}{\Gamma (r + s + 1)} = \dfrac{r}{r + s}\)
Weibull (\(\alpha, \lambda, v\)). \(F_X (t) = 1 - e^{-\lambda (t - v)^{\alpha}}\)\(\alpha > 0\),\(\lambda > 0\),\(v \ge 0\),\(t \ge v\). Demostración de diferenciación
\(f_X (t) = \alpha \lambda (t - v)^{\alpha - 1} e^{-\lambda (t -v)^{\alpha}}\),\(t \ge v\)
Primero, considere\(Y\) ~ exponencial\((\lambda)\). Para esta variable aleatoria
\(E[Y^r] = \int_{0}^{\infty} t^r \lambda e^{-\lambda t}\ dt = \dfrac{\Gamma (r + 1)}{\lambda^r}\)
Si\(Y\) es exponencial (1), entonces las técnicas para funciones de variables aleatorias muestran que\([\dfrac{1}{\lambda} Y]^{1/\alpha} + v\) ~ Weibull (\(\alpha, lambda, v\)). Por lo tanto,
\(E[X] = \dfrac{1}{\lambda ^{1/\alpha}} E[Y^{1/\alpha}] + v = \dfrac{1}{\lambda ^{1/\alpha}} \Gamma (\dfrac{1}{\alpha} + 1) + v\)
Normal (\(\mu, \sigma^2\)) La simetría de la distribución sobre lo\(t = \mu\) demuestra\(E[X] = \mu\). Esto, por supuesto, puede verificarse por integración. Un truco estándar simplifica el trabajo.
\(E[X] = \int_{-\infty}^{\infty} t f_X (t) \ dt = \int_{-\infty}^{\infty} (t - \mu) f_X (t) \ dt + \mu\)
Nosotros hemos aprovechado el hecho de que\(\int_{-\infty}^{\infty} f_X (t) \ dt = 1\). Si hacemos el cambio de variable\(x = t-\mu\) en la última integral, el integrando se convierte en una función impar, de manera que la integral es cero. Por lo tanto,\(E[X] = \mu\).
Propiedades y Computación
Las propiedades en la tabla del Apéndice E constituyen un recurso poderoso y conveniente para el uso de la expectativa matemática. Estas son propiedades de la integral abstracta de Lebesgue, expresadas en la notación para la expectativa matemática.
\[E[g(X)] = \int g(X)\ dP\]
En el desarrollo de propiedades adicionales, las cuatro propiedades básicas: (E1) Expectativa de funciones indicadoras, (E2) Linealidad, (E3) Positividad; monotonicidad y (E4a) Convergencia monótona juegan un papel fundamental. Utilizamos las propiedades en la tabla, según sea necesario, a menudo refiriéndonos a ellas por los números asignados en la tabla.
En esta sección, incluimos una serie de ejemplos que ilustran el uso de diversas propiedades. Algunos son ejemplos teóricos, derivando propiedades adicionales o mostrando la base y estructura de algunas en la tabla. Otros aplican estas propiedades para facilitar el cálculo
Ejemplo 11.2.4: Probabilidad como expectativa
La probabilidad puede expresarse enteramente en términos de expectativa.
- Por propiedades (E1) y positividad (E3a),\(P(A) = E[I_A] \ge 0\).
- Como casos especiales de (E1), tenemos\(P(\Omega) = E[I_{\Omega}] = 1\)
- Por las sumas contables propiedad (E8),
\(A = \bigvee_i A_i\)implica\(P(A) = E[I_A] = E[ \sum_{i} I_{A_i}] = \sum_i E[I_{A_i}] = \sum_i P(A_i)\)
Así, se satisfacen las tres propiedades definitorias para una medida de probabilidad.
OBSERVACIÓN. Existen tratamientos de probabilidad que caracterizan la expectativa matemática con propiedades (E0) a (E4a), luego definen\(P(A) = E[I_A]\). Si bien tal desarrollo es bastante factible, no ha sido ampliamente adoptado.
Ejemplo 11.2.5: Un patrón de función de indicador
Supongamos que\(X\) es una variable aleatoria real y\(E = X^{-1} (M) =\{\omega: X(\omega) \in M\}\). Entonces
\(I_E = I_M (X)\)
Para ver esto, tenga en cuenta que\(X(\omega) \in M\) iff\(\omega \in E\), así que ese\(I_E(\omega) = 1\) iff\(I_M(X(\omega)) = 1\).
Del mismo modo, si\(E = X^{-1} (M) \cap Y^{-1} (N)\), entonces\(I_E = I_M (X) I_N (Y)\). Así tenemos, por (E1).
\(P(X \in M) = E[I_M(X)]\)y\(P(X \in M, Y \in N) = E[I_M(X) I_N (Y)]\)
Ejemplo 11.2.6: Interpretación alternativa del valor medio
\(E[(X - c)^2]\)es un iff mínimo\(c = E[X]\), en cuyo caso\(E[(X - E[X])^2] = E[X^2] - E^2[X]\)
INTERPRETACIÓN. Si aproximamos la variable aleatoria\(X\) por una constante\(c\), entonces para cualquier ω el error de aproximación es\(X(\omega) - c\). El promedio ponderado de probabilidad del cuadrado del error (a menudo llamado el error medio al cuadrado) es\(E[(X - c)^2]\). Este error cuadrático promedio es menor si la constante de aproximación\(c\) es el valor medio.
verificación
Ampliamos\((X - c)^2\) y aplicamos linealidad para obtener
\(E[(X - c)^2 = E[X^2 - 2cX + c^2] = E[X^2] - 2E[X] c + c^2\)
La última expresión es una cuadrática en\(c\) (since\(E[X^2]\) y\(E[X]\) son constantes). El tratamiento habitual de cálculo muestra que la expresión tiene un mínimo para\(c = E[X]\). Sustitución de este valor por\(c\) muestra la expresión se reduce a\(E[X^2] - E^2[X]\).
Una serie de desigualdades se enumeran entre las propiedades en la tabla. La base de estas desigualdades suele ser alguna desigualdad analítica estándar sobre variables aleatorias a las que se aplica la propiedad de monotonicidad. Ilustramos con una derivación de la importante desigualdad de Jensen.
Ejemplo 11.2.7: La desigualdad de Jensen
Si\(X\) es una variable aleatoria real y\(g\) es una función convexa en un intervalo\(I\) que incluye el rango de\(X\), entonces
verificación
La función\(g\) es convexa en\(I\) iff para cada uno\(t_0 \in [a,b]\) hay un número\(\lambda (t_0)\) tal que
\(g(t) \ge g(t_0) + \lambda (t_0) (t - t_0)\)
Esto significa que hay una línea through (\(t_0, g(t_0)\)) tal que la gráfica de\(g\) yace sobre ella o por encima de ella. Si\(a \le X \le b\), entonces por monotonicidad\(E(a) = a \le E[X] \le E[b] = b\) (esta es la propiedad de valor medio (E11)). Podemos elegir\(t_0 = E[X] \in I\). Si designamos la constante\(\lambda (E[X])\) por\(c\), tenemos
\(g(X) \ge g(E[X]) + c(X - E[X])\)
Recordando que\(E[X]\) es una constante, tomamos expectativa de ambas partes, usando linealidad y monotonicidad, para conseguir
\(E[g(X)] \ge g(E[X]) + c(E[X] - E[X]) = g(E[X])\)
OBSERVACIÓN. Es fácil demostrar que la función\(\lambda (\cdot)\) es no decreciente. Este hecho se utiliza para establecer la desigualdad de Jensen para la expectativa condicional.
La regla del producto para expectativas de variables aleatorias independientes
Ejemplo 11.2.8: regla de producto para variables aleatorias simples
Considere un par independiente\(\{X, Y\}\) de variables aleatorias simples
\(X = \sum_{i = 1}^{n} t_i I_{A_i}\)\(Y = \sum_{j = 1}^{m} u_j I_{B_j}\)(ambos en forma canónica)
Sabemos que cada par\(\{A_i, B_j\}\) es independiente, así que eso\(P(A_i B_j) = P(A_i) P(B_j)\). Considera el producto\(XY\). De acuerdo con el patrón descrito después del Ejemplo 9 de “Expectativa Matemática: Variables Aleatorias Simples”.
\(XY = \sum_{i = 1}^{n} t_i I_{A_i} \sum_{j = 1}^{m} u_j I_{B_j} = \sum_{i = 1}^{n} \sum_{j = 1}^{m} t_i u_j I_{A_i B_j}\)
Esta última suma doble es una forma primitiva, por lo que
\(E[XY] = \sum_{i = 1}^{n} \sum_{j = 1}^{m} t_i u_j P(A_i B_j) = \sum_{i = 1}^{n} \sum_{j = 1}^{m} t_i u_j P(A_i) P(B_j) = (\sum_{i = 1}^{n} t_i P(A_i)) (\sum_{j = 1}^{m} u_j P(B_j)) = E[X]E[Y]\)
Por lo tanto, la regla del producto se mantiene para variables aleatorias simples independientes.
Ejemplo 11.2.9: aproximación de funciones simples para un par independiente
Supongamos que\(\{X, Y\}\) es un par independiente, con un par simple aproximado\(\{X_s, Y_s\}\). Como funciones de\(X\) y\(Y\), respectivamente, el par\(\{X_s, Y_s\}\) es independiente. Según Ejemplo, anterior, la regla del producto\(E[X_s Y_s] = E[X_s] E[Y_s]\) debe mantenerse.
Ejemplo 11.2.10. regla de producto para un par independiente
Para\(X \ge 0\),\(Y \ge 0\), existen secuencias no decrecientes\(\{X_n: 1 \le n\}\) y\(\{Y_n: 1 \le n\}\) de variables aleatorias simples que aumentan a\(X\) y\(Y\), respectivamente. La secuencia también\(\{X_n Y_n: 1 \le n\}\) es una secuencia no decreciente de variables aleatorias simples, aumentando a\(XY\). Por el teorema de convergencia monótona (MC)
\(E[X_n] \nearrow E[X]\),\(E[Y_n] \nearrow E[Y]\), y\(E[X_n Y_n] \nearrow E[XY]\)
Ya que\(E[X_n Y_n] = E[X_n] E[Y_n]\) para cada uno\(n\), concluimos\(E[XY] = E[X] E[Y]\)
En el caso general,
\(XY = (X^{+} - X^{-}) (Y^{+} - Y^{-}) = X^{+}Y^{+} - X^{+} Y^{-} - X^{-} Y^{+} + X^{-} Y^{-}\)
La aplicación de la regla del producto a cada par no negativo y el uso de linealidad da la regla del producto para el par\(\{X, Y\}\)
OBSERVACIÓN. Debe ser evidente que la regla del producto se puede extender a cualquier clase independiente finita.
Ejemplo 11.2.11: la distribución conjunta de tres variables aleatorias
La clase\(\{X, Y, Z\}\) es independiente, con las distribuciones marginales que se muestran a continuación. Let
\(W = g(X, Y, Z) = 3X^2 + 2XY - 3XYZ\). Determinar\(E[W]\).
X = 0:4; Y = 1:2:7; Z = 0:3:12; PX = 0.1*[1 3 2 3 1]; PY = 0.1*[2 2 3 3]; PZ = 0.1*[2 2 1 3 2];
icalc3 % Setup for joint dbn for {X,Y,Z} Enter row matrix of X-values X Enter row matrix of Y-values Y Enter row matrix of Z-values Z Enter X probabilities PX Enter Y probabilities PY Enter Z probabilities PZ Use array operations on matrices X, Y, Z, PX, PY, PZ, t, u, v, and P EX = X*PX' % E[X] EX = 2 EX2 = (X.^2)*PX' % E[X^2] EX2 = 5.4000 EY = Y*PY' % E[Y] EY = 4.4000 EZ = Z*PZ' % E[Z] EZ = 6.3000 G = 3*t.^2 + 2*t.*u - 3*t.*u.*v; % W = g(X,Y,Z) = 3X^2 + 2XY - 2XYZ
Ejemplo 11.2.12. una función con una definición compuesta: exponencial truncado
Supongamos\(X\) ~ exponencial (0, 3). Let
\(Z = \begin{cases} X^2 & \text{for } X \le 4 \\ 16 & \text{for } X > 4 \end{cases} = I_{[0, 4]} (X) X^2 + I_{(4, \infty]} (X) 16\)
Determinar\(E(Z)\).
Solución Analítica
\(E[g(X)] = \int g(t) f_X (t) \ dt = \int_{0}^{\infty} I_{[0, 4]} (t) t^2 0.3 e^{-0.3t}\ dt + 16 E[I_{(4, \infty]} (X)]\)
\(= \int_{0}^{4} t^2 0.3 e^{-0.3t}\ dt + 16 P(X > 4) \approx 7.4972\)(por Maple)
APROXIMACIÓN
Para obtener una aproximación simple, debemos aproximar lo exponencial por una variable aleatoria acotada. Ya que\(P(X > 50) = e^{-15} \approx 3 \cdot 10^{-7}\) podemos truncar la seguridad\(X\) al 50.
tappr Enter matrix [a b] of x-range endpoints [0 50] Enter number of x approximation points 1000 Enter density as a function of t 0.3*exp(-0.3*t) Use row matrices X and PX as in the simple case M = X <= 4 G = M.*X.^2 + 16*(1 - M); % g(X) EG = G*PX' % E[g(X)] EG = 7.4972 [Z,PZ] = csort(G,PX); % Distribution for Z = g(X) EZ = Z*PZ' % E[Z] from distribution EZ = 7.4972
Debido al gran número de puntos de aproximación, los resultados concuerdan bastante estrechamente con el valor teórico.
Ejemplo 11.2.13. almacenamiento para demanda aleatoria (ver ejercicio 4 de “Problemas en funciones de variables aleatorias”)
El gerente de una tienda departamental está planeando para la temporada navideña. Un determinado artículo cuesta\(c\) dólares por unidad y se vende por\(p\) dólares por unidad. Si la demanda excede el monto\(m\) solicitado, las unidades adicionales pueden pedirse especiales por\(s\) dólares por unidad\((s > c)\). Si la demanda es inferior a la cantidad pedida, las existencias restantes pueden ser devueltas (o de otra manera enajenadas) a\(r\) dólares por unidad (\(r < c\)). La demanda\(D\) para la temporada se considera una variable aleatoria con distribución de Poisson (\(\mu\)). Supongamos\(\mu = 50\)\(c = 30\),\(p = 50\),,\(s = 40\),\(r = 20\). ¿Qué pasa con el gerente\(m\) debe ordenar maximizar el beneficio esperado?
FORMULACIÓN DE PROBLEMAS
Supongamos que\(D\) es la demanda y\(X\) es la ganancia. Entonces
Para\(D \le m\),\(X = D(p - c) - (m - D) (c - r) = D(p - r) + m (r - c)\)
Para\(D > m\),\(X = m(p - c) + (D - m) (p - s) = D(p - s) + m(s - c)\)
Es conveniente escribir la expresión para\(X\) en términos de\(I_M\), dónde\(M = (-\infty, m]\). Así
\(X = I_M (D) [D (p - r) + m(r - c)] + [1 - I_M(D)] [D(p - s) + m (s - c)]\)
\(= D(p - s) + m(s - c) + I_M(D) [D(p - r) + m(r - c) - D(p - s) - m(s - c)]\)
\(= D(p - s) + m(s - c) + I_M(D) (s - r) (D - m)\)
Entonces\ (E [X] = (p - c) E [D] + m (s - c) + (s - r) E [I_M (D) D] - (s - r) m E [I_M (D)].
Solución Analítica
Para\(D\) ~ Poisson (\(\mu\)),\(E[D] = \mu\) y\(E[I_M(D)] = P(D \le m)\)
\(E[I_M(D) D] = e^{-\mu} \sum_{k = 1}^{m} k \dfrac{\mu^k}{k!} = \mu e^{-\mu} \sum_{k = 1}^{m} \dfrac{\mu^{k - 1}}{(k - 1)!} = \mu P(D \le m - 1)\)
Por lo tanto,
\(E[X] = (p - s) E[D] + m(s - c) + (s - r) E[I_M (D) D] - (s - r) m E[I_M(D)]\)
\(= (p - s)\mu + m(s - c) + (s - r) \mu P(D \le m - 1) - (s - r) m P(D \le m)\)
Debido a la naturaleza discreta del problema, no podemos resolver para lo óptimo\(m\) mediante el cálculo ordinario. Podemos resolver para varios\(m\) acerca\(m = \mu\) y determinar el óptimo. Lo hacemos con la ayuda de MATLAB y la función m cpoisson.
mu = 50; c = 30; p = 50; s = 40; r = 20; m = 45:55; EX = (p - s)*mu + m*(s - c) + (s - r)*mu*(1 - cpoisson(mu, m))... -(s - r)*m.*(1 - cpoisson(mu,m+1)); disp([m;EX]') 45.0000 930.8604 46.0000 935.5231 47.0000 939.1895 48.0000 941.7962 49.0000 943.2988 50.0000 943.6750 % Optimum m = 50 51.0000 942.9247 52.0000 941.0699 53.0000 938.1532 54.0000 934.2347 55.0000 929.3886
Una solución directa puede ser obtenida por MATLAB, usando aproximación finita para la distribución de Poisson.
APROXIMACIÓN
ptest = cpoisson(mu,100) %Check for suitable value of n ptest = 3.2001e-10 n = 100; t = 0:n; pD = ipoisson(mu,t); for i = 1:length(m) % Step by step calculation for various m M = t > m(i); G(i,:) = t*(p - r) - M.*(t - m(i))*(s - r) - m(i)*(c - r); end EG = G*pD'; % Value agree with theoretical to four decimals
Una ventaja de la segunda solución, basada en la simple aproximación a D, es que se\(m\) podría estudiar la distribución de ganancia para cada una, por ejemplo, las ganancias máximas y mínimas.
— □
Ejemplo 11.2.14. un par distribuido conjuntamente
Supongamos que el par\(\{X, Y\}\) tiene densidad de articulación\(f_{XY} (t, u) = 3u\) en la región triangular delimitada por\(u = 0\)\(u = 1 + t\),,\(u = 1 - t\) (ver Figura 11.2.1). Vamos\(Z = g(X, Y) = X^2 + 2XY\). Determinar\(E[Z]\).
Figura 11.2.1. La densidad para el Ejemplo 11.2.14.
Solución Analítica
\(E[Z] = \int \int (t^2 + 2tu) f_{XY} (t, u) \ dudt\)
\(= 3 \int_{-1}^{0} \int_{0}^{1 + t} (t^2 u + 2tu^2) \ dudt + 3 \int_{0}^{1} \int_{0}^{1 - t} (t^2 u + 2tu^2)\ dudt = 1/10\)
APROXIMACIÓN
tuappr Enter matrix [a b] of X-range endpoints [-1 1] Enter matrix [c d] of Y-range endpoints [0 1] Enter number of X approximation points 400 Enter number of Y approximation points 200 Enter expression for joint density 3*u.*(u<=min(1+t,1-t)) Use array operations on X, Y, PX, PY, t, u, and P G = t.^2 + 2*t.*u; % g(X,Y) = X^2 + 2XY EG = total(G.*P) % E[g(X,Y)] EG = 0.1006 % Theoretical value = 1/10 [Z, PZ] = csort(G,P); % Distribution for Z EZ = Z*PZ' % E[Z] from distribution EZ = 0.1006
Ejemplo 11.2.15. Afunción con una definición compuesta
El par\(\{X, Y\}\) tiene densidad de juntas\(f_{XY} (t, u) = 1/2\) en la región cuadrada delimitada a\(u = 1 + t, u = 1 - t, u = 3 - t\), y\(u = t - 1\) (ver Figura 11.2.2).
\(W = \begin{cases} X & \text{for max } \{X, Y\} \le 1 \\ 2Y & \text{for max } \{X, Y\} > 1 \end{cases} = I_Q (X, Y) X + I_{Q^c} (X,Y) 2Y\)
donde\(Q = \{(t, u): \text{max } \{t, u\} \le 1\} = \{(t, u): t \le 1, u \le 1\}\). Determinar\(E[W]\).
Figura 11.2.2. La densidad para el Ejemplo 11.2.15
Solución Analítica
La intersección de la región\(Q\) y el cuadrado es el conjunto para el cual\(0 \le t \le 1\) y\(1 - t \le u \le 1\). La referencia a la figura muestra tres regiones de integración.
\(E[W] = \dfrac{1}{2} \int_0^1 \int_{1 - t}^{1} t\ dudt + \dfrac{1}{2} \int_{0}^{1} \int_{1}^{1 + t} 2u\ dudt + \dfrac{1}{2} \int_{1}^{2} \int_{t - 1}^{3 - t} 2u \ dudt = 11/6 \approx 1.8333\)
APROXIMACIÓN
tuappr Enter matrix [a b] of X-range endpoints [0 2] Enter matrix [c d] of Y-range endpoints [0 2] Enter number of X approximation points 200 Enter number of Y approximation points 200 Enter expression for joint density ((u<=min(t+1,3-t))& ... (u>=max(1-t,t-1))/2 Use array operation on X, Y, PX, PY, t, u, and P M = max(t,u)<=1; G = t.*M + 2*u.*(1 - M); % Z = g(X,Y) EG = total(G.*P) % E[g(X,Y)] EG = 1.8340 % Theoretical 11/6 = 1.8333 [Z,PZ] = csort(G,P); % Distribution for Z EZ = dot(Z,PZ) % E[Z] from distribution EZ = 1.8340
Formularios especiales para la expectativa
Las diversas formas especiales relacionadas con la propiedad (E20a) suelen ser útiles. El resultado general, que no necesitamos, suele derivarse de un argumento que emplea una forma general de lo que se conoce como teorema de Fubini. La forma especial (E20b)
\(E[X] = \int_{-\infty}^{\infty} [u(t) - F_X (t)]\ dt\)
puede derivarse de (E20a) mediante el uso de integración por partes para integrales de Stieltjes. Sin embargo, utilizamos la relación entre la gráfica de la función de distribución y la gráfica de la función cuantil para mostrar la equivalencia de (E20b) y (E20f). Esta última propiedad es fácilmente establecida por argumentos elementales.
Ejemplo 11.2.16. La propiedad (e20f)
Si\(Q\) es la función quantile para la función de distribución\(F_X\), entonces
\(E[g(X)] = \int_{0}^{1} g[G(u)]\ du\)
VERIFICACIÓN
Si\(Y = Q(U)\), donde\(U\) ~ uniforme en (0, 1), entonces\(Y\) tiene la misma distribución que\(X\). Por lo tanto,
\(E[g(X)] = E[g(Q(U))] = \int g(Q(u)) f_U (u)\ du = \int_{0}^{1} g(Q(u))\ du\)
Ejemplo 11.2.17. Confiabilidad y expectativa
En confiabilidad, si\(X\) es la duración de vida (tiempo hasta el fallo) de un dispositivo, la función de confiabilidad es la probabilidad en cualquier momento de\(t\) que el dispositivo aún esté operativo. Así
\(R(t) = P(X > t) = 1 - F_X(t)\)
Según propiedad (E20b)
\(E[X] = \int_{0}^{\infty} R(t) \ dt\)
Ejemplo 11.2.18. Uso de la función quantile
Supongamos\(F_X (t) = t^a\)\(a > 0\),,\(0 \le t \le 1\). Entonces\(Q(u) = u^{1/a}\),\(0 \le u \le a\).
\(E[X] = \int_{0}^{1} u^{1/a} \ du = \dfrac{1}{1 + 1/a} = \dfrac{a}{a + 1}\)
El mismo resultado se podría obtener utilizando\(f_X(t) = F_{X}^{'} (t)\) y evaluando\(\int t f_X (t)\ dt\).
Ejemplo 11.2.19. Equivalencia de (e20b) y (e20f)
Para el caso especial\(g(X) = X\). La figura 3 (a) muestra\ int_ {0} ^ {1} Q (u)\ du\) es la diferencia en las áreas sombreadas
\(\int_{0}^{1} Q(u)\ du = \text{Area } A - \text{Area } B\)
La gráfica correspondiente de la función de distribución F se muestra en la Figura 11.2.3 (b). Debido a la construcción, las zonas de las regiones marcaron\(A\) y\(B\) son las mismas en las dos cifras. Como puede verse,
\(\text{Area } A = \int_{0}^{\infty} [1 - F(t)]\ dt\)y\(\text{Area } B = \int_{-\infty}^{0} F(t)\ dt\)
El uso de la función de paso de unidad\(u(t) = 1\) para\(t > 0\) y 0 para\(t < 0\) (definida arbitrariamente en\(t = 0\)) nos permite combinar las dos expresiones para obtener
\(\int_{0}^{1} Q(u)\ du = \text{Area } A - \text{Area } B = \int_{-\infty}^{\infty} [u(t) - F(t)]\ dt\)
Figura 11.2.3. Equivalencia de propiedades (E20b) y (E20f).
La propiedad (E20c) es un resultado directo de linealidad y (E20b), con las funciones de paso de unidad cancelando.
Ejemplo 11.2.20. Desigualdades útiles de propiedad (e20d)
Supongamos\(X \ge 0\). Entonces
\(\sum_{n = 0}^{\infty} P(X \ge n + 1) \le E[X] \le \sum_{n = 0}^{\infty} P(X \ge n) \le N \sum_{k = 0}^{\infty} P(X \ge kN)\), para todos\(N \ge 1\)
VERIFICACIÓN
Para\(X \ge 0\), por (E20b)
\(E[X] = \int_{0}^{\infty} [1 - F(t)]\ dt = \int_{0}^{\infty} P(X > t)\ dt\)
Dado que solo\(F\) puede tener un número contable de saltos en cualquier intervalo y\(P(X > t\) y\(P(X \ge t)\) diferir solo en los puntos de salto, podemos afirmar
\(\int_{a}^{b} P(X > t)\ dt = \int_{a}^{b} P(X \ge t)\ dt\)
Para cada entero no negativo\(n\), let\(E_n = [n, n + 1]\). Por la aditividad contable de la expectativa
\(E[X] = \sum_{n = 0}^{\infty} E[I_{E_n} X] = \sum_{n = 0}^{\infty} \int_{E_n} P(X \ge t) \ dt \)
Dado que\(P(X \ge t)\) es decreciente con\(t\) y cada uno\(E_n\) tiene longitud unitaria, tenemos por el teorema del valor medio
\(P(X \ge n + 1) \le E[I_{E_n} X] \le P(X \ge n)\)
La tercera desigualdad se deriva del hecho de que
\(\int_{kN}^{(k + 1)N} P(X \ge t) \ dt \le N \int_{E_{kN}} P(X \ge t) \ dt \le NP(X \ge kN)\)
OBSERVACIÓN. La propiedad (E20d) se utiliza principalmente con fines teóricos. El caso especial (E20e) se utiliza con mayor frecuencia.
Ejemplo 11.2.21. Propiedad (e20e)
Si no\(X\) es negativo, valor entero, entonces
\(E[X] = \sum_{k = 1}^{\infty} P(X \ge k) = \sum_{k = 0}^{\infty} P(X > k)\)
VERIFICACIÓN
El resultado sigue como caso especial de (E20d). Para variables aleatorias con valor entero,
\(P(X \ge t) = P(X \ge n)\)encendido\(E_n\) y\(P(X \ge t) = P(X > n) = P(X \ge n + 1)\) encendido\(E_{n + 1}\)
Se puede construir una derivación elemental de (E20e) de la siguiente manera.
Ejemplo 11.2.22. (e20e) para variables aleatorias de valor entero
Por definición
\(E[X] = \sum_{k = 1}^{\infty} kP(X = k) = \text{lim}_n \sum_{k = 1}^{n} kP(X =k)\)
Ahora por cada finito\(n\),
\(\sum_{k = 1}^{n} kP(X = k) = \sum_{k = 1}^{n} \sum_{j = 1}^{k} P(X = k) = \sum_{j = 1}^{n} \sum_{k = j}^{n} P(X = k) = \sum_{j = 1}^{n} P(X \ge j)\)
Tomando límites como\(n \to \infty\) arroja el resultado deseado.
Ejemplo 11.2.23. la distribución geométrica
Supongamos\(X\) ~ geométrico (\(p\)). Entonces\(P(X \ge k) = q^k\). El uso de (E20e) da
\(E[X] = \sum_{k = 1}^{\infty} q^k = q \sum_{k = 0}^{\infty} q^k = \dfrac{q}{1 - q} = q/p\)