Saltar al contenido principal

# 4.9: Valor esperado como Integral

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$
$$\newcommand{\var}{\text{var}}$$$$\newcommand{\sd}{\text{sd}}$$$$\newcommand{\cov}{\text{cov}}$$$$\newcommand{\cor}{\text{cor}}$$$$\renewcommand{\P}{\mathbb{P}}$$$$\newcommand{\E}{\mathbb{E}}$$$$\newcommand{\R}{\mathbb{R}}$$$$\newcommand{\N}{\mathbb{N}}$$$$\newcommand{\bs}{\boldsymbol}$$

## Definiciones

Como es habitual, nuestro punto de partida es un experimento aleatorio modelado por un espacio de probabilidad$$(\Omega, \mathscr{F}, \P)$$. Así$$\Omega$$ es el conjunto de resultados,$$\mathscr{F}$$ es el$$\sigma$$ -álgebra de eventos, y$$\P$$ es la medida de probabilidad en el espacio muestral$$(\Omega, \mathscr F)$$.

Recordemos que una variable aleatoria$$X$$ para el experimento es simplemente una función medible desde otro$$(\Omega, \mathscr{F})$$ espacio medible$$(S, \mathscr{S})$$. Cuando$$S \subseteq \R^n$$, asumimos que$$S$$ es Lebesgue medible, y tomamos$$\mathscr{S}$$ a la$$\sigma$$ -álgebra de Lebesgue subconjuntos medibles de$$S$$. Como se señaló anteriormente, aquí está la definición teórica de medidas:

Si$$X$$ es una variable aleatoria de valor real en el espacio de probabilidad, el valor esperado de$$X$$ se define como la integral de$$X$$ con respecto a$$\P$$, asumiendo que la integral existe:$\E(X) = \int_\Omega X \, d\P$

Revisemos cómo se define la integral en etapas, pero ahora usando la notación de teoría de probabilidad.

Dejar$$S$$ denotar el conjunto de soporte de$$X$$, por lo que$$S$$ es un subconjunto medible de$$\R$$.

1. Si$$S$$ es finito, entonces$$\E(X) = \sum_{x \in S} x \, \P(X = x)$$.
2. Si$$S \subseteq [0, \infty)$$, entonces$$\E(X) = \sup\left\{\E(Y): Y \text{ has finite range and } 0 \le Y \le X\right\}$$
3. Para general$$S \subseteq \R$$,$$\E(X) = \E\left(X^+\right) - \E\left(X^-\right)$$ siempre y cuando el lado derecho no sea de la forma$$\infty - \infty$$, y donde$$X^+$$ y$$X^-$$ denote las partes positiva y negativa de$$X$$.
4. Si$$A \in \mathscr{F}$$, entonces$$\E(X; A) = \E\left(X \bs{1}_A \right)$$, suponiendo que existe el valor esperado a la derecha.

Así, al igual que con las integrales en general, un valor esperado puede existir como un número en$$\R$$ (en cuyo caso$$X$$ es integrable), puede existir como$$\infty$$ o$$-\infty$$, o puede fallar en existir. En referencia a la parte (a), una variable aleatoria con un conjunto finito de valores en$$\R$$ es una función simple en la terminología de integración general. En referencia a la parte (b), tenga en cuenta que el valor esperado de una variable aleatoria no negativa siempre existe en$$[0, \infty]$$. En referencia a la parte (c),$$\E(X)$$ existe si y sólo si cualquiera$$\E\left(X^+\right) \lt \infty$$ o$$\E\left(X^-\right) \lt \infty$$.

Nuestro siguiente objetivo es reafirmar los teoremas básicos y las propiedades de las integrales, pero en la notación de probabilidad. A menos que se indique lo contrario, se supone que todas las variables aleatorias son de valor real

Supongamos que$$X$$ y$$Y$$ son variables aleatorias cuyos valores esperados existen, y eso$$c \in \R$$. Entonces

1. $$\E(X + Y) = \E(X) + \E(Y)$$siempre y cuando el lado derecho no sea de la forma$$\infty - \infty$$.
2. $$\E(c X) = c \E(X)$$

Así, la parte (a) se mantiene si al menos uno de los valores esperados a la derecha es finito, o si ambos lo son$$\infty$$, o si ambos lo son$$-\infty$$. Lo que se descarta son los dos casos donde un valor esperado es$$\infty$$ y el otro es$$-\infty$$, y esto es lo que se entiende por la forma indeterminada$$\infty - \infty$$.

Nuestro siguiente conjunto de propiedades se ocupa de la igualdad y el orden. Primero, el valor esperado de una variable aleatoria sobre un conjunto nulo es 0.

Si$$X$$ es una variable aleatoria y$$A$$ es un evento con$$\P(A) = 0$$. Entonces$$\E(X; A) = 0$$.

Las variables aleatorias que son equivalentes tienen el mismo valor esperado

Si$$X$$ es una variable aleatoria cuyo valor esperado existe, y$$Y$$ es una variable aleatoria con$$\P(X = Y) = 1$$, entonces$$\E(X) = \E(Y)$$.

Supongamos que$$X$$ es una variable aleatoria y$$\P(X \ge 0) = 1$$. Entonces

1. $$\E(X) \ge 0$$
2. $$\E(X) = 0$$si y sólo si$$\P(X = 0) = 1$$.

Entonces, si$$X$$ es una variable aleatoria no negativa entonces$$\E(X) \gt 0$$ si y solo si$$\P(X \gt 0) \gt 0$$. El siguiente resultado es el incremento de la propiedad de valor esperado, quizás la propiedad más importante después de la linealidad.

Supongamos que$$X, Y$$ son variables aleatorias cuyos valores esperados existen, y eso$$\P(X \le Y) = 1$$. Entonces

1. $$\E(X) \le \E(Y)$$
2. Excepto en el caso de que ambos valores esperados sean$$\infty$$ o ambos$$-\infty$$,$$\E(X) = \E(Y)$$ si y solo si$$\P(X = Y) = 1$$.

Entonces si$$X \le Y$$ con probabilidad 1 entonces, excepto en los dos casos mencionados,$$\E(X) \lt \E(Y)$$ si y sólo si$$\P(X \lt Y) \gt 0$$. El siguiente resultado es la desigualdad de valor absoluto.

Supongamos que$$X$$ es una variable aleatoria cuyo valor esperado existe. Entonces

1. $$\left| \E(X) \right| \le \E \left(\left| X \right| \right)$$
2. Si$$\E(X)$$ es finito, entonces la igualdad se mantiene en (a) si y sólo si$$\P(X \ge 0) = 1$$ o$$\P(X \le 0) = 1$$.

## Cambio de Variables y Funciones de Densidad

### Teorema del Cambio de Variables

Supongamos ahora que$$X$$ es una variable aleatoria general en el espacio de probabilidad$$(\Omega, \mathscr F, \P)$$, tomando valores en un espacio medible$$(S, \mathscr{S})$$. Recordemos que la distribución de probabilidad de$$X$$ es la medida$$P$$ de probabilidad$$(S, \mathscr{S})$$ dada por$$P(A) = \P(X \in A)$$ for$$A \in \mathscr{S}$$. Este es un caso especial de una nueva medida positiva inducida por una medida positiva dada y una función medible. Si$$g: S \to \R$$ es medible, entonces$$g(X)$$ es una variable aleatoria de valor real. El siguiente resultado muestra cómo computar el valor esperado de$$g(X)$$ como una integral con respecto a la distribución de$$X$$, y se conoce como el teorema del cambio de variables.

Si$$g: S \to \R$$ es medible entonces, suponiendo que exista el valor esperado,$\E\left[g(X)\right] = \int_S g(x) \, dP(x)$

Entonces, usando la definición original y el teorema del cambio de variables, y dando las variables explícitamente para énfasis, tenemos$\E\left[g(X)\right] = \int_\Omega g\left[X(\omega)\right] \, d\P(\omega) = \int_S g(x) \, dP(x)$

Supongamos que ahora$$\mu$$ es una medida positiva sobre$$(S, \mathscr{S})$$, y que la distribución de$$X$$ es absolutamente continua con respecto a$$\mu$$. Recordemos que esto significa que$$\mu(A) = 0$$ implica$$P(A) = \P(X \in A) = 0$$ para$$A \in \mathscr{S}$$. Por el teorema de Radón-Nikodym, llamado así por Johann Radon y Otto Nikodym,$$X$$ tiene una función de densidad de probabilidad$$f$$ con respecto a$$\mu$$. Es decir,$P(A) = \P(X \in A) = \int_A f \, d\mu, \quad A \in \mathscr{S}$ en este caso, podemos escribir el valor esperado de$$g(X)$$ como integral con respecto a la función de densidad de probabilidad.

Si$$g: S \to \R$$ es medible entonces, suponiendo que exista el valor esperado,$\E\left[g(X)\right] = \int_S g f \, d\mu$

Nuevamente, dando explícitamente énfasis a las variables, tenemos la siguiente cadena de integrales:$\E\left[g(X)\right] = \int_\Omega g\left[X(\omega)\right] \, d\P(\omega) = \int_S g(x) \, dP(x) = \int_S g(x) f(x) \, d\mu(x)$

Hay dos casos especiales de importancia crítica.

### Distribuciones Discretas

Supongamos primero que$$(S, \mathscr S, \#)$$ es un espacio de medida discreto, por lo que$$S$$ es contable,$$\mathscr{S} = \mathscr{P}(S)$$ es la colección de todos los subconjuntos de$$S$$, y$$\#$$ está contando la medida en$$(S, \mathscr S)$$. Por lo tanto,$$X$$ tiene una distribución discreta en$$S$$, y esta distribución es siempre absolutamente continua con respecto a$$\#$$. Específicamente,$$\#(A) = 0$$ si y sólo si$$A = \emptyset$$ y por supuesto$$\P(X \in \emptyset) = 0$$. La función$$f$$ de densidad de probabilidad de$$X$$ con respecto a$$\#$$, como sabemos, es simplemente$$f(x) = \P(X = x)$$ para$$x \in S$$. Además, las integrales con respecto a$$\#$$ son sumas, por lo que$\E\left[g(X)\right] = \sum_{x \in S} g(x) f(x)$ suponiendo que existe el valor esperado. La existencia en este caso significa que o bien la suma de los términos positivos es finita o la suma de los términos negativos es finita, de manera que la suma tiene sentido (y en particular no depende del orden en que se agreguen los términos). Especializándonos más, si$$X$$ en sí es de valor real y$$g = 1$$ tenemos$\E(X) = \sum_{x \in S} x f(x)$ cual fue nuestra definición original de valor esperado en el caso discreto.

### Distribuciones continuas

Para el segundo caso especial, supongamos que$$(S, \mathscr S, \lambda_n)$$ es un espacio de medida euclidiana, por lo que$$S$$ es un subconjunto medible de Lebesgue de$$\R^n$$ para algunos$$n \in \N_+$$,$$\mathscr S$$ es el$$\sigma$$ -álgebra de los subconjuntos medibles de Lebesgue de$$S$$, y$$\lambda_n$$ es la medida de Lebesgue en $$(S, \mathscr S)$$. La distribución de$$X$$ es absolutamente continua con respecto a$$\lambda_n$$ si$$\lambda_n(A) = 0$$ implica$$\P(X \in A) = 0$$ para$$A \in \mathscr{S}$$. Si este es el caso, entonces una función$$f$$ de densidad de probabilidad de$$X$$ tiene su significado habitual. Así,$\E\left[g(X)\right] = \int_S g(x) f(x) \, d\lambda_n(x)$ suponiendo que existe el valor esperado. Cuando$$g$$ es una función típicamente agradable, esta integral se reduce a una integral Riemann ordinaria$$n$$ -dimensional de cálculo. Especializándonos más, si en sí$$X$$ es de valor real y$$g = 1$$ luego$\E(X) = \int_S x f(x) \, dx$ cual fue nuestra definición original de valor esperado en el caso continuo.

En esta subsección, revisamos propiedades que permiten el intercambio de valor esperado y otras operaciones: límites de secuencias, sumas infinitas e integrales. Suponemos nuevamente que las variables aleatorias son de valor real a menos que se especifique lo contrario.

### Límites

Nuestro primer conjunto de resultados de convergencia se ocupa del intercambio de valores esperados y límites. Comenzamos con la versión de valor esperado del lema de Fatou, nombrado en honor a Pierre Fatou. Su utilidad deriva del hecho de que no se colocan suposiciones sobre las variables aleatorias, salvo que son no negativas.

Supongamos que$$X_n$$ es una variable aleatoria no negativa para$$n \in \N_+$$. Entonces$\E\left( \liminf_{n \to \infty} X_n \right) \le \liminf_{n \to \infty} \E(X_n)$

Nuestro siguiente conjunto de resultados da condiciones para el intercambio de valores esperados y límites.

Supongamos que$$X_n$$ es una variable aleatoria para cada uno$$n \in \N_+$$. luego$\E\left(\lim_{n \to \infty} X_n\right) = \lim_{n \to \infty} \E\left(X_n\right)$ en cada uno de los siguientes casos:

1. $$X_n$$no es negativo para cada uno$$n \in \N_+$$ y$$X_n$$ está aumentando en$$n$$.
2. $$\E(X_n)$$existe para cada uno$$n \in \N_+$$,$$\E(X_1) \gt -\infty$$, y$$X_n$$ está aumentando en$$n$$.
3. $$\E(X_n)$$existe para cada uno$$n \in \N_+$$,$$\E(X_1) \lt \infty$$, y$$X_n$$ está disminuyendo en$$n$$.
4. $$\lim_{n \to \infty} X_n$$existe, y$$\left|X_n\right| \le Y$$ para$$n \in \N$$ donde$$Y$$ es una variable aleatoria no negativa con$$\E(Y) \lt \infty$$.
5. $$\lim_{n \to \infty} X_n$$existe, y$$\left|X_n\right| \le c$$ para$$n \in \N$$ donde$$c$$ es una constante positiva.

Declaraciones sobre las variables aleatorias en el teorema anterior (no negativas, crecientes, existencia de límite, etc.) solo necesitan sostenerse con probabilidad 1. La parte (a) es el teorema de convergencia monótona, uno de los resultados de convergencia más importantes y en cierto sentido, esencial para la definición de la integral en primer lugar. Las partes (b) y (c) son ligeras generalizaciones del teorema de convergencia monótona. En las partes (a), (b) y (c), nótese que$$\lim_{n \to \infty} X_n$$ existe (con probabilidad 1), aunque el límite puede estar$$\infty$$ en las partes (a) y (b) y$$-\infty$$ en la parte (c) (con probabilidad positiva). La parte (d) es el teorema de convergencia dominada, otro de los resultados de convergencia más importantes. A veces también se le conoce como el teorema de convergencia dominado por Lebesgue en honor a Henri Lebesgue. La parte (e) es un corolario del teorema de convergencia dominada, y se conoce como el teorema de convergencia acotada.

### Serie Infinita

Supongamos que$$X_n$$ es una variable aleatoria para$$n \in \N_+$$. Después$\E\left( \sum_{n=1}^\infty X_n\right) = \sum_{n=1}^\infty \E\left(X_n\right)$ en cada uno de los siguientes casos:

1. $$X_n$$no es negativo para cada uno$$n \in \N_+$$.
2. $$\E\left(\sum_{n=1}^\infty \left| X_n \right|\right) \lt \infty$$

La parte (a) es una consecuencia del teorema de convergencia monótona, y la parte (b) es una consecuencia del teorema de convergencia dominada. En (b), tenga en cuenta que$$\sum_{n=1}^\infty \left| X_n \right| \lt \infty$$ y por lo tanto$$\sum_{n=1}^\infty X_n$$ es absolutamente convergente con la probabilidad 1. Nuestro siguiente resultado es la aditividad del valor esperado sobre una colección contablemente infinita de eventos disjuntos.

Supongamos que$$X$$ es una variable aleatoria cuyo valor esperado existe, y que$$\{A_n: n \in \N_+\}$$ es una colección de eventos disjuntos. Vamos$$A = \bigcup_{n=1}^\infty A_n$$. Entonces$\E(X; A) = \sum_{n=1}^\infty \E(X; A_n)$

Por supuesto, el teorema anterior se aplica en particular si no$$X$$ es negativo.

### Integrales

Supongamos que$$(T, \mathscr{T}, \mu)$$ es un espacio de medida$$\sigma$$ -finito, y que$$X_t$$ es una variable aleatoria de valor real para cada uno$$t \in T$$. Así podemos pensar en$$\left\{X_t: t \in T\right\}$$ un proceso estocástico indexado por$$T$$. Suponemos que$$(\omega, t) \mapsto X_t(\omega)$$ es medible, como una función desde el$$(\Omega \times T, \mathscr{F} \otimes \mathscr{T})$$ espacio del producto hasta$$\R$$. Nuestro siguiente resultado implica el intercambio de valor esperado e integral, y es una consecuencia del teorema de Fubini, llamado así por Guido Fubini.

Bajo los supuestos anteriores,$\E\left[\int_T X_t \, d\mu(t)\right] = \int_T \E\left(X_t\right) \, d\mu(t)$ en cada uno de los siguientes casos:

1. $$X_t$$no es negativo para cada uno$$t \in T$$.
2. $$\int_T \E\left(\left|X_t\right|\right) \, d\mu(t) \lt \infty$$

El teorema de Fubini en realidad establece que las dos integrales iteradas anteriores son iguales a la integral conjunta$\int_{\Omega \times T} X_t(\omega) \, d(\P \otimes \mu)(\omega, t)$ donde, por supuesto,$$\P \otimes \mu$$ es la medida del producto en$$(\Omega \times T, \mathscr{F} \otimes \mathscr{T})$$. Sin embargo, nuestro interés suele ser evaluar la integral iterada arriba a la izquierda en términos de la integral iterada a la derecha. La parte (a) es la versión de valor esperado del teorema de Tonelli, llamada así por Leonida Tonelli.

## Ejemplos y ejercicios

Es posible que hayas trabajado algunos de los ejercicios computacionales antes, pero trata de verlos bajo una nueva luz, en términos de la teoría general de la integración.

### La distribución de Cauchy

Recordemos que la distribución de Cauchy, llamada así por Augustin Cauchy, es una distribución continua con función de densidad de probabilidad$$f$$ dada por$f(x) = \frac{1}{\pi \left(1 + x^2\right)}, \quad x \in \R$ La distribución de Cauchy se estudia en mayor generalidad en el capítulo sobre Distribuciones Especiales.

Supongamos que$$X$$ tiene la distribución de Cauchy.

1. Demostrar que$$\E(X)$$ no existe.
2. Encuentra$$\E\left(X^2\right)$$
Contestar
1. $$\E\left(X^+\right) = \E\left(X^-\right) = \infty$$
2. $$\infty$$

Abre el Experimento de Cauchy y mantén los parámetros predeterminados. Ejecutar el experimento 1000 veces y anotar el comportamiento de la media de la muestra.

### La distribución de Pareto

Recordemos que la distribución de Pareto, llamada así por Vilfredo Pareto, es una distribución continua con función de densidad de probabilidad$$f$$ dada por$f(x) = \frac{a}{x ^{a+1}}, \quad x \in [1, \infty)$ donde$$a \gt 0$$ está el parámetro shape. La distribución de Pareto se estudia con más generalidad en el capítulo sobre Distribuciones Especiales.

Supongamos que$$X$$ tiene la distribución de Pareto con parámetro shape$$a$$. Encontrar$$\E(X)$$ son los siguientes casos:

1. $$0 \lt a \le 1$$
2. $$a \gt 1$$
Contestar
1. $$\infty$$
2. $$\frac{a}{a - 1}$$

Abra el simulador de distribución especial y seleccione la distribución de Pareto. Varíe el parámetro shape y anote la forma de la función de densidad de probabilidad y la ubicación de la media. Para diversos valores del parámetro, ejecute el experimento 1000 veces y compare la media de la muestra con la media de distribución.

Supongamos que$$X$$ tiene la distribución de Pareto con parámetro shape$$a$$. Encuentra$$E\left(1 / X^n \right)$$ para$$n \in \N_+$$.

Contestar

$$\frac{a}{a + n}$$

### Resultados especiales para variables no negativas

Para una variable no negativa, los momentos se pueden obtener a partir de integrales de la función de distribución de cola derecha.

Si$$X$$ es una variable aleatoria no negativa entonces$\E\left(X^n\right) = \int_0^\infty n x^{n-1} \P(X \gt x) \, dx$

Prueba

Por el teorema de Fubini podemos intercambiar un valor esperado y una integral cuando el integrando no es negativo. De ahí$\int_0^\infty n x^{n-1} \P(X \gt x) \, dx = \int_0^\infty n x^{n-1} \E\left[\bs{1}(X \gt x)\right] \, dx = \E \left(\int_0^\infty n x^{n-1} \bs{1}(X \gt x) \, dx \right) = \E\left( \int_0^X n x^{n-1} \, dx \right) = \E\left(X^n\right)$

Cuando$$n = 1$$ tenemos$$\E(X) = \int_0^\infty \P(X \gt x) \, dx$$. Vimos este resultado antes en la sección sobre propiedades adicionales de valor esperado, pero ahora podemos entender la prueba en términos del teorema de Fubini.

Para una variable aleatoria que toma valores enteros no negativos, los momentos se pueden calcular a partir de sumas que involucran la función de distribución de cola derecha.

Supongamos que$$X$$ tiene una distribución discreta, tomando valores adentro$$\N$$. Entonces$\E\left(X^n\right) = \sum_{k=1}^\infty \left[k^n - (k - 1)^n\right] \P(X \ge k)$

Prueba

Por el teorema anterior, podemos intercambiar valor esperado y series infinitas cuando los términos no son negativos. De ahí$\sum_{k=1}^\infty \left[k^n - (k - 1)^n\right] \P(X \ge k) = \sum_{k=1}^\infty \left[k^n - (k - 1)^n\right] \E\left[\bs{1}(X \ge k)\right] = \E\left(\sum_{k=1}^\infty \left[k^n - (k - 1)^n\right] \bs{1}(X \ge k) \right) = \E\left(\sum_{k=1}^X \left[k^n - (k - 1)^n\right] \right) = \E\left(X^n\right)$

Cuando$$n = 1$$ tenemos$$\E(X) = \sum_{k=0}^\infty \P(X \ge k)$$. Vimos este resultado antes en la sección sobre propiedades adicionales de valor esperado, pero ahora podemos entender la prueba en términos del intercambio de suma y valor esperado.

This page titled 4.9: Valor esperado como Integral is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform.