Saltar al contenido principal

# 14.2: La distribución exponencial

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$
$$\newcommand{\P}{\mathbb{P}}$$$$\newcommand{\E}{\mathbb{E}}$$$$\newcommand{\R}{\mathbb{R}}$$$$\newcommand{\N}{\mathbb{N}}$$$$\newcommand{\bs}{\boldsymbol}$$$$\newcommand{\var}{\text{var}}$$$$\newcommand{\sd}{\text{sd}}$$$$\newcommand{\skw}{\text{skew}}$$$$\newcommand{\kur}{\text{kurt}}$$

## Teoría Básica

Recordemos que en el modelo básico del proceso de Poisson, tenemos puntos que ocurren aleatoriamente en el tiempo. La secuencia de tiempos entre llegadas es$$\bs{X} = (X_1, X_2, \ldots)$$. El fuerte supuesto de renovación establece que en cada hora de llegada y en cada hora fija, el proceso debe reiniciarse probabilísticamente, independientemente del pasado. La primera parte de esa suposición implica que$$\bs{X}$$ es una secuencia de variables independientes, distribuidas idénticamente. La segunda parte del supuesto implica que si la primera llegada no ha ocurrido por tiempo$$s$$, entonces el tiempo restante hasta que ocurra la llegada debe tener la misma distribución que la propia primera hora de llegada. Esto se conoce como la propiedad sin memoria y se puede afirmar en términos de una variable aleatoria general de la siguiente manera:

Supongamos que$$X$$ toma valores en$$[0, \infty)$$. Entonces$$X$$ tiene la propiedad sin memoria si la distribución condicional de$$X - s$$ dado$$X \gt s$$ es la misma que la distribución de$$X$$ para cada uno$$s \in [0, \infty)$$. Equivalentemente,$\P(X \gt t + s \mid X \gt s) = \P(X \gt t), \quad s, \; t \in [0, \infty)$

La propiedad sin memoria determina la distribución de$$X$$ hasta un parámetro positivo, como veremos ahora.

### Funciones de distribución

Supongamos que$$X$$ toma valores$$[0, \infty)$$ y satisface la propiedad sin memoria.

$$X$$tiene una distribución continua y existe$$r \in (0, \infty)$$ tal que la función$$F$$ de distribución de$$X$$ es$F(t) = 1 - e^{-r\,t}, \quad t \in [0, \infty)$

Prueba

Dejar$$F^c = 1 - F$$ denotar el denotar la función de distribución de cola derecha de$$X$$ (también conocida como la función de fiabilidad), de modo que$$F^c(t) = \P(X \gt t)$$ para$$t \ge 0$$. A partir de la definición de probabilidad condicional, la propiedad sin memoria es equivalente a la ley de los exponentes:$F^c(t + s) = F^c(s) F^c(t), \quad s, \; t \in [0, \infty)$ Let$$a = F^c(1)$$. Implícita en la propiedad sin memoria es$$\P(X \gt t) \gt 0$$ para$$t \in [0, \infty)$$, entonces$$a \gt 0$$. Si$$n \in \N_+$$ entonces$F^c(n) = F^c\left(\sum_{i=1}^n 1\right) = \prod_{i=1}^n F^c(1) = \left[F^c(1)\right]^n = a^n$ Siguiente, si$$n \in \N_+$$ entonces es$a = F^c(1) = F^c\left(\frac{n}{n}\right) = F^c\left(\sum_{i=1}^n \frac{1}{n}\right) = \prod_{i=1}^n F^c\left(\frac{1}{n}\right) = \left[F^c\left(\frac{1}{n}\right)\right]^n$ así$$F^c\left(\frac{1}{n}\right) = a^{1/n}$$. Ahora supongamos que$$m \in \N$$ y$$n \in \N_+$$. Entonces$F^c\left(\frac{m}{n}\right) = F^c\left(\sum_{i=1}^m \frac{1}{n}\right) = \prod_{i=1}^m F^c\left(\frac{1}{n}\right) = \left[F^c\left(\frac{1}{n}\right)\right]^m = a^{m/n}$ así tenemos$$F^c(q) = a^q$$ para racional$$q \in [0, \infty)$$. Porque$$t \in [0, \infty)$$, existe una secuencia de números racionales$$(q_1, q_2, \ldots)$$ con$$q_n \downarrow t$$ as$$n \uparrow \infty$$. Tenemos$$F^c(q_n) = a^{q_n}$$ para cada uno$$n \in \N_+$$. Pero$$F^c$$ es continuo desde la derecha, por lo que tomar límites da$$a^t = F^c(t)$$. Ahora vamos$$r = -\ln(a)$$. Entonces$$F^c(t) = e^{-r\,t}$$ para$$t \in [0, \infty)$$.

La función de densidad de probabilidad de$$X$$ es$f(t) = r \, e^{-r\,t}, \quad t \in [0, \infty)$

1. $$f$$está disminuyendo en$$[0, \infty)$$.
2. $$f$$es cóncavo hacia arriba en$$[0, \infty)$$.
3. $$f(t) \to 0$$como$$t \to \infty$$.
Prueba

Esto sigue desde$$f = F^\prime$$. Las propiedades en las partes (a) — (c) son simples.

Se dice que una variable aleatoria con la función de distribución por encima o equivalentemente la función de densidad de probabilidad en el último teorema tiene la distribución exponencial con parámetro de tasa$$r$$. El recíproco$$\frac{1}{r}$$ se conoce como el parámetro de escala (como se justificará a continuación). Tenga en cuenta que el modo de la distribución es 0, independientemente del parámetro$$r$$, no muy útil como medida de centro.

En el experimento gamma, se establece de$$n = 1$$ manera que la variable aleatoria simulada tenga una distribución exponencial. Varíe$$r$$ con la barra de desplazamiento y observe cómo cambia la forma de la función de densidad de probabilidad. Para valores seleccionados de$$r$$, ejecute el experimento 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

La función cuantil de$$X$$ es$F^{-1}(p) = \frac{-\ln(1 - p)}{r}, \quad p \in [0, 1)$

1. La mediana de$$X$$ es$$\frac{1}{r} \ln(2) \approx 0.6931 \frac{1}{r}$$
2. El primer cuartil de$$X$$ es$$\frac{1}{r}[\ln(4) - \ln(3)] \approx 0.2877 \frac{1}{r}$$
3. El tercer cuartil$$X$$ es$$\frac{1}{r} \ln(4) \approx 1.3863 \frac{1}{r}$$
4. El rango intercuartílico es$$\frac{1}{r} \ln(3) \approx 1.0986 \frac{1}{r}$$
Prueba

La fórmula para$$F^{-1}$$ sigue fácilmente de resolver$$p = F^{-1}(t)$$ para$$t$$ en términos de$$p$$.

En la calculadora de distribución especial, seleccione la distribución exponencial. Varíe el parámetro de escala (que es$$1/r$$) y anote la forma de la función de distribución/cuantil. Para los valores seleccionados del parámetro, compute algunos valores de la función de distribución y la función cuantil.

Volviendo al modelo de Poisson, tenemos nuestra primera definición formal:

Un proceso de puntos aleatorios en el tiempo es un proceso de Poisson con tasa$$r \in (0, \infty)$$ si y solo los tiempos interarrviales son independientes, y cada uno tiene la distribución exponencial con tasa$$r$$.

### Tasa de falla constante

Supongamos ahora que$$X$$ tiene una distribución continua$$[0, \infty)$$ encendida y se interpreta como la vida útil de un dispositivo. Si$$F$$ denota la función de distribución de$$X$$, entonces$$F^c = 1 - F$$ es la función de confiabilidad de$$X$$. Si$$f$$ denota la función de densidad de probabilidad de$$X$$ entonces la función de tasa de fallas$$h$$ viene dada por$h(t) = \frac{f(t)}{F^c(t)}, \quad t \in [0, \infty)$ Si$$X$$ tiene la distribución exponencial con tasa$$r \gt 0$$, entonces a partir de los resultados anteriores, la función de confiabilidad es$$F^c(t) = e^{-r t}$$ y la densidad de probabilidad función es$$f(t) = r e^{-r t}$$, por lo que trivialmente$$X$$ tiene tasa constante$$r$$. Lo contrario también es cierto.

Si$$X$$ tiene tasa de falla constante$$r \gt 0$$ entonces$$X$$ tiene la distribución exponencial con parámetro$$r$$.

Prueba

Recordemos que en general, la distribución de una variable de vida útil$$X$$ está determinada por la función de tasa de fallas$$h$$. Específicamente, si$$F^c = 1 - F$$ denota la función de confiabilidad, entonces$$(F^c)^\prime = -f$$, así$$-h = (F^c)^\prime / F^c$$. Integrar y luego tomar exponenciales da$F^c(t) = \exp\left(-\int_0^t h(s) \, ds\right), \quad t \in [0, \infty)$ En particular, si es$$h(t) = r$$ para$$t \in [0, \infty)$$, entonces$$F^c(t) = e^{-r t}$$ para$$t \in [0, \infty)$$.

Las propiedades sin memoria y tasa de fallas constantes son las caracterizaciones más famosas de la distribución exponencial, pero de ninguna manera son las únicas. En efecto, se han escrito libros enteros sobre caracterizaciones de esta distribución.

### Momentos

Supongamos nuevamente que$$X$$ tiene la distribución exponencial con parámetro rate$$r \gt 0$$. Naturalmente, queremos conocer la media, varianza, y varios otros momentos de$$X$$.

Si$$n \in \N$$ entonces$$\E\left(X^n\right) = n! \big/ r^n$$.

Prueba

Por el cambio de teorema de variables por valor esperado,$\E\left(X^n\right) = \int_0^\infty t^n r e^{-r\,t} \, dt$ Integrando por partes da$$\E\left(X^n\right) = \frac{n}{r} \E\left(X^{n-1}\right)$$ para$$n \in \N+$$. Por supuesto$$\E\left(X^0\right) = 1$$ así que el resultado ahora sigue por inducción.

De manera más general,$$\E\left(X^a\right) = \Gamma(a + 1) \big/ r^a$$ para cada$$a \in [0, \infty)$$, donde$$\Gamma$$ está la función gamma.

En particular.

1. $$\E(X) = \frac{1}{r}$$
2. $$\var(X) = \frac{1}{r^2}$$
3. $$\skw(X) = 2$$
4. $$\kur(X) = 9$$

En el contexto del proceso de Poisson, el parámetro$$r$$ se conoce como la tasa del proceso. En promedio, hay unidades de$$1 / r$$ tiempo entre llegadas, por lo que las llegadas llegan a una tasa promedio de$$r$$ por unidad de tiempo. El proceso de Poisson está completamente determinado por la secuencia de tiempos entre llegadas, y por lo tanto está completamente determinado por la tasa$$r$$.

Obsérvese también que la media y la desviación estándar son iguales para una distribución exponencial, y que la mediana es siempre menor que la media. Recordemos también que la asimetría y la curtosis son medidas estandarizadas, por lo que no dependen del parámetro$$r$$ (que es el recíproco del parámetro de escala).

La función de generación de momento de$$X$$ es$M(s) = \E\left(e^{s X}\right) = \frac{r}{r - s}, \quad s \in (-\infty, r)$

Prueba

Por el cambio de variables teorema$M(s) = \int_0^\infty e^{s t} r e^{-r t} \, dt = \int_0^\infty r e^{(s - r)t} \, dt$ La integral evalúa a$$\frac{r}{r - s}$$ si$$s \lt r$$ y a$$\infty$$ si$$s \ge r$$.

En el experimento gamma, se establece de$$n = 1$$ manera que la variable aleatoria simulada tenga una distribución exponencial. Varíe$$r$$ con la barra de desplazamiento y observe cómo cambia la barra de desviación$$\pm$$ estándar media. Para diversos valores de$$r$$, ejecute el experimento 1000 veces y compare la media empírica y la desviación estándar con la media de distribución y la desviación estándar, respectivamente.

La distribución exponencial tiene una serie de propiedades matemáticas interesantes e importantes. Primero, y no en vano, es un miembro de la familia exponencial general.

Supongamos que$$X$$ tiene la distribución exponencial con parámetro rate$$r \in (0, \infty)$$. Después$$X$$ tiene una distribución exponencial general de un parámetro, con parámetro natural$$-r$$ y estadística natural$$X$$.

Prueba

Esto se desprende directamente de la forma del PDF,$$f(x) = r e^{-r x}$$ para$$x \in [0, \infty)$$, y la definición de la familia exponencial general.

Como se sugirió anteriormente, la distribución exponencial es una familia de escalas, y$$1/r$$ es el parámetro scale.

Supongamos que$$X$$ tiene la distribución exponencial con parámetro de tasa$$r \gt 0$$ y eso$$c \gt 0$$. Después$$c X$$ tiene la distribución exponencial con parámetro de tasa$$r / c$$.

Prueba

Para$$t \ge 0$$,$$\P(c\,X \gt t) = \P(X \gt t / c) = e^{-r (t / c)} = e^{-(r / c) t}$$.

Recordemos que multiplicar una variable aleatoria por una constante positiva frecuentemente corresponde a un cambio de unidades (minutos en horas para una variable de vida útil, por ejemplo). Así, la distribución exponencial se conserva bajo tales cambios de unidades. En el contexto del proceso de Poisson, este tiene que ser así, ya que la propiedad sin memoria, que llevó a la distribución exponencial en primer lugar, claramente no depende de las unidades de tiempo.

De hecho, la distribución exponencial con el parámetro de tasa 1 se conoce como la distribución exponencial estándar. Del resultado anterior, si$$Z$$ tiene la distribución exponencial estándar y$$r \gt 0$$, entonces$$X = \frac{1}{r} Z$$ tiene la distribución exponencial con parámetro rate$$r$$. Por el contrario, si$$X$$ tiene la distribución exponencial con tasa$$r \gt 0$$ entonces$$Z = r X$$ tiene la distribución exponencial estándar.

De manera similar, el proceso de Poisson con parámetro de velocidad 1 se conoce como el proceso estándar de Poisson. Si$$Z_i$$ es el$$i$$ th tiempo entre llegadas para el proceso estándar de Poisson para$$i \in \N_+$$, entonces dejar$$X_i = \frac{1}{r} Z_i$$ para$$i \in \N_+$$ da los tiempos entre llegadas para el proceso de Poisson con tasa$$r$$. Por el contrario, si$$X_i$$ es el$$i$$ th tiempo inter-llegada del proceso de Poisson con tasa$$r \gt 0$$ para$$i \in \N_+$$, entonces$$Z_i = r X_i$$ for$$i \in \N_+$$ da los tiempos inter-llegada para el proceso estándar de Poisson.

### Relación con la distribución geométrica

En muchos aspectos, la distribución geométrica es una versión discreta de la distribución exponencial. En particular, recordemos que la distribución geométrica on$$\N_+$$ es la única distribución$$\N_+$$ con las propiedades sin memoria y tasa constante. Por lo que no es de extrañar que las dos distribuciones también estén conectadas a través de diversas transformaciones y límites.

Supongamos que$$X$$ tiene la distribución exponencial con parámetro rate$$r \gt 0$$. Entonces

1. $$\lfloor X \rfloor$$tiene las distribuciones geométricas encendidas$$\N$$ con parámetro de éxito$$1 - e^{-r}$$.
2. $$\lceil X \rceil$$tiene las distribuciones geométricas encendidas$$\N_+$$ con parámetro de éxito$$1 - e^{-r}$$.
Prueba
1. Para$$n \in \N$$ tener en cuenta que$$\P(\lfloor X \rfloor = n) = \P(n \le X \lt n + 1) = F(n + 1) - F(n)$$. Sustituir en la función de distribución y simplificar da$$\P(\lfloor X \rfloor = n) = (e^{-r})^n (1 - e^{-r})$$.
2. Para$$n \in \N_+$$ tener en cuenta que$$\P(\lceil X \rceil = n) = \P(n - 1 \lt X \le n) = F(n) - F(n - 1)$$. Sustituir en la función de distribución y simplificar da$$\P(\lceil X \rceil = n) = (e^{-r})^{n - 1} (1 - e^{-r})$$.

La siguiente conexión entre las dos distribuciones es interesante por sí misma, pero también será muy importante en la sección sobre la división de procesos de Poisson. En palabras, una suma aleatoria, distribuida geométricamente de variables exponenciales independientes e idénticamente distribuidas es exponencial en sí misma.

Supongamos que$$\bs{X} = (X_1, X_2, \ldots)$$ es una secuencia de variables independientes, cada una con la distribución exponencial con tasa$$r$$. Supongamos que$$U$$ tiene la distribución geométrica$$\N_+$$ encendida con parámetro de éxito$$p$$ y es independiente de$$\bs{X}$$. Después$$Y = \sum_{i=1}^U X_i$$ tiene la distribución exponencial con tasa$$r p$$.

Prueba

Recordemos que la función generadora de momento de$$Y$$$$M$$ es$$P \circ M$$ donde está la función generadora de momento común de los términos en la suma, y$$P$$ es la función generadora de probabilidad del número de términos$$U$$. Pero$$M(s) = r \big/ (r - s)$$ para$$s \lt r$$ y$$P(s) = p s \big/ \left[1 - (1 - p)s\right]$$ para$$s \lt 1 \big/ (1 - p)$$. Así,$(P \circ M)(s) = \frac{p r \big/ (r - s)}{1 - (1 - p) r \big/ (r - s)} = \frac{pr}{pr - s}, \quad s \lt pr$ se deduce que$$Y$$ tiene la distribución exponencial con parámetro$$p r$$

El siguiente resultado explora la conexión entre el proceso de ensayos de Bernoulli y el proceso de Poisson que se inició en la Introducción.

Para$$n \in \N_+$$, supongamos que$$U_n$$ tiene la distribución geométrica$$\N_+$$ encendida con parámetro de éxito$$p_n$$, donde$$n p_n \to r \gt 0$$ como$$n \to \infty$$. Entonces la distribución de$$U_n / n$$ converge a la distribución exponencial con parámetro$$r$$ as$$n \to \infty$$.

Prueba

Vamos a$$F_n$$ denotar el CDF de$$U_n / n$$. Entonces para$$x \in [0, \infty)$$$F_n(x) = \P\left(\frac{U_n}{n} \le x\right) = \P(U_n \le n x) = \P\left(U_n \le \lfloor n x \rfloor\right) = 1 - \left(1 - p_n\right)^{\lfloor n x \rfloor}$ Pero por un famoso límite del cálculo,$$\left(1 - p_n\right)^n = \left(1 - \frac{n p_n}{n}\right)^n \to e^{-r}$$ como$$n \to \infty$$, y por lo tanto$$\left(1 - p_n\right)^{n x} \to e^{-r x}$$ como$$n \to \infty$$. Pero por definición,$$\lfloor n x \rfloor \le n x \lt \lfloor n x \rfloor + 1$$ o equivalentemente,$$n x - 1 \lt \lfloor n x \rfloor \le n x$$ por lo que se deduce que$$\left(1 - p_n \right)^{\lfloor n x \rfloor} \to e^{- r x}$$ como$$n \to \infty$$. De ahí$$F_n(x) \to 1 - e^{-r x}$$ as$$n \to \infty$$, que es el CDF de la distribución exponencial.

Para entender más claramente este resultado, supongamos que tenemos una secuencia de procesos de ensayos de Bernoulli. En proceso$$n$$, ejecutamos los ensayos a una tasa de$$n$$ por unidad de tiempo, con probabilidad de éxito$$p_n$$. Así, el momento real del primer éxito en proceso$$n$$ es$$U_n / n$$. El último resultado muestra que si es$$n p_n \to r \gt 0$$ como$$n \to \infty$$, entonces la secuencia de procesos de ensayos de Bernoulli converge al proceso de Poisson con el parámetro de tasa$$r$$ como$$n \to \infty$$. Volveremos a este punto en secciones posteriores.

### Ordenamientos y estadísticas de pedidos

Supongamos que$$X$$ y$$Y$$ tienen distribuciones exponenciales con parámetros$$a$$ y$$b$$, respectivamente, y son independientes. Entonces$\P(X \lt Y) = \frac{a}{a + b}$

Prueba

Este resultado se puede probar de manera sencilla integrando el PDF conjunto de$$(X, Y)$$ over$$\{(x, y): 0 \lt x \lt y \lt \infty\}$$. Una prueba más elegante utiliza el acondicionamiento y la función de generación de momento anterior:$\P(Y \gt X) = \E\left[\P(Y \gt X \mid X)\right] = \E\left(e^{-b X}\right) = \frac{a}{a + b}$

El siguiente teorema da una importante versión aleatoria de la propiedad sin memoria.

Supongamos que$$X$$ y$$Y$$ son variables independientes que toman valores$$[0, \infty)$$ y que$$Y$$ tienen la distribución exponencial con el parámetro rate$$r \gt 0$$. Entonces$$X$$ y$$Y - X$$ se dan condicionalmente independientes$$X \lt Y$$, y la distribución condicional de también$$Y - X$$ es exponencial con parámetro$$r$$.

Prueba

Supongamos que$$A \subseteq [0, \infty)$$ (medible por supuesto) y$$t \ge 0$$. Entonces$\P(X \in A, Y - X \ge t \mid X \lt Y) = \frac{\P(X \in A, Y - X \ge t)}{\P(X \lt Y)}$ Pero condicionando$$X$$ podemos escribir el numerador como$\P(X \in A, Y - X \gt t) = \E\left[\P(X \in A, Y - X \gt t \mid X)\right] = \E\left[\P(Y \gt X + t \mid X), X \in A\right] = \E\left[e^{-r(t + X)}, X \in A\right] = e^{-rt} \E\left(e^{-r\,X}, X \in A\right)$ Similarmente, condicionar en$$X$$ da$$\P(X \lt Y) = \E\left(e^{-r\,X}\right)$$. Así$\P(X \in A, Y - X \gt t \mid X \lt Y) = e^{-r\,t} \frac{\E\left(e^{-r\,X}, X \in A\right)}{\E\left(e^{-rX}\right)}$ Dejando$$\P(Y \gt t) = e^{-r\,t}$$ que así lo$$A = [0, \infty)$$ hemos dado$$X \lt Y$$, la variable$$Y - X$$ tiene la distribución exponencial con parámetro$$r$$. Dejando$$t = 0$$, vemos que dada$$X \lt Y$$, variable$$X$$ tiene la distribución$A \mapsto \frac{\E\left(e^{-r\,X}, X \in A\right)}{\E\left(e^{-r\,X}\right)}$ Finalmente, debido a la factorización,$$X$$ y$$Y - X$$ son condicionalmente independientes dada$$X \lt Y$$.

Para nuestra siguiente discusión, supongamos que$$\bs{X} = (X_1, X_2, \ldots, X_n)$$ es una secuencia de variables aleatorias independientes, y que$$X_i$$ tiene la distribución exponencial con parámetro de tasa$$r_i \gt 0$$ para cada una$$i \in \{1, 2, \ldots, n\}$$.

Vamos$$U = \min\{X_1, X_2, \ldots, X_n\}$$. Después$$U$$ tiene la distribución exponencial con parámetro$$\sum_{i=1}^n r_i$$.

Prueba

Recordemos que en general,$$\{U \gt t\} = \{X_1 \gt t, X_2 \gt t, \ldots, X_n \gt t\}$$ y por lo tanto por independencia,$$F^c(t) = F^c_1(t) F^c_2(t) \cdots F^c_n(t)$$ para$$t \ge 0$$, donde$$F^c$$ está la función de confiabilidad de$$U$$ y$$F^c_i$$ es la función de confiabilidad de$$X_i$$ para cada uno$$i$$. Cuando$$X_i$$ tiene la distribución exponencial con tasa$$r_i$$ para cada uno$$i$$, tenemos$$F^c(t) = \exp\left[-\left(\sum_{i=1}^n r_i\right) t\right]$$ para$$t \ge 0$$.

En el contexto de la confiabilidad, si un sistema en serie tiene componentes independientes, cada uno con una vida útil distribuida exponencialmente, entonces la vida útil del sistema también se distribuye exponencialmente, y la tasa de fallas del sistema es la suma de las tasas de fallas de los componentes. En el contexto de procesos aleatorios, si tenemos proceso de Poisson$$n$$ independiente, entonces el nuevo proceso obtenido al combinar los puntos aleatorios en el tiempo también es Poisson, y la tasa del nuevo proceso es la suma de las tasas de los procesos individuales (volveremos a este punto último).

Vamos$$V = \max\{X_1, X_2, \ldots, X_n\}$$. Entonces$$V$$ tiene función de distribución$$F$$ dada por$F(t) = \prod_{i=1}^n \left(1 - e^{-r_i t}\right), \quad t \in [0, \infty)$

Prueba

Recordemos que en general,$$\{V \le t\} = \{X_1 \le t, X_2 \le t, \ldots, X_n \le t\}$$ y por lo tanto por independencia,$$F(t) = F_1(t) F_2(t) \cdots F_n(t)$$ para$$t \ge 0$$, donde$$F$$ está la función de distribución de$$V$$ y$$F_i$$ es la función de distribución de$$X_i$$ para cada uno$$i$$.

Considera el caso especial donde$$r_i = r \in (0, \infty)$$ para cada uno$$i \in \N_+$$. En términos estadísticos,$$\bs{X}$$ es una muestra aleatoria de tamaño$$n$$ a partir de la distribución exponencial con parámetro$$r$$. Del último par de teoremas, el mínimo$$U$$ tiene la distribución exponencial con tasa$$n r$$ mientras que el máximo$$V$$ tiene función de distribución$$F(t) = \left(1 - e^{-r t}\right)^n$$ para$$t \in [0, \infty)$$. Recordemos que$$U$$ y$$V$$ son las estadísticas de primer y último orden, respectivamente.

En el experimento estadístico de orden, seleccione la distribución exponencial.

1. Set$$k = 1$$ (esto da el mínimo$$U$$). Varíe$$n$$ con la barra de desplazamiento y anote la forma de la función de densidad de probabilidad. Para valores seleccionados de$$n$$, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.
2. Varíe$$n$$ con la barra de desplazamiento, establezca$$k = n$$ cada vez (esto da el máximo$$V$$) y anote la forma de la función de densidad de probabilidad. Para valores seleccionados de$$n$$, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

Curiosamente, la distribución del máximo de variables exponenciales independientes, distribuidas idénticamente, es también la distribución de la suma de variables exponenciales independientes, con tasas que crecen linealmente con el índice.

Supongamos que$$r_i = i r$$ para cada$$i \in \{1, 2, \ldots, n\}$$ donde$$r \in (0, \infty)$$. Entonces$$Y = \sum_{i=1}^n X_i$$ tiene función de distribución$$F$$ dada por$F(t) = (1 - e^{-r t})^n, \quad t \in [0, \infty)$

Prueba

Por suposición,$$X_k$$ tiene PDF$$f_k$$ dado por$$f_k(t) = k r e^{-k r t}$$ para$$t \in [0, \infty)$$. Queremos mostrar que$$Y_n = \sum_{i=1}^n X_i$$ tiene PDF$$g_n$$ dado por$g_n(t) = n r e^{-r t} (1 - e^{-r t})^{n-1}, \quad t \in [0, \infty)$ El PDF de una suma de variables independientes es la convolución de los PDFs individuales, por lo que queremos demostrar que$f_1 * f_2 * \cdots * f_n = g_n, \quad n \in \N_+$ La prueba es por inducción en$$n$$. Trivialmente$$f_1 = g_1$$, entonces supongamos que el resultado se mantiene para un dado$$n \in \N_+$$. Entonces\ comienza {alinear*} g_n * f_ {n+1} (t) & =\ int_0^t g_n (s) f_ {n+1} (t - s) ds =\ int_0^t n r e^ {-r s} (1 - e^ {-r s}) ^ {n-1} (n + 1) r e^ {-r (n + 1) (t - s)} ds\\ & = r (n + 1) e^ {-r (n + 1) t}\ int_0^t n (1 - e^ {-rs}) ^ {n-1} r e^ {r n s} ds\ end {align*} Ahora sustituya$$u = e^{r s}$$ así que$$du = r e^{r s} ds$$ o equivalentemente$$r ds = du / u$$. Después de algún álgebra,\ begin {align*} g_n * f_ {n+1} (t) & = r (n + 1) e^ {-r (n + 1) t}\ int_1^ {e^ {rt}} n (u - 1) ^ {n-1} du\\ & = r (n + 1) e^ {-r (n + 1) t} (e^ {rt} - 1) ^n = r (n + 1) e^ {-rt} (1 - e^ {-rt}) ^n = g_ {n+1} (t)\ end {align*}

Este resultado tiene una aplicación al proceso de Yule, llamado así por George Yule. El proceso Yule, que tiene algunos paralelismos con el proceso de Poisson, se estudia en el capítulo sobre los procesos de Markov. Ahora podemos generalizar la probabilidad de orden arriba:

Para$$i \in \{1, 2, \ldots, n\}$$,$\P\left(X_i \lt X_j \text{ for all } j \ne i\right) = \frac{r_i}{\sum_{j=1}^n r_j}$

Prueba

Primero, tenga en cuenta que$$X_i \lt X_j$$ para todos$$i \ne j$$ si y solo si$$X_i \lt \min\{X_j: j \ne i\}$$. Pero el mínimo a la derecha es independiente$$X_i$$ y, por resultado sobre mínimos anteriores, tiene la distribución exponencial con parámetro$$\sum_{j \ne i} r_j$$. El resultado ahora sigue de la probabilidad de orden para dos eventos anteriores.

Supongamos que para cada uno$$i$$,$$X_i$$ es el tiempo hasta que ocurre un evento de interés (la llegada de un cliente, la falla de un dispositivo, etc.) y que estos tiempos son independientes y distribuidos exponencialmente. Entonces la primera vez$$U$$ que ocurre uno de los eventos también se distribuye exponencialmente, y la probabilidad de que el primer evento que ocurra sea evento$$i$$ es proporcional a la tasa$$r_i$$.

La probabilidad de un orden total es$\P(X_1 \lt X_2 \lt \cdots \lt X_n) = \prod_{i=1}^n \frac{r_i}{\sum_{j=i}^n r_j}$

Prueba

$$A = \left\{X_1 \lt X_j \text{ for all } j \in \{2, 3, \ldots, n\}\right\}$$Dejar. entonces$\P(X_1 \lt X_2 \lt \cdots \lt X_n) = \P(A, X_2 \lt X_3 \lt \cdots \lt X_n) = \P(A) \P(X_2 \lt X_3 \lt \cdots \lt X_n \mid A)$ Pero$$\P(A) = \frac{r_1}{\sum_{i=1}^n r_i}$$ a partir del resultado anterior, y$$\{X_2 \lt X_3 \lt \cdots \lt X_n\}$$ es independiente de$$A$$. Así tenemos$\P(X_1 \lt X_2 \lt \cdots \lt X_n) = \frac{r_1}{\sum_{i=1}^n r_i} \P(X_2 \lt X_3 \lt \cdots \lt X_n)$ así que el resultado sigue por inducción.

Por supuesto, las probabilidades de otros ordenamientos se pueden computar permutando los parámetros apropiadamente en la fórmula de la derecha.

El resultado sobre mínimos y el resultado de probabilidad de orden anterior son muy importantes en la teoría de las cadenas de Markov de tiempo continuo. Pero para esa aplicación y otras, es conveniente extender la distribución exponencial a dos casos degenerados: masa puntual a 0 y masa puntual en$$\infty$$ (entonces la primera es la distribución de una variable aleatoria que toma el valor 0 con probabilidad 1, y el segundo la distribución de una variable aleatoria que toma el valor$$\infty$$ con probabilidad 1). En términos del parámetro de tasa$$r$$ y la función de distribución$$F$$, la masa puntual a 0 corresponde a$$r = \infty$$ así que$$F(t) = 1$$ para$$0 \lt t \lt \infty$$. Masa puntual en$$\infty$$ corresponde a$$r = 0$$ para que$$F(t) = 0$$ para$$0 \lt t \lt \infty$$. La propiedad sin memoria, expresada en términos de la función de confiabilidad$$F^c$$, todavía se mantiene para estos casos degenerados en$$(0, \infty)$$: También$F^c(s) F^c(t) = F^c(s + t), \quad s, \, t \in (0, \infty)$ necesitamos extender algunos de los resultados anteriores para un número finito de variables a un número contablemente infinito de variables. Entonces para lo que resta de esta discusión, supongamos que$$\{X_i: i \in I\}$$ es una colección contable de variables aleatorias independientes, y que$$X_i$$ tiene la distribución exponencial con parámetro$$r_i \in (0, \infty)$$ para cada una$$i \in I$$.

Vamos$$U = \inf\{X_i: i \in I\}$$. Luego$$U$$ tiene la distribución exponencial con parámetro$$\sum_{i \in I} r_i$$

Prueba

La prueba es casi la misma que la anterior para una colección finita. Tenga en cuenta que$$\{U \ge t\} = \{X_i \ge t \text{ for all } i \in I\}$$ y así$\P(U \ge t) = \prod_{i \in I} \P(X_i \ge t) = \prod_{i \in I} e^{-r_i t} = \exp\left[-\left(\sum_{i \in I} r_i\right)t \right]$$$\sum_{i \in I} r_i \lt \infty$$ If entonces$$U$$ tiene una distribución exponencial adecuada con la suma como parámetro. Si$$\sum_{i \in I} r_i = \infty$$ entonces$$P(U \ge t) = 0$$ para todos$$t \in (0, \infty)$$ así$$P(U = 0) = 1$$.

Para$$i \in \N_+$$,$\P\left(X_i \lt X_j \text{ for all } j \in I - \{i\}\right) = \frac{r_i}{\sum_{j \in I} r_j}$

Prueba

Primero tenga en cuenta que dado que las variables tienen distribuciones continuas y$$I$$ es contable,$\P\left(X_i \lt X_j \text{ for all } j \in I - \{i\} \right) = \P\left(X_i \le X_j \text{ for all } j \in I - \{i\}\right)$ Siguiente nota que$$X_i \le X_j$$ para todos$$j \in I - \{i\}$$ si y solo si$$X_i \le U_i$$ donde$$U_i = \inf\left\{X_j: j \in I - \{i\}\right\}$$. Pero$$U_i$$ es independiente$$X_i$$ y, por resultado anterior, tiene la distribución exponencial con parámetro$$s_i = \sum_{j \in I - \{i\}} r_j$$. Si$$s_i = \infty$$, entonces$$U_i$$ es 0 con probabilidad 1, y así$$P(X_i \le U_i) = 0 = r_i / s_i$$. Si$$s_i \lt \infty$$, entonces$$X_i$$ y$$U_i$$ tienen distribuciones exponenciales adecuadas, y así el resultado ahora sigue de probabilidad de orden para dos variables anteriores.

Necesitamos un último resultado en esta configuración: una condición que asegure que la suma de una colección infinita de variables exponenciales sea finita con probabilidad uno.

Dejar$$Y = \sum_{i \in I} X_i$$ y$$\mu = \sum_{i \in I} 1 / r_i$$. Entonces$$\mu = \E(Y)$$ y$$\P(Y \lt \infty) = 1$$ si y sólo si$$\mu \lt \infty$$.

Prueba

El resultado es trivial si$$I$$ es finito, así que supongamos que$$I = \N_+$$. Recordemos eso$$\E(X_i) = 1 / r_i$$ y de ahí$$\mu = \E(Y)$$. Trivialmente si$$\mu \lt \infty$$ entonces$$\P(Y \lt \infty) = 1$$. Por el contrario, supongamos que$$\P(Y \lt \infty) = 1$$. Entonces$$\P(e^{-Y} \gt 0) = 1$$ y por lo tanto$$\E(e^{-Y}) \gt 0$$. Utilizando la independencia y la función de generación de momento anterior,$\E(e^{-Y}) = \E\left(\prod_{i=1}^\infty e^{-X_i}\right) = \prod_{i=1}^\infty \E(e^{-X_i}) = \prod_{i=1}^\infty \frac{r_i}{r_i + 1} \gt 0$ Siguiente recordar que si$$p_i \in (0, 1)$$ para$$i \in \N_+$$ entonces$\prod_{i=1}^\infty p_i \gt 0 \text{ if and only if } \sum_{i=1}^\infty (1 - p_i) \lt \infty$ De ahí se deduce que$\sum_{i=1}^\infty \left(1 - \frac{r_i}{r_i + 1}\right) = \sum_{i=1}^\infty \frac{1}{r_i + 1} \lt \infty$ en particular, esto significa que$$1/(r_i + 1) \to 0$$ como$$i \to \infty$$ y por lo tanto$$r_i \to \infty$$ como$$i \to \infty$$. Pero luego$\frac{1/(r_i + 1)}{1/r_i} = \frac{r_i}{r_i + 1} \to 1 \text{ as } i \to \infty$ Por la prueba de comparación para series infinitas, se deduce que$\mu = \sum_{i=1}^\infty \frac{1}{r_i} \lt \infty$

## Ejercicios Computacionales

Solución

Claramente$$f(t) = r e^{-r t} \gt 0$$ para$$t \in [0, \infty)$$. Integración simple que$\int_0^\infty r e^{-r t} \, dt = 1$

Supongamos que la duración de una llamada telefónica (en minutos) se distribuye exponencialmente con el parámetro de velocidad$$r = 0.2$$. Encuentra cada uno de los siguientes:

1. La probabilidad de que la llamada dure entre 2 y 7 minutos.
2. La mediana, el primer y tercer cuartiles, y el rango intercuartílico de la longitud de la llamada.
Contestar

Dejar$$X$$ denotar la duración de la llamada.

1. $$\P(2 \lt X \lt 7) = 0.4237$$
2. $$q_1 = 1.4384$$,$$q_2 = 3.4657$$,$$q_3 = 6.9315$$,$$q_3 - q_1 = 5.4931$$

Supongamos que la vida útil de un determinado componente electrónico (en horas) se distribuye exponencialmente con el parámetro de tasa$$r = 0.001$$. Encuentra cada uno de los siguientes:

1. La probabilidad de que el componente dure al menos 2000 horas.
2. La mediana, el primer y tercer cuartil y el rango intercuartil de la vida.
Contestar

Dejar$$T$$ denotar la vida útil

1. $$\P(T \ge 2000) = 0.1353$$
2. $$q_1 = 287.682$$,$$q_2 = 693.147$$,$$q_3 = 1386.294$$,$$q_3 - q_1 = 1098.612$$

Supongamos que el tiempo entre las solicitudes a un servidor web (en segundos) se distribuye exponencialmente con el parámetro de velocidad$$r = 2$$. Encuentra cada uno de los siguientes:

1. La media y desviación estándar del tiempo entre solicitudes.
2. La probabilidad de que el tiempo entre solicitudes sea menor que 0.5 segundos.
3. La mediana, el primer y tercer cuartiles, y el rango intercuartílico del tiempo entre solicitudes.
Contestar

Dejar$$T$$ denotar el tiempo entre solicitudes.

1. $$\E(T) = 0.5$$,$$\sd(T) = 0.5$$
2. $$\P(T \lt 0.5) = 0.6321$$
3. $$q_1 = 0.1438$$,$$q_2 = 0.3466$$,$$q_3 = 0.6931$$,$$q_3 - q_1 = 0.5493$$

Supongamos que la vida útil$$X$$ de un fusible (en unidades de 100 horas) se distribuye exponencialmente con$$\P(X \gt 10) = 0.8$$. Encuentra cada uno de los siguientes:

1. El parámetro de tasa.
2. La media y desviación estándar.
3. La mediana, el primer y tercer cuartil y el rango intercuartil de la vida.
Contestar

Vamos a$$X$$ denotar la vida.

1. $$r = 0.02231$$
2. $$\E(X) = 44.814$$,$$\sd(X) = 44.814$$
3. $$q_1 = 12.8922$$,$$q_2 = 31.0628$$,$$q_3 = 62.1257$$,$$q_3 - q_1 = 49.2334$$

La posición$$X$$ del primer defecto en una cinta digital (en cm) tiene la distribución exponencial con media 100. Encuentra cada uno de los siguientes:

1. El parámetro de tasa.
2. La probabilidad que$$X \lt 200$$ dio$$X \gt 150$$.
3. La desviación estándar.
4. La mediana, el primer y tercer cuartiles y el rango intercuartil de la posición.
Contestar

Dejar$$X$$ denotar la posición del primer defecto.

1. $$r = 0.01$$
2. $$\P(X \lt 200 \mid X \gt 150) = 0.3935$$
3. $$\sd(X) = 100$$
4. $$q_1 = 28.7682$$,$$q_2 = 69.3147$$,$$q_3 = 138.6294$$,$$q_3 - q_1 = 109.6812$$

Supongamos que$$X, \, Y, \, Z$$ son variables aleatorias independientes, distribuidas exponencialmente con parámetros respectivos$$a, \, b, \, c \in (0, \infty)$$. Encuentra la probabilidad de cada uno de los 6 ordenamientos de las variables.

Prueba
1. $$\P(X \lt Y \lt Z) = \frac{a}{a + b + c} \frac{b}{b + c}$$
2. $$\P(X \lt Z \lt Y) = \frac{a}{a + b + c} \frac{c}{b + c}$$
3. $$\P(Y \lt X \lt Z) = \frac{b}{a + b + c} \frac{a}{a + c}$$
4. $$\P(Y \lt Z \lt X) = \frac{b}{a + b + c} \frac{c}{a + c}$$
5. $$\P(Z \lt X \lt Y) = \frac{c}{a + b + c} \frac{a}{a + b}$$
6. $$\P(Z \lt Y \lt X) = \frac{c}{a + b + c} \frac{b}{a + b}$$

This page titled 14.2: La distribución exponencial is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform.