Saltar al contenido principal

# 14.3: La distribución Gamma

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$
$$\newcommand{\P}{\mathbb{P}}$$$$\newcommand{\E}{\mathbb{E}}$$$$\newcommand{\R}{\mathbb{R}}$$$$\newcommand{\N}{\mathbb{N}}$$$$\newcommand{\bs}{\boldsymbol}$$$$\newcommand{\var}{\text{var}}$$$$\newcommand{\sd}{\text{sd}}$$$$\newcommand{\skw}{\text{skew}}$$$$\newcommand{\kur}{\text{kurt}}$$

## Teoría Básica

Ahora sabemos que la secuencia de tiempos inter-llegada$$\bs{X} = (X_1, X_2, \ldots)$$ en el proceso de Poisson es una secuencia de variables aleatorias independientes, teniendo cada una la distribución exponencial con parámetro de tasa$$r$$, para algunos$$r \gt 0$$. Ninguna otra distribución da la fuerte suposición de renovación que queremos: la propiedad que el proceso se reinicia probabilísticamente, independientemente del pasado, en cada hora de llegada y en cada hora fija.

El$$n$$ tiempo de llegada es simplemente la suma de los primeros tiempos$$n$$ entre llegadas:$T_n = \sum_{i=0}^n X_i, \quad n \in \N$ Así, la secuencia de tiempos de llegada$$\bs{T} = (T_0, T_1, \ldots)$$ es el proceso de suma parcial asociado con la secuencia de tiempos entre llegadas$$\bs{X} = (X_1, X_2, \ldots)$$.

### Funciones de distribución

Recordemos que la función de densidad de probabilidad común de los tiempos entre$f(t) = r e^{-r t}, \quad 0 \le t \lt \infty$ llegadas es Nuestro primer objetivo es describir la distribución de la llegada$$n$$ th$$T_n$$.

For$$n \in \N_+$$,$$T_n$$ tiene una distribución continua con función de densidad de probabilidad$$f_n$$ dada por$f_n(t) = r^n \frac{t^{n-1}}{(n - 1)!} e^{-r t}, \quad 0 \le t \lt \infty$

1. $$f_n$$aumenta y luego disminuye, con el modo en$$(n - 1) / r$$.
2. $$f_1$$es cóncavo hacia arriba. $$f_2$$es cóncava hacia abajo y luego hacia arriba, con punto de inflexión en$$t = 2 / r$$. Porque$$n \ge 2$$,$$f_n$$ es cóncava hacia arriba, luego hacia abajo, luego hacia arriba nuevamente con puntos de inflexión en$$t = \left[(n - 1) \pm \sqrt{n - 1}\right] \big/ r$$.
Prueba

Dado que$$T_n$$ es la suma de variables$$n$$ independientes, cada una con PDF$$f$$, la PDF de$$T_n$$ es el poder de convolución$$f$$ de orden$$n$$. Es decir,$$f_n = f^{*n}$$. Un simple argumento de inducción muestra que$$f_n$$ tiene la forma dada anteriormente. Por ejemplo,$f_2(t) = \int_0^t f(s) f(t - s) \, ds = \int_0^t r e^{-r s} r e^{-r(t-s)} \, ds = \int_0^t r^2 e^{-r t} \, ds = r^2 t \, e^{-r t}, \quad 0 \le t \lt \infty$ las Partes (a) y (b) siguen del cálculo estándar.

La distribución con esta función de densidad de probabilidad se conoce como distribución gamma con parámetro de forma$$n$$ y parámetro de tasa$$r$$. Es lso conocida como la distribución Erlang, llamada así por el matemático danés Agner Erlang. Nuevamente,$$1 / r$$ es el parámetro de escala, y ese término se justificará a continuación. El término parámetro de forma para$$n$$ claramente tiene sentido a la luz de las partes (a) y (b) del último resultado. El parámetro de tasa de término para$$r$$ se hereda de los tiempos entre llegadas, y más generalmente del propio proceso subyacente de Poisson: los puntos aleatorios están llegando a una tasa promedio de$$r$$ por unidad de tiempo. Una versión más general de la distribución gamma, que permite parámetros de forma no enteros, se estudia en el capítulo sobre Distribuciones especiales. Tenga en cuenta que dado que los tiempos de llegada son continuos, la probabilidad de una llegada en cualquier instante de tiempo dado es 0.

En el experimento gamma, varíe$$r$$ y$$n$$ con las barras de desplazamiento y observe cómo cambia la forma de la función de densidad de probabilidad. Para diversos valores de los parámetros, ejecute el experimento 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

La función de distribución y la función cuantil de la distribución gamma no tienen expresiones simples de forma cerrada. Sin embargo, es fácil escribir la función de distribución como una suma.

Para$$n \in \N_+$$,$$T_n$$ tiene función de distribución$$F_n$$ dada por$F_n(t) = 1 - \sum_{k=0}^{n-1} e^{-r t} \frac{(r t)^k}{k!}, \quad t \in [0, \infty)$

Prueba

Obsérvese que$F_n(t) = \int_0^t f_n(s) ds = \int_0^n r^n \frac{s^{n-1}}{(n - 1)!} e^{-r s}$ El resultado sigue por integración repetida por parte.

Abra la calculadora de distribución especial, seleccione la distribución gamma y seleccione la vista CDF. Varíe los parámetros y anote la forma de las funciones de distribución y cuantiles. Para valores seleccionados de los parámetros, calcule los cuartiles.

### Momentos

La función de generación de media, varianza y momento de se$$T_n$$ puede encontrar fácilmente a partir de la representación como una suma de variables exponenciales independientes.

La media y varianza de$$T_n$$ son.

1. $$\E\left(T_n\right) = n / r$$
2. $$\var\left(T_n\right) = n / r^2$$
Prueba

Recordemos que la distribución exponencial con parámetro de tasa$$r$$ tiene media$$1 / r$$ y varianza$$1 / r^2$$.

1. El valor esperado de una suma es la suma de los valores esperados, entonces$$\E\left(T_n\right) = n / r$$.
2. La varianza de una suma de variables independientes es la suma de las varianzas, entonces$$\var\left(T_n\right) = n / r^2$$.

Para$$k \in \N$$, el momento del orden$$k$$ de$$T_n$$ es$\E\left(T_n^k\right) = \frac{(k + n - 1)!}{(n - 1)!} \frac{1}{r^k}$

Prueba

Utilizando el teorema de cambio estándar de variables,$\E\left(T_n^k\right) = \int_0^\infty t^k f_n(t) \, dt = \frac{r^{n-1}}{(n - 1)!} \int_0^\infty t^{k + n - 1} r e^{-r t} \, dt$ Pero la integral de la derecha es el momento de orden$$k + n - 1$$ para la distribución exponencial, que mostramos en la última sección es$$(k + n - 1)! \big/ r^{k + n - 1}$$. Simplificar da el resultado.

De manera más general, el momento de orden$$k \gt 0$$ (no necesariamente un entero) es$\E\left(T_n^k\right) = \frac{\Gamma(k + n)}{\Gamma(n)} \frac{1}{r^k}$ donde$$\Gamma$$ está la función gamma.

En el experimento gamma, varíe$$r$$ y$$n$$ con las barras de desplazamiento y observe cómo cambia el tamaño y la ubicación de la barra de desviación$$\pm$$ estándar media. Para diversos valores de$$r$$ y$$n$$, ejecutar el experimento 1000 veces y comparar los momentos empíricos con los momentos verdaderos.

Nuestro siguiente resultado da la asimetría y curtosis de la distribución gamma.

La asimetría y curtosis$$T_n$$ de

1. $$\skw(X) = \frac{2}{\sqrt{n}}$$
2. $$\kur(X) = 3 + \frac{6}{n}$$
Prueba

Estos resultados se deduce del momento anterior y las fórmulas computacionales para asimetría y curtosis.

En particular, tenga en cuenta que la distribución gamma está sesgada positivamente pero$$\skw(X) \to 0$$ y como$$n \to \infty$$. Recordemos también que el exceso de curtosis es$$\kur(T_n) - 3 = \frac{6}{n} \to 0$$ como$$n \to \infty$$. Este resultado se relaciona con la convergencia de la distribución gamma a la normal, que se analiza a continuación. Finalmente, tenga en cuenta que la asimetría y curtosis no dependen del parámetro de tasa$$r$$. Esto se debe a que, como mostramos a continuación,$$1 / r$$ es un parámetro de escala.

La función de generación de momento de$$T_n$$ es$M_n(s) = \E\left(e^{s T_n}\right) = \left(\frac{r}{r - s}\right)^n, \quad -\infty \lt s \lt r$

Prueba

Recordemos que el MGF de una suma de variables independientes es producto de los MGF correspondientes. Mostramos en la última sección que la distribución exponencial con parámetro$$r$$ tiene MGF$$s \mapsto r / (r - s)$$ para$$-\infty \lt s \lt r$$.

La función de generación de momentos también se puede utilizar para derivar los momentos de la distribución gamma dada anteriormente, recordemos eso$$M_n^{(k)}(0) = \E\left(T_n^k\right)$$.

### Estimación de la tasa

En muchas situaciones prácticas, la tasa$$r$$ del proceso es desconocida y debe estimarse con base en los datos del proceso. Comenzamos con una estimación natural del parámetro de escala$$1 / r$$. Obsérvese que$M_n = \frac{T_n}{n} = \frac{1}{n} \sum_{i=1}^n X_i$ es la media muestral de los primeros tiempos$$n$$ entre llegadas$$(X_1, X_2, \ldots, X_n)$$. En términos estadísticos, esta secuencia es una muestra aleatoria de tamaño$$n$$ a partir de la distribución exponencial con tasa$$r$$.

$$M_n$$satisface las siguientes propiedades:

1. $$\E(M_n) = \frac{1}{r}$$
2. $$\var(M_n) = \frac{1}{n r^2}$$
3. $$M_n \to \frac{1}{r}$$como$$n \to \infty$$ con probabilidad 1
Prueba

Las partes (a) y (b) se derivan del valor esperado$$T_n$$ y de las propiedades estándar. La parte c) es la ley fuerte de los grandes números.

En términos estadísticos, la parte (a) significa que$$M_n$$ es un estimador imparcial de$$1 / r$$ y por lo tanto la varianza en la parte (b) es el error cuadrático medio. Parte (b) significa que$$M_n$$ es un estimador consistente de$$1 / r$$ since$$\var(M_n) \downarrow 0$$ as$$n \to \infty$$. La parte (c) es una más fuerte de consistencia. En general, la media muestral de una muestra aleatoria de una distribución es un estimador imparcial y consistente de la media de distribución. Por otro lado, un estimador natural de$$r$$ sí mismo lo es$$1 / M_n = n / T_n$$. Sin embargo, este estimador está sesgado positivamente.

$$\E(n / T_n) \ge r$$.

Prueba

Esto se desprende inmediatamente de la desigualdad de Jensen ya que$$x \mapsto 1 / x$$ es cóncava hacia arriba en adelante$$(0, \infty)$$.

Como se señaló anteriormente, la distribución gamma es una familia de escalas.

Supongamos que$$T$$ tiene la distribución gamma con el parámetro rate$$r \in (0, \infty)$$ y el parámetro shape$$n \in \N_+$$. Si$$c \in (0, \infty)$$ entonces$$c T$$ tiene la distribución gamma con parámetro de tasa$$r / c$$ y parámetro de forma$$n$$.

Prueba

La función de generación de momento de$$c T$$ es$\E[e^{s (c T)}] = \E[e^{(c s) T}] = \left(\frac{r}{r - cs}\right)^n = \left(\frac{r / c}{r / c - s}\right)^n, \quad s \lt \frac{r}{c}$

La propiedad de escalado también se desprende del hecho de que la distribución gamma gobierna los tiempos de llegada al proceso de Poisson. Un cambio de tiempo en un proceso de Poisson claramente no cambia la fuerte propiedad de renovación, y por lo tanto resulta en un nuevo proceso de Poisson.

### Familia de fuentes General Exponential

La distribución gamma también es un miembro de la familia exponencial general de distribuciones.

Supongamos que$$T$$ tiene la distribución gamma con el parámetro shape$$n \in \N_+$$ y el parámetro rate$$r \in (0, \infty)$$. Entonces$$T$$ tiene una distribución exponencial general de dos parámetros con parámetros naturales$$n - 1$$ y$$-r$$, y estadísticas naturales$$\ln(T)$$ y$$T$$.

Prueba

Esto se desprende de la forma del PDF y la definición de la familia exponencial general:$f(t) = r^n \frac{t^{n-1}}{(n - 1)!} e^{-r t} = \frac{r^n}{(n - 1)!} \exp\left[(n - 1) \ln(t) - r t\right], \quad t \in (0, \infty)$

### Incrementos

Una serie de propiedades importantes surgen del hecho de que la secuencia de tiempos de llegada$$\bs{T} = (T_0, T_1, \ldots)$$ es el proceso de suma parcial asociado con la secuencia de tiempos inter-llegada independientes, distribuidos idénticamente$$\bs{X} = (X_1, X_2, \ldots)$$.

La secuencia de tiempo de llegada$$\bs{T}$$ tiene incrementos estacionarios e independientes:

1. Si$$m \lt n$$ entonces$$T_n - T_m$$ tiene la misma distribución que$$T_{n-m}$$, es decir, la distribución gamma con el parámetro shape$$n - m$$ y el parámetro rate$$r$$.
2. Si$$n_1 \lt n_2 \lt n_3 \lt \cdots$$ entonces$$\left(T_{n_1}, T_{n_2} - T_{n_1}, T_{n_3} - T_{n_2}, \ldots\right)$$ es una secuencia independiente.
Prueba

Las propiedades de incrementos estacionarios e independientes se mantienen para cualquier proceso de suma parcial asociado a una secuencia independiente, distribuida idénticamente.

Por supuesto, las propiedades estacionarias e independientes de incrementos están relacionadas con el supuesto fundamental de renovación con el que comenzamos. Si arreglamos$$n \in \N_+$$, entonces$$(T_n - T_n, T_{n+1} - T_n, T_{n+2} - T_n, \ldots)$$ es independiente$$(T_1, T_2, \ldots, T_n)$$ y tiene la misma distribución que$$(T_0, T_1, T_2, \ldots)$$. Es decir, si reiniciamos el reloj a la hora$$T_n$$, entonces el proceso en el futuro se parece al proceso original (en un sentido probabilístico) y es indpendiente del pasado. Así, tenemos nuestra segunda caracterización del proceso de Poisson.

Un proceso de puntos aleatorios en el tiempo es un proceso de Poisson con tasa$$r \in (0, \infty)$$ si y solo si la secuencia de tiempo de llegada$$\bs{T}$$ tiene incrementos estacionarios e independientes, y for$$n \in \N_+$$,$$T_n$$ tiene la distribución gamma con parámetro de forma$$n$$ y parámetro de velocidad$$r$$.

### Sumas

La distribución gamma se cierra con respecto a sumas de variables independientes, siempre y cuando el parámetro de tasa sea fijo.

Supongamos que$$V$$ tiene la distribución gamma con el parámetro shape$$m \in \N_+$$ y el parámetro rate$$r \gt 0$$,$$W$$ tiene la distribución gamma con el parámetro shape$$n \in \N_+$$ y el parámetro rate$$r$$, y que$$V$$ y$$W$$ son independientes. Después$$V + W$$ tiene la distribución gamma con el parámetro shape$$m + n$$ y el parámetro rate$$r$$.

Prueba

Existen al menos tres pruebas diferentes de este resultado fundamental. Quizás lo mejor es una prueba probabilística basada en el proceso de Poisson. Comenzamos con una secuencia IID$$\bs{X}$$ de variables independientes distribuidas exponencialmente, cada una con parámetro de tasa$$r$$. Entonces podemos asociarnos$$V$$ con$$T_m$$ y$$W$$ con$$T_{m + n} - T_m$$ para que eso$$V + W$$ se convierta$$T_{m + n}$$. El resultado ahora se desprende del teorema anterior.

Otra prueba simple utiliza funciones de generación de momentos. Recordemos nuevamente que el MGF de$$V + W$$ es producto de los MGF de$$V$$ y de$$W$$. Una tercera prueba analítica utiliza convolución. Recordemos nuevamente que el PDF de$$V + W$$ es la convolución de los PDFs de$$V$$ y de$$W$$.

### Aproximación normal

En el experimento gamma, varíe$$r$$ y$$n$$ con las barras de desplazamiento y observe cómo cambia la forma de la función de densidad de probabilidad. Ahora establece$$n = 10$$ y para varios valores de$$r$$ ejecutar el experimento 1000 veces y comparar la función de densidad empírica con la función de densidad de probabilidad verdadera.

Aunque esté restringido a valores relativamente pequeños de$$n$$ en la aplicación, tenga en cuenta que la función de densidad de probabilidad de la hora de$$n$$ llegada se vuelve más en forma de campana a medida que$$n$$ aumenta (para$$r$$ fijo). Esta es otra aplicación más del teorema del límite central, ya que$$T_n$$ es la suma de variables aleatorias$$n$$ independientes, distribuidas idénticamente (los tiempos entre llegadas).

La distribución de la variable aleatoria$$Z_n$$ a continuación converge a la distribución normal estándar como$$n \to \infty$$:$Z_n = \frac{r\,T_n - n}{\sqrt{n}}$

Prueba

$$Z_n$$es la puntuación estándar asociada$$T_n$$, por lo que el resultado se desprende del teorema del límite central.

### Conexión a los ensayos de Bernoulli

Volvemos a la analogía entre el proceso de ensayos de Bernoulli y el proceso de Poisson que se inició en la Introducción y continuó en la última sección sobre la Distribución Exponencial. Si pensamos en los éxitos en una secuencia de ensayos de Bernoulli como puntos aleatorios en tiempo discreto, entonces el proceso tiene la misma propiedad de renovación fuerte que el proceso de Poisson, pero restringido al tiempo discreto. Es decir, en cada hora fija y en cada hora de llegada, el proceso comienza de nuevo, independientemente del pasado. En los ensayos de Bernoulli, el tiempo de la$$n$$ llegada tiene la distribución binomial negativa con parámetros$$n$$ y$$p$$ (la probabilidad de éxito), mientras que en el proceso de Poisson, como ahora sabemos, el tiempo de la$$n$$ th llegada tiene la distribución gamma con parámetros$$n$$ y $$r$$(la tasa). Debido a esta fuerte analogía, esperamos una relación entre estos dos procesos. De hecho, tenemos el mismo tipo de límite que con las distribuciones geométricas y exponenciales.

Fijar$$n \in \N_+$$ y suponer que para cada uno$$m \in \N_+$$$$T_{m,n}$$ tiene la distribución binomial negativa con parámetros$$n$$ y$$p_m \in (0, 1)$$, donde$$m p_m \to r \in (0, \infty)$$ como$$m \to \infty$$. Entonces la distribución de$$T_{m,n} \big/ m$$ converge a la distribución gamma con parámetros$$n$$ y$$r$$ as$$m \to \infty$$.

Prueba

Supongamos que$$X_m$$ tiene la distribución geométrica$$\N_+$$ encendida con parámetro de éxito$$p_m$$. Sabemos por nuestro resultado de convergencia en la última sección que la distribución de$$X_m / m$$ converge a la distribución exponencial con parámetro de tasa$$r$$ como$$m \to \infty$$. De ello se deduce que si$$M_m$$ denota el momento que genera la función de$$X_m / m$$, entonces en$$M_m(s) \to r / (r - s)$$$$m \to \infty$$ cuanto a$$s \lt r$$. Pero entonces$$M_m^n$$ es el MGF de$$T_{m,n} \big/ m$$ y claramente en$M_m^n(s) \to \left(\frac{r}{r - s}\right)^n$$$m \to \infty$$ cuanto a$$s \lt r$$. La expresión a la derecha es el MGF de la distribución gamma con el parámetro shape$$n$$ y el parámetro rate$$r$$.

## Ejercicios Computacionales

Supongamos que los clientes llegan a una estación de servicio según el modelo de Poisson, a una tasa$$r = 3$$ por hora. En relación con una hora de inicio determinada, encuentre la probabilidad de que el segundo cliente llegue en algún momento después de 1 hora.

Contestar

0.1991

Los defectos en un tipo de cable siguen el modelo de Poisson, con una tasa de 1 por 100 metros. Encuentra la probabilidad de que el 5º defecto se localice entre 450 y 550 metros.

Contestar

0.1746

Supongamos que las solicitudes a un servidor web siguen el modelo de Poisson con tasa$$r = 5$$. Relativo a un tiempo de inicio dado, computar la media y desviación estándar del tiempo de la 10ª solicitud.

Contestar

2, 0.6325

Supongamos que$$Y$$ tiene una distribución gamma con media 40 y desviación estándar 20. Encuentra el parámetro shape$$n$$ y el parámetro rate$$r$$.

Contestar

$$r = 1 / 10$$,$$n = 4$$

Supongamos que los accidentes en una intersección ocurren de acuerdo con el modelo de Poisson, a una tasa de 8 por año. Calcular la aproximación normal al evento en el que el 10º accidente (relativo a un tiempo de inicio dado) ocurre dentro de los 2 años.

Contestar

0.5752

En el experimento gamma, set$$n = 5$$ y$$r = 2$$. Ejecute el experimento 1000 veces y calcule lo siguiente:

1. $$\P(1.5 \le T_t \le 3)$$
2. La frecuencia relativa del evento$$\{1.5 \le T_5 \le 3\}$$
3. La aproximación normal a$$\P(1.5 \le T_5 \le 3)$$
Contestar
1. 0.5302
2. 0.4871

Supongamos que las solicitudes a un servidor web siguen el modelo de Poisson. A partir de las 12:00 del mediodía de un día determinado, se registran las solicitudes. La solicitud número 100 llega a las 12:15. Estimar la tasa del proceso.

Contestar

$$r = 6.67$$aciertos por minuto

This page titled 14.3: La distribución Gamma is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform.