Saltar al contenido principal

# 5.8: La distribución Gamma

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$
$$\newcommand{\R}{\mathbb{R}}$$$$\newcommand{\N}{\mathbb{N}}$$$$\newcommand{\E}{\mathbb{E}}$$$$\newcommand{\P}{\mathbb{P}}$$$$\newcommand{\var}{\text{var}}$$$$\newcommand{\sd}{\text{sd}}$$$$\newcommand{\skw}{\text{skew}}$$$$\newcommand{\kur}{\text{kurt}}$$

En esta sección estudiaremos una familia de distribuciones que tiene especial importancia en probabilidad y estadística. En particular, los tiempos de llegada al proceso de Poisson tienen distribuciones gamma, y la distribución chi-cuadrada en estadística es un caso especial de la distribución gamma. Además, la distribución gamma es ampliamente utilizada para modelar cantidades físicas que toman valores positivos.

## La función Gamma

Antes de poder estudiar la distribución gamma, necesitamos introducir la función gamma, una función especial cuyos valores jugarán el papel de las constantes normalizadoras.

### Definición

La función gamma$$\Gamma$$ se define de$\Gamma(k) = \int_0^\infty x^{k-1} e^{-x} \, dx, \quad k \in (0, \infty)$ la siguiente manera La función está bien definida, es decir, la integral converge para cualquiera$$k \gt 0$$. Por otro lado, la integral diverge a$$\infty$$ for$$k \le 0$$.

Prueba

Tenga en cuenta que$\int_0^\infty x^{k-1} e^{-x} \, dx = \int_0^1 x^{k-1} e^{-x} \, dx + \int_1^\infty x^{k-1} e^{-x} \, dx$ Para la primera integral a la derecha,$\int_0^1 x^{k-1} e^{-x} \, dx \le \int_0^1 x^{k-1} \, dx = \frac{1}{k}$ Para la segunda integral, vamos$$n = \lceil k \rceil$$. Entonces$\int_1^\infty x^{k-1} e^{-x} \, dx \le \int_1^\infty x^{n-1} e^{-x} \, dx$ La última integral se puede evaluar explícitamente integrando por partes, y es finita para cada$$n \in \N_+$$.

Por último, si$$k \le 0$$, tenga en cuenta que$\int_0^1 x^{k-1} e^{-x}, \, dx \ge e^{-1} \int_0^1 x^{k-1} \, dx = \infty$

La función gamma fue introducida por primera vez por Leonhard Euler.

La función gamma incompleta (inferior) se define por$\Gamma(k, x) = \int_0^x t^{k-1} e^{-t} \, dt, \quad k, x \in (0, \infty)$

Estas son algunas de las propiedades esenciales de la función gamma. El primero es la identidad fundamental.

$$\Gamma(k + 1) = k \, \Gamma(k)$$para$$k \in (0, \infty)$$.

Prueba

Esto se desprende de la integración por partes, con$$u = x^k$$ y$$dv = e^{-x} \, dx$$:$\Gamma(k + 1) = \int_0^\infty x^k e^{-x} \, dx = \left(-x^k e^{-x}\right)_0^\infty + \int_0^\infty k x^{k-1} e^{-x} \, dx = 0 + k \, \Gamma(k)$

Aplicar este resultado repetidamente da$\Gamma(k + n) = k (k + 1) \cdots (k + n - 1) \Gamma(k), \quad n \in \N_+$ Es claro que la función gamma es una extensión continua de la función factorial.

$$\Gamma(k + 1) = k!$$para$$k \in \N$$.

Prueba

Esto se desprende de la identidad fundmental y el hecho de que$$\Gamma(1) = 1$$.

Los valores de la función gamma para argumentos no enteros generalmente no pueden expresarse en formas simples y cerradas. No obstante, hay excepciones.

$$\Gamma\left(\frac{1}{2}\right) = \sqrt{\pi}$$.

Prueba

Por definición,$\Gamma\left(\frac{1}{2}\right) = \int_0^\infty x^{-1/2} e^{-x} \, dx$ Sustitución$$x = z^2 / 2$$ da$\Gamma\left(\frac{1}{2}\right) = \int_0^\infty \sqrt{2} e^{-z^2/2} \, dz = 2 \sqrt{\pi} \int_0^\infty \frac{1}{\sqrt{2 \pi}} e^{-z^2/2} \, dz$ Pero el último integrando es el PDF de la distribución normal estándar, y así la integral evalúa a$$\frac{1}{2}$$

Podemos generalizar el último resultado a múltiplos impares de$$\frac{1}{2}$$.

Para$$n \in \N$$,$\Gamma\left(\frac{2 n + 1}{2}\right) = \frac{1 \cdot 3 \cdots (2 n - 1)}{2^n} \sqrt{\pi} = \frac{(2 n)!}{4^n n!} \sqrt{\pi}$

Prueba

### Aproximación de Stirling

Una de las fórmulas asintóticas más famosas para la función gamma es la fórmula de Stirling, llamada así por James Stirling. Primero hay que recordar una definición.

Supongamos que$$f, \, g: D \to (0, \infty)$$ donde$$D = (0, \infty)$$ o$$D = \N_+$$. Entonces$$f(x) \approx g(x)$$ como$$x \to \infty$$ significa que$\frac{f(x)}{g(x)} \to 1 \text{ as } x \to \infty$

La fórmula de Stirling$\Gamma(x + 1) \approx \left( \frac{x}{e} \right)^x \sqrt{2 \pi x} \text{ as } x \to \infty$

Como caso especial, el resultado de Stirling da una fórmula asintótica para la función factorial:$n! \approx \left( \frac{n}{e} \right)^n \sqrt{2 \pi n} \text{ as } n \to \infty$

## La distribución gamma estándar

### Funciones de distribución

La distribución gamma estándar con el parámetro shape$$k \in (0, \infty)$$ es una distribución continua$$(0, \infty)$$ con la función de densidad de probabilidad$$f$$ dada por$f(x) = \frac{1}{\Gamma(k)} x^{k-1} e^{-x}, \quad x \in (0, \infty)$

Claramente$$f$$ es una función de densidad de probabilidad válida, ya que$$f(x) \gt 0$$ para$$x \gt 0$$, y por definición,$$\Gamma(k)$$ es la constante normalizadora para la función$$x \mapsto x^{k-1} e^{-x}$$ on$$(0, \infty)$$. El siguiente teorema muestra que la densidad gamma tiene una rica variedad de formas, y muestra por qué$$k$$ se llama el parámetro shape.

La función de densidad de probabilidad gamma$$f$$ con parámetro shape$$k \in (0, \infty)$$ satisface las siguientes propiedades:

1. Si$$0 \lt k \lt 1$$,$$f$$ está disminuyendo con$$f(x) \to \infty$$ as$$x \downarrow 0$$.
2. Si$$k = 1$$,$$f$$ está disminuyendo con$$f(0) = 1$$.
3. Si$$k \gt 1$$,$$f$$ aumenta y luego disminuye, con modo en$$k - 1$$.
4. Si$$0 \lt k \le 1$$,$$f$$ es cóncava hacia arriba.
5. Si$$1 \lt k \le 2$$,$$f$$ es cóncava hacia abajo y luego hacia arriba, con punto de inflexión en$$k - 1 + \sqrt{k - 1}$$.
6. Si$$k \gt 2$$,$$f$$ es cóncavo hacia arriba, luego hacia abajo, luego hacia arriba nuevamente, con puntos de inflexión en$$k - 1 \pm \sqrt{k - 1}$$.
Prueba

Estos resultados se derivan del cálculo estándar. Para$$x \gt 0$$,\ begin {align*} f^\ prime (x) &=\ frac {1} {\ Gamma (k)} x^ {k-2} e^ {-x} [(k - 1) - x]\\ f^ {\ prime\ prime} (x) &=\ frac {1} {\ Gamma (k)} x^ {k-3} e^ {-x}\ left [(k - 1) (k - 2) - 2 (k - 1) x + x^2\ derecha]\ final {alinear*}

El caso especial$$k = 1$$ da la distribución exponencial estándar. Cuando$$k \ge 1$$, la distribución es unimodal.

En la simulación del simulador de distribución especial, seleccione la distribución gamma. Varíe el parámetro shape y anote la forma de la función de densidad. Para varios valores de$$k$$, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

La función de distribución y la función cuantil no tienen representaciones simples y cerradas para la mayoría de los valores del parámetro shape. Sin embargo, la función de distribución tiene una representación trivial en términos de las funciones gamma incompletas y completas.

La función$$F$$ de distribución de la distribución gamma estándar con el parámetro shape$$k \in (0, \infty)$$ viene dada por$F(x) = \frac{\Gamma(k, x)}{\Gamma(k)}, \quad x \in (0, \infty)$

Los valores aproximados de las funciones de distribución y cuantiles se pueden obtener de la calculadora de distribución especial y de la mayoría de los paquetes de software matemáticos y estadísticos.

Utilizando la calculadora de distribución especial, encuentra la mediana, el primer y tercer cuartiles y el rango intercuartílico en cada uno de los siguientes casos:

1. $$k = 1$$
2. $$k = 2$$
3. $$k = 3$$

### Momentos

Supongamos que$$X$$ tiene la distribución gamma estándar con el parámetro shape$$k \in (0, \infty)$$. La media y la varianza son simplemente el parámetro shape.

La media y varianza de$$X$$ son

1. $$\E(X) = k$$
2. $$\var(X) = k$$
Prueba
1. Desde la identidad fundamental,$\E(X) = \int_0^\infty x \frac{1}{\Gamma(k)} x^{k-1} e^{-x} \, dx = \frac{\Gamma(k + 1)}{\Gamma(k)} = k$
2. Desde la identidad fundamental una vez más$\E\left(X^2\right) = \int_0^\infty x^2 \frac{1}{\Gamma(k)} x^{k-1} e^{-x} \, dx = \frac{\Gamma(k + 2)}{\Gamma(k)} = (k + 1) k$ y por lo tanto$$\var(X) = \E\left(X^2\right) - [\E(X)]^2 = k$$

En la simulación del simulador de distribución especial, seleccione la distribución gamma. Varíe el parámetro de forma y anote el tamaño y la ubicación de la barra de desviación$$\pm$$ estándar media. Para los valores seleccionados de$$k$$, ejecute la simulación 1000 veces y compare la media empírica y la desviación estándar con la media de distribución y la desviación estándar.

De manera más general, los momentos se pueden expresar fácilmente en términos de la función gamma:

Los momentos de$$X$$ son

1. $$\E(X^a) = \Gamma(a + k) \big/ \Gamma(k)$$si$$a \gt -k$$
2. $$\E(X^n) = k^{[n]} = k (k + 1) \cdots (k + n - 1)$$si$$n \in \N$$
Prueba
1. Para$$a \gt -k$$,$\E(X^a) = \int_0^\infty x^a \frac{1}{\Gamma(k)} x^{k-1} e^{-x} \, dx = \frac{1}{\Gamma(k)} \int_0^\infty x^{a + k} e^{-x} \, dx = \frac{\Gamma(a + k)}{\Gamma(k)}$
2. Si$$n \in \N$$, entonces por la identidad fundamental,$$\Gamma(k + n) = k (k + 1) \cdots (k + n - 1) \Gamma(k)$$, entonces el resultado se desprende de (a).

Tenga en cuenta también que$$\E(X^a) = \infty$$ si$$a \le -k$$. Ahora también podemos calcular la asimetría y la curtosis.

La asimetría y curtosis de$$X$$ son

1. $$\skw(X) = \frac{2}{\sqrt{k}}$$
2. $$\kur(X) = 3 + \frac{6}{k}$$
Prueba

Estos resultados se derivan de los resultados del momento anterior y de las fórmulas computacionales para asimetría y curtosis.

En particular, tenga en cuenta que$$\skw(X) \to 0$$ y$$\kur(X) \to 3$$ como$$k \to \infty$$. Tenga en cuenta también que el exceso de curtosis$$\kur(X) - 3 \to 0$$ como$$k \to \infty$$.

En la simulación del simulador de distribución especial, seleccione la distribución gamma. Aumentar el parámetro shape y anotar la forma de la función de densidad a la luz de los resultados previos sobre asimetría y curtosis. Para varios valores de$$k$$, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

El siguiente teorema da la función de generación de momento.

La función de generación de momento de$$X$$ viene dada por$\E\left(e^{t X}\right) = \frac{1}{(1 - t)^k}, \quad t \lt 1$

Prueba

Para$$t \lt 1$$,$\E\left(e^{t X}\right) = \int_0^\infty e^{t x} \frac{1}{\Gamma(k)} x^{k-1} e^{-x} \, dx = \int_0^\infty \frac{1}{\Gamma(k)} x^{k-1} e^{-x(1 - t)} \, dx$ Sustituyendo$$u = x(1 - t)$$ para que$$x = u \big/ (1 - t)$$ y$$dx = du \big/ (1 - t)$$ da$\E\left(e^{t X}\right) = \frac{1}{(1 - t)^k} \int_0^\infty \frac{1}{\Gamma(k)} u^{k-1} e^{-u} \, du = \frac{1}{(1 - t)^k}$

## La distribución general de gamma

La distribución gamma suele generalizarse mediante la adición de un parámetro de escala.

Si$$Z$$ tiene la distribución gamma estándar con el parámetro shape$$k \in (0, \infty)$$ y if$$b \in (0, \infty)$$, entonces$$X = b Z$$ tiene la distribución gamma con el parámetro shape$$k$$ y el parámetro scale$$b$$.

El recíproco del parámetro de escala,$$r = 1 / b$$ se conoce como el parámetro de tasa, particularmente en el contexto del proceso de Poisson. La distribución gamma con parámetros$$k = 1$$ y$$b$$ se denomina distribución exponencial con parámetro de escala$$b$$ (o parámetro de tasa$$r = 1 / b$$). De manera más general, cuando el parámetro shape$$k$$ es un entero positivo, la distribución gamma se conoce como la distribución Erlang, llamada así por el matemático danés Agner Erlang. La distribución exponencial gobierna el tiempo entre llegadas en el modelo de Poisson, mientras que la distribución de Erlang gobierna los tiempos de llegada reales.

Las propiedades básicas de la distribución gamma general se derivan fácilmente de las propiedades correspondientes de la distribución estándar y los resultados básicos para las transformaciones de escala.

### Funciones de distribución

Supongamos que$$X$$ tiene la distribución gamma con el parámetro shape$$k \in (0, \infty)$$ y el parámetro scale$$b \in (0, \infty)$$.

$$X$$tiene la función de densidad de probabilidad$$f$$ dada por$f(x) = \frac{1}{\Gamma(k) b^k} x^{k-1} e^{-x/b}, \quad x \in (0, \infty)$

Prueba

Recordemos que si$$g$$ es el PDF de la distribución gamma estándar con parámetro shape$$k$$ entonces$$f(x) = \frac{1}{b} g\left(\frac{x}{b}\right)$$ para$$x \gt 0$$.

Recordemos que la inclusión de un parámetro de escala no cambia la forma de la función de densidad, sino que simplemente escala la gráfica horizontal y verticalmente. En particular, tenemos las mismas formas básicas que para la función de densidad gamma estándar.

La función$$f$$ de densidad de probabilidad de$$X$$ satisface las siguientes propiedades:

1. Si$$0 \lt k \lt 1$$,$$f$$ está disminuyendo con$$f(x) \to \infty$$ as$$x \downarrow 0$$.
2. Si$$k = 1$$,$$f$$ está disminuyendo con$$f(0) = 1$$.
3. Si$$k \gt 1$$,$$f$$ aumenta y luego disminuye, con modo en$$(k - 1) b$$.
4. Si$$0 \lt k \le 1$$,$$f$$ es cóncava hacia arriba.
5. Si$$1 \lt k \le 2$$,$$f$$ es cóncava hacia abajo y luego hacia arriba, con punto de inflexión en$$b \left(k - 1 + \sqrt{k - 1}\right)$$.
6. Si$$k \gt 2$$,$$f$$ es cóncavo hacia arriba, luego hacia abajo, luego hacia arriba nuevamente, con puntos de inflexión en$$b \left(k - 1 \pm \sqrt{k - 1}\right)$$.

En la simulación del simulador de distribución especial, seleccione la distribución gamma. Varíe los parámetros de forma y escala y anote la forma y ubicación de la función de densidad de probabilidad. Para varios valores de los parámetros, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

Una vez más, la función de distribución y la función cuantil no tienen representaciones simples y cerradas para la mayoría de los valores del parámetro shape. Sin embargo, la función de distribución tiene una representación simple en términos de las funciones gamma incompletas y completas.

La función$$F$$ de distribución de$$X$$ viene dada por$F(x) = \frac{\Gamma(k, x/b)}{\Gamma(k)}, \quad x \in (0, \infty)$

Prueba

De la definición podemos tomar$$X = b Z$$ donde$$Z$$ tiene la distribución gamma estándar con parámetro shape$$k$$. Entonces$$\P(X \le x) = \P(Z \le x/b)$$ para$$x \in (0, \infty)$$, así el resultado se desprende de la función de distribución de$$Z$$.

Los valores aproximados de las funciones de distribución y quanitle se pueden obtener de la calculadora de distribución especial, y de la mayoría de los paquetes de software matemáticos y estadísticos.

Abra la calculadora de distribución especial. Varíe los parámetros de forma y escala y anote la forma y ubicación de las funciones de distribución y cuantiles. Para los valores seleccionados de los parámetros, busque la mediana y el primer y tercer cuartiles.

### Momentos

Supongamos nuevamente que$$X$$ tiene la distribución gamma con el parámetro shape$$k \in (0, \infty)$$ y el parámetro scale$$b \in (0, \infty)$$.

La media y varianza de$$X$$ son

1. $$\E(X) = b k$$
2. $$\var(X) = b^2 k$$
Prueba

A partir de la definición, podemos tomar$$X = b Z$$ donde$$Z$$ tiene la distribución gamma estándar con parámetro shape$$k$$. Luego usando la media y varianza de$$Z$$,

1. $$\E(X) = b \E(Z) = b k$$
2. $$\var(X) = b^2 \var(Z) = b^2 k$$

En el simulador de distribución especial, seleccione la distribución gamma. Varíe los parámetros y anote la forma y ubicación de la barra de desviación$$\pm$$ estándar media. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y compare la media empírica y la desviación estándar con la media de distribución y la desviación estándar.

Los momentos de$$X$$ son

1. $$\E(X^a) = b^a \Gamma(a + k) \big/ \Gamma(k)$$para$$a \gt -k$$
2. $$\E(X^n) = b^n k^{[n]} = b^n k (k + 1) \cdots (k + n - 1)$$si$$n \in \N$$
Prueba

Nuevamente, a partir de la definición, podemos tomar$$X = b Z$$ donde$$Z$$ tiene la distribución gamma estándar con parámetro shape$$k$$. Los resultados siguen desde el momento resultados para$$Z$$, ya que$$E(X^a) = b^a \E(Z^a)$$.

Tenga en cuenta también que$$\E(X^a) = \infty$$ si$$a \le -k$$. Recordemos que la asimetría y curtosis se definen en términos de la puntuación estándar, y por lo tanto no se modifican por la adición de un parámetro de escala.

La asimetría y curtosis de$$X$$ son

1. $$\skw(X) = \frac{2}{\sqrt{k}}$$
2. $$\kur(X) = 3 + \frac{6}{k}$$

La función de generación de momento de$$X$$ viene dada por$\E\left(e^{t X}\right) = \frac{1}{(1 - b t)^k}, \quad t \lt \frac{1}{b}$

Prueba

A partir de la definición, podemos tomar$$X = b Z$$ donde$$Z$$ tiene la distribución gamma estándar con parámetro shape$$k$$. Entonces$$\E\left(e^{t X}\right) = \E\left[e^{(t b )Z}\right]$$, por lo que el resultado se desprende del momento generando función de$$Z$$.

### Relaciones

Nuestro primer resultado es simplemente una reafirmación del significado del término parámetro scale.

Supongamos que$$X$$ tiene la distribución gamma con el parámetro shape$$k \in (0, \infty)$$ y el parámetro scale$$b \in (0, \infty)$$. Si$$c \in (0, \infty)$$, entonces$$c X$$ tiene la distribución gamma con el parámetro shape$$k$$ y el parámetro scale$$b c$$.

Prueba

A partir de la definición, podemos tomar$$X = b Z$$ donde$$Z$$ tiene la distribución gamma estándar con parámetro shape$$k$$. Entonces$$c X = c b Z$$.

Más importante aún, si el parámetro de escala es fijo, la familia gamma se cierra con respecto a las sumas de variables independientes.

Supongamos que$$X_1$$ y$$X_2$$ son variables aleatorias independientes, y que$$X_i$$ tiene la distribución gamma con el parámetro shape$$k_i \in (0, \infty)$$ y el parámetro scale$$b \in (0, \infty)$$ for$$i \in \{1, 2\}$$. Después$$X_1 + X_2$$ tiene la distribución gamma con el parámetro shape$$k_1 + k_2$$ y el parámetro scale$$b$$.

Prueba

Recordemos que el MGF de$$X = X_1 + X_2$$ es producto de los MGF de$$X_1$$ y$$X_2$$, entonces$\E\left(e^{t X}\right) = \frac{1}{(1 - b t)^{k_1}} \frac{1}{(1 - b t)^{k_2}} = \frac{1}{(1 - b t)^{k_1 + k_2}}, \quad t \lt \frac{1}{b}$

Del resultado anterior, se deduce que la distribución gamma es infinitamente divisible:

Supongamos que$$X$$ tiene la distribución gamma con el parámetro shape$$k \in (0, \infty)$$ y el parámetro scale$$b \in (0, \infty)$$. For$$n \in \N_+$$,$$X$$ tiene la misma distribución que$$\sum_{i=1}^n X_i$$, donde$$(X_1, X_2, \ldots, X_n)$$ es una secuencia de variables aleatorias independientes, cada una con la distribución gamma con con parámetro shape$$k / n$$ y parámetro scale$$b$$.

Del resultado de la suma y del teorema del límite central, se deduce que si$$k$$ es grande, la distribución gamma con el parámetro shape$$k$$ y el parámetro scale se$$b$$ puede aproximar por la distribución normal con media$$k b$$ y varianza$$k b^2$$. Aquí está la declaración precisa:

Supongamos que$$X_k$$ tiene la distribución gamma con parámetro shape$$k \in (0, \infty)$$ y parámetro de escala fija$$b \in (0, \infty)$$. Entonces la distribución de la variable estandarizada a continuación converge a la distribución normal estándar como$$k \to \infty$$:$Z_k = \frac{X_k - k b}{\sqrt{k} b}$

En el simulador de distribución especial, seleccione la distribución gamma. Para varios valores del parámetro scale, aumente el parámetro shape y note la forma cada vez más normal de la función de densidad. Para valores seleccionados de los parámetros, ejecute el experimento 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

La distribución gamma es un miembro de la familia exponencial general de distribuciones:

La distribución gamma con parámetro de forma$$k \in (0, \infty)$$ y parámetro de escala$$b \in (0, \infty)$$ es una familia exponencial de dos parámetros con parámetros$$(k - 1, -1 / b)$$ naturales y estadísticas naturales$$(\ln X, X)$$.

Prueba

Esto se desprende de la definición de la familia exponencial general. El PDF gamma se puede escribir como$f(x) = \frac{1}{b^k \Gamma(k)} \exp\left[(k - 1) \ln x - \frac{1}{b} x\right], \quad x \in (0, \infty)$

Para$$n \in (0, \infty)$$, la distribución gamma con parámetro de forma$$n/2$$ y parámetro de escala 2 se conoce como la distribución chi-cuadrada con$$n$$ grados de libertad. La distribución chi-cuadrada es lo suficientemente importante como para merecer una sección separada.

### Ejercicio Computacional

Supongamos que la vida útil de un dispositivo (en horas) tiene la distribución gamma con el parámetro shape$$k = 4$$ y el parámetro scale$$b = 100$$.

1. Encuentra la probabilidad de que el dispositivo dure más de 300 horas.
2. Encuentra la media y desviación estándar de la vida útil.
Contestar

Dejar$$X$$ denotar la vida útil en horas.

1. $$\P(X \gt 300) = 13 e^{-3} \approx 0.6472$$
2. $$\E(X) = 400$$,$$\sd(X) = 200$$

Supongamos que$$Y$$ tiene la distribución gamma con parámetros$$k = 10$$ y$$b = 2$$. Para cada una de las siguientes, compute el valor verdadero usando la calculadora de distribución especial y luego compute la aproximación normal. Compara los resultados.

1. $$\P(18 \lt X \lt 25)$$
2. El percentil 80 de$$Y$$
Contestar
1. $$\P(18 \lt X \lt 25) = 0.3860$$,$$\P(18 \lt X \lt 25) \approx 0.4095$$
2. $$y_{0.8} = 25.038$$,$$y_{0.8} \approx 25.325$$

This page titled 5.8: La distribución Gamma is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform.