Saltar al contenido principal

5.5: Distribuciones de la serie de energía

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$
$$\newcommand{\R}{\mathbb{R}}$$$$\newcommand{\N}{\mathbb{N}}$$$$\newcommand{\E}{\mathbb{E}}$$$$\newcommand{\var}{\text{var}}$$$$\newcommand{\P}{\mathbb{P}}$$$$\newcommand{\bs}{\boldsymbol}$$

Las distribuciones de la serie de potencia son distribuciones discretas en (un subconjunto de)$$\N$$ construidas a partir de series de potencia. Esta clase de distribuciones es importante porque la mayoría de las distribuciones especiales y discretas son distribuciones de serie de potencia.

Teoría Básica

Serie Power

Supongamos que$$\bs{a} = (a_0, a_1, a_2, \ldots)$$ es una secuencia de números reales no negativos. Nos interesa la serie de potencia con$$\bs{a}$$ como la secuencia de coeficientes. Recordemos primero que la suma parcial de orden$$n \in \N$$ es$g_n(\theta) = \sum_{k=0}^n a_k \theta^k, \quad \theta \in \R$ La serie$$g$$ de potencia se define entonces por$$g(\theta) = \lim_{n \to \infty} g_n(\theta)$$$$\theta \in \R$$ para la cual existe el límite, y se denota$g(\theta) = \sum_{n=0}^\infty a_n \theta^n$ Tenga en cuenta que la serie converge cuando$$\theta = 0$$, y$$g(0) = a_0$$. Más allá de este caso trivial, recordemos que existe$$r \in [0, \infty]$$ tal que la serie converge absolutamente para$$\left|\theta\right| \lt r$$ y diverge para$$\left|\theta\right| \gt r$$. El número$$r$$ es el radio de convergencia. A partir de ahora, asumimos eso$$r \gt 0$$. Si$$r \lt \infty$$, la serie puede converger (absolutamente) o puede divergir$$\infty$$ en el punto final$$r$$. En$$-r$$, la serie puede converger absolutamente, puede converger condicionalmente, o puede divergir.

Distribuciones

A partir de ahora, nos restringimos$$\theta$$ al intervalo$$[0, r)$$; este intervalo es nuestro espacio de parámetros. Algunos de los resultados a continuación pueden contener cuándo$$r \lt \infty$$ y$$\theta = r$$, pero tratar este caso explícitamente hace que la exposición sea innecesariamente engorrosa.

Supongamos que$$N$$ es una variable aleatoria con valores en$$\N$$. Luego$$N$$ tiene la distribución de series de potencia asociada con la función$$g$$ (o equivalentemente con la secuencia$$\bs{a}$$) y con el parámetro$$\theta \in [0, r)$$ si$$N$$ tiene función de densidad de probabilidad$$f_\theta$$ dada por$f_\theta(n) = \frac{a_n \theta^n}{g(\theta)}, \quad n \in \N$

Prueba

Para mostrar que$$f_\theta$$ es una función de densidad de probabilidad discreta válida, tenga en cuenta que no$$a_n \theta^n$$ es negativa para cada una$$n \in \N$$ y$$g(\theta)$$, por definición, es la constante normalizadora para la secuencia$$\left(a_n \theta^n: n \in \N\right)$$.

Tenga en cuenta que cuando$$\theta = 0$$, la distribución es simplemente la distribución de masa puntual en$$0$$; es decir,$$f_0(0) = 1$$.

La función de distribución$$F_\theta$$ viene dada por$F_\theta(n) = \frac{g_n(\theta)}{g(\theta)}, \quad n \in \N$

Prueba

Esto se desprende inmediatamente de las definiciones ya que$$F_\theta(n) = \sum_{k=0}^n f_\theta(k)$$ para$$n \in \N$$

Por supuesto, la función de densidad de probabilidad$$f_\theta$$ es más útil cuando la serie de potencia se$$g(\theta)$$ puede dar en forma cerrada, y de manera similar la función de distribución$$F_\theta$$ es más útil cuando la serie de potencia y las sumas parciales se pueden dar en forma cerrada

Momentos

Los momentos de$$N$$ pueden expresarse en términos de la función subyacente de la serie de poder$$g$$, y la expresión más agradable es para los momentos factoriales. Recordemos que la fórmula de permutación es$$t^{(k)} = t (t - 1) \cdots (t - k + 1)$$ para$$t \in \R$$ y$$k \in \N$$, y el momento factorial$$N$$ de orden$$k \in \N$$ es$$\E\left(N^{(k)}\right)$$.

Para$$\theta \in [0, r)$$, los momentos factoriales de$$N$$ son los siguientes, donde$$g^{(k)}$$ es el$$k$$ th derivado de$$g$$. $\E\left(N^{(k)}\right) = \frac{\theta^k g^{(k)}(\theta)}{g(\theta)}, \quad k \in \N$

Prueba

Recordemos que una serie de potencias es infinitamente diferenciable en el intervalo abierto de convergencia, y que las derivadas pueden tomarse término por término. Por lo tanto$\E\left(N^{(k)}\right) = \sum_{n=0}^\infty n^{(k)} \frac{a_n \theta^n}{g(\theta)} = \frac{\theta^k}{g(\theta)} \sum_{n=k}^\infty a_k n^{(k)} \theta^{n-k} = \frac{\theta^k}{g(\theta)} g^{(k)}(\theta)$

La media y varianza$$N$$ de

1. $$\E(N) = \theta g^\prime(\theta) \big/ g(\theta)$$
2. $$\var(N) = \theta^2 \left(g^{\prime\prime}(\theta) \big/ g(\theta) - \left[g^\prime(\theta) \big/ g(\theta)\right]^2\right)$$
Prueba
1. Esto se desprende del resultado anterior sobre momentos factoriales con$$k = 1$$.
2. Esto también se desprende del resultado anterior desde entonces$$\var(N) = \E\left(N^{(2)}\right) + \E(N)[1 - \E(N)]$$.

La función generadora de probabilidad de$$N$$ también tiene una expresión simple en términos de$$g$$.

Para$$\theta \in (0, r)$$, la función de generación de probabilidad$$P$$ de$$N$$ viene dada por$P(t) = \E\left(t^N\right) = \frac{g(\theta t)}{g(\theta)}, \quad t \lt \frac{r}{\theta}$

Prueba

Para$$t \in (0, r / \theta)$$,$P(t) = \sum_{n=0}^\infty t^n f_\theta(n) = \frac{1}{g(\theta)} \sum_{n=0}^\infty a_n (t \theta)^n = \frac{g(t \theta)}{g(\theta)}$

Relaciones

Las distribuciones de series de potencia se cierran con respecto a las sumas de variables independientes.

Supongamos que$$N_1$$ y$$N_2$$ son independientes, y tienen distribuciones de series de potencia relativas a las funciones$$g_1$$ y$$g_2$$, respectivamente, cada una con valor de parámetro$$\theta \lt \min\{r_1, r_2\}$$. Después$$N_1 + N_2$$ tiene la distribución de series de potencia relativa a la función$$g_1 g_2$$, con valor de parámetro$$\theta$$.

Prueba

Una prueba directa es posible, pero hay una prueba fácil usando funciones de generación de probabilidad. Recordemos que el PGF de la suma de variables independientes es el producto de las PGF. De ahí que el PGF de$$N_1 + N_2$$ es$P(t) = P_1(t) P_2(t) = \frac{g_1(\theta t)}{g_1(\theta)} \frac{g_2(\theta t)}{g_2(\theta)} = \frac{g_1(\theta t) g_2(\theta t)}{g_1(\theta) g_2(\theta)}, \quad t \lt \min\left\{\frac{r_1}{\theta}, \frac{r_2}{\theta}\right\}$ La última expresión es el PGF de la distribución de la serie de potencia relativa a la función$$g_1 g_2$$, at$$\theta$$.

Aquí hay un simple corolario.

Supongamos que$$(N_1, N_2, \ldots, N_k)$$ es una secuencia de variables independientes, cada una con la misma distribución de serie de potencia, relativa a la función$$g$$ y con valor de parámetro$$\theta \lt r$$. Después$$N_1 + N_2 + \cdots + N_k$$ tiene la distribución de la serie de potencia relativa a la función$$g^k$$ y con parámetro$$\theta$$.

En el contexto de este resultado, recordemos que$$(N_1, N_2, \ldots, N_k)$$ es una muestra aleatoria de tamaño$$k$$ de la distribución común.

Ejemplos y Casos Especiales

Distribuciones especiales

La distribución de Poisson con parámetro de velocidad$$\lambda \in [0, \infty)$$ es una distribución de serie de potencia relativa a la función$$g(\lambda) = e^\lambda$$ para$$\lambda \in [0, \infty)$$.

Prueba

Esto se desprende directamente de la definición, ya que el PDF de la distribución de Poisson con parámetro$$\lambda$$ es$$f(n) = e^{-\lambda} \lambda^n / n!$$ para$$n \in \N$$.

La distribución geométrica en el parámetro$$\N$$ con éxito$$p \in (0, 1]$$ es una distribución de serie de potencia relativa a la función$$g(\theta) = 1 \big/ (1 - \theta)$$ para$$\theta \in [0, 1)$$, donde$$\theta = 1 - p$$.

Prueba

Esto se desprende directamente de la definición, ya que el PDF de la distribución geométrica en$$\N$$ es$$f(n) = (1 - p)^n p = (1 - \theta) \theta^n$$ para$$n \in \N$$.

Para fijo$$k \in (0, \infty)$$, la distribución binomial negativa on$$\N$$ con parámetro de parada$$k$$ y parámetro de éxito$$p \in (0, 1]$$ es una distribución de serie de potencia relativa a la función$$g(\theta) = 1 \big/ (1 - \theta)^k$$ para$$\theta \in [0, 1)$$, donde$$\theta = 1 - p$$.

Prueba

Esto se desprende del resultado anterior sobre sumas de variables IID, pero también se puede ver directamente, ya que el PDF es$f(n) = \binom{n + k - 1}{k - 1} p^k (1 - p)^{n} = (1 - \theta)^k \binom{n + k - 1}{k - 1} \theta^n, \quad n \in \N$

Para fijo$$n \in \N_+$$, la distribución binomial con parámetro de ensayo$$n$$ y parámetro de éxito$$p \in [0, 1)$$ es una distribución de serie de potencia relativa a la función$$g(\theta) = \left(1 + \theta\right)^n$$ para$$\theta \in [0, \infty)$$, donde$$\theta = p \big/ (1 - p)$$.

Prueba

Tenga en cuenta que el PDF de la distribución binomial es$f(k) = \binom{n}{k} p^k (1 - p)^{n - k} = (1 - p)^n \binom{n}{k} \left(\frac{p}{1 - p}\right)^k = \frac{1}{(1 + \theta)^n} \binom{n}{k} \theta^k, \quad k \in \{0, 1, \ldots, n\}$ donde$$\theta = p / (1 - p)$$. Esto demuestra que la distribución es una distribución en serie de potencia correspondiente a la función$$g(\theta) = (1 + \theta)^n$$.

La distribución logarítmica con parámetro$$p \in [0, 1)$$ es una distribución de serie de potencia relativa a la función$$g(p) = -\ln(1 - p)$$ para$$p \in [0, 1)$$.

Prueba

Esto se desprende directamente de la definición, ya que el PDF es$f(n) = \frac{1}{-\ln(1 - p)} \frac{1}{n} p^n, \quad n \in \N$

This page titled 5.5: Distribuciones de la serie de energía is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform.