Saltar al contenido principal
LibreTexts Español

14.4: La distribución de Poisson

  • Page ID
    152227
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\bs}{\boldsymbol}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\sd}{\text{sd}}\)\(\newcommand{\skw}{\text{skew}}\)\(\newcommand{\kur}{\text{kurt}}\)

    Teoría Básica

    Recordemos que en el modelo de Poisson,\(\bs{X} = (X_1, X_2, \ldots)\) denota la secuencia de tiempos entre llegadas, y\(\bs{T} = (T_0, T_1, T_2, \ldots)\) denota la secuencia de tiempos de llegada. Así\(\bs{T}\) es el proceso de suma parcial asociado a\(\bs{X}\): Con\[ T_n = \sum_{i=0}^n X_i, \quad n \in \N \] base en la fuerte suposición de renovación, que el proceso se reinicia en cada hora fija y cada hora de llegada, independientemente del pasado, ahora sabemos que\(\bs{X}\) es una secuencia de variables aleatorias independientes, cada una con el distribución exponencial con parámetro de tasa\(r \), para algunos\( r \in (0, \infty) \). También sabemos que\( \bs{T} \) tiene incrementos estacionarios e independientes, y que para\( n \in \N_+ \),\(T_n\) tiene la distribución gamma con parámetro de tasa\(r\) y parámetro de escala\(n\). Ambos enunciados caracterizan el proceso de Poisson con tasa\( r \).

    Recordemos que para\(t \ge 0\),\(N_t\) denota el número de llegadas en el intervalo\((0, t]\), de manera que eso\( N_t = \max\{n \in \N: T_n \le t\} \). Nos referimos\(\bs{N} = (N_t: t \ge 0)\) como el proceso de conteo. En esta sección mostraremos que\( N_t \) tiene una distribución de Poisson, llamada así por Simeon Poisson, una de las distribuciones más importantes en la teoría de la probabilidad. Nuestra exposición alternará entre propiedades de la distribución y propiedades del proceso de conteo. Los dos están íntimamente entrelazados. No es demasiado exagerado decir que donde quiera que haya una distribución de Poisson, hay un proceso de Poisson al acecho en el fondo.

    Función de densidad de probabilidad.

    Recordemos que la función de densidad de probabilidad del\( n \) th tiempo de llegada\(T_n\) es\[ f_n(t) = r^n \frac{t^{n-1}}{(n-1)!} e^{-r t}, \quad 0 \le t \lt \infty \] Podemos encontrar la distribución de\(N_t\) debido a la relación inversa entre\(\bs{N}\) y\(\bs{T}\). En particular, recordemos que\[ N_t \ge n \iff T_n \le t, \quad t \in (0, \infty), \; n \in \N_+ \] ya que ambos eventos significan que hay al menos\(n\) llegadas en\((0, t]\).

    Para\( t \in [0, \infty) \), la función de densidad de probabilidad de\(N_t\) viene dada por

    \[ \P(N_t = n) = e^{-r t} \frac{(r t)^n}{n!}, \quad n \in \N \]
    Prueba

    Usando la relación inversa señalada anteriormente, y la integración por partes,\(n \in \N\) tenemos\[ \P(N_t \ge n) = \P(T_n \le t) = \int_0^t f_n(s) \, ds = 1 - \sum_{k=0}^{n-1} e^{-r t} \frac{(r t)^k}{k!}, \quad n \in \N \] Para tenemos\(\P(N_t = n) = \P(N_t \ge n) - \P(N_t \ge n + 1)\). Simplificar da el resultado.

    Tenga en cuenta que la distribución de\(N_t\) depende de los parámetros\(r\) y\(t\) sólo a través del producto\(r t\). La distribución se denomina distribución de Poisson con parámetro\(r t\).

    En el experimento de Poisson, variar\(r\) y\(t\) con las barras de desplazamiento y anotar la forma de la función de densidad de probabilidad. Para varios valores de\(r\) y\(t\), ejecute el experimento 1000 veces y compare la función de frecuencia relativa con la función de densidad de probabilidad.

    En general,\(\N\) se dice que una variable aleatoria que\(N\) toma valores tiene la distribución de Poisson con parámetro\(a \in (0, \infty)\) si tiene la función de densidad de probabilidad\[ g(n) = e^{-a} \frac{a^n}{n!}, \quad n \in \N \]

    1. \(g(n - 1) \lt g(n)\)si y sólo si\(n \lt a\).
    2. Si\(a \notin \N_+\), hay un solo modo en\(\lfloor a \rfloor\).
    3. Si\(a \in \N_+\), hay modos consecutivos en\(a - 1\) y\(a\).
    Prueba

    La parte (a) se desprende del álgebra simple, y de manera similar,\( g(n - 1) = g(n) \) si y sólo si\( n = a \) (y por lo tanto\( a \in \N_+ \)). Luego siguen las partes (b) y (c).

    La distribución de Poisson no tiene una distribución simple de forma cerrada ni funciones cuantiles. Trivialmente, podemos escribir la función de distribución como una suma de la función de densidad de probabilidad.

    La distribución de Poisson con parámetro\( a \) tiene función de distribución\( G \) dada por\[ G(n) = \sum_{k=0}^n e^{-a} \frac{a^k}{k!}, \quad n \in \N \]

    Abra la calculadora de distribución especial, seleccione la distribución de Poisson y seleccione la vista CDF. Varíe el parámetro y anote la forma de las funciones de distribución y cuantiles. Para diversos valores del parámetro, calcule los cuartiles.

    A veces es conveniente permitir que el parámetro\( a \) sea 0. Esta distribución degenerada de Poisson es simplemente masa puntual a 0. Es decir, con las convenciones habituales con respecto a las potencias enteras no negativas de 0, la función de densidad de probabilidad\( g \) anterior se reduce a\( g(0) = 1 \) y\( g(n) = 0 \) para\( n \in \N_+ \).

    Momentos

    Supongamos que\(N\) tiene la distribución de Poisson con parámetro\(a \gt 0\). Naturalmente queremos conocer la media, varianza, asimetría y curtosis, y la función generadora de probabilidad de\(N\). Los momentos más fáciles de calcular son los momentos factoriales. Para este resultado, recordar la notación de poder descendente para el número de permutaciones de tamaño\(k\) elegidas de una población de tamaño\(n\):\[ n^{(k)} = n (n - 1) \cdots [n - (k + 1)] \]

    El momento factorial\(N\) de orden\(k \in \N\) es\(\E\left[N^{(k)}\right] = a^k\).

    Prueba

    Usando la fórmula de cambio estándar de variables para el valor esperado,\[ \E[N^{(k)}] = \sum_{n=0}^\infty n^{(k)} e^{-a} \frac{a^n}{n!} = e^{-a} a^k \sum_{n=k}^\infty \frac{a^{n-k}}{(n-k)!} = e^{-a} a^k e^a = a^k \]

    La media y varianza de\(N\) son el parámetro\(a\).

    1. \(\E(N) = a\)
    2. \(\var(N) = a\)
    Prueba
    1. Esto se desprende directamente desde el primer momento factorial:\(\E(N) = \E\left[N^{(1)}\right] = a\).
    2. Tenga en cuenta que\(\E(N^2) = \E\left[N^{(2)}\right] + \E(N) = a^2 + a\).

    Abra el simulador de distribución especial y seleccione la distribución de Poisson. Varíe el parámetro y anote la ubicación y el tamaño de la barra de desviación\( \pm \) estándar media. Para los valores seleccionados del parámetro, ejecute la simulación 1000 veces y compare la media empírica y la desviación estándar con la media de distribución y la desviación estándar.

    La asimetría y curtosis de\( N \) son

    1. \( \skw(N) = 1 / \sqrt{a} \)
    2. \( \kur(N) = 3 - 5 / a \)
    Prueba

    Estos resultados se derivan de las fórmulas computacionales para asimetría y curtosis y los resultados para los momentos factoriales anteriores. Específicamente,

    1. \( E(N^3) = a^3 + 3 a^2 + a \)y\( \skw(N) = [\E(N^3) - 3 a^2 - a^3] / a^{3/2} \)
    2. \( \E(N^4) = a^4 + 6 a^3 + 7 a^2 - 5 a \)y\(\kur(N) = [\E(N^4) - 4 a \E(N^3) + 6 a^3 + 3 a^4] / a^2 \)

    Tenga en cuenta que la distribución de Poisson está sesgada positivamente, pero\( \skw(N) \to 0 \) como\( n \to \infty \). Recordemos también que el exceso de curtosis es\( \kur(N) - 3 = -5 /a \to 0 \) como\( n \to \infty \). Este límite está relacionado con la convergencia de la distribución de Poisson a la normal, que se discute a continuación.

    Abra el simulador de distribución especial y seleccione la distribución de Poisson. Varíe el parámetro y anote la forma de la función de densidad de probabilidad en el contexto de los resultados sobre asimetría y curtosis anteriores.

    La función de generación de probabilidad\( P \) de\(N\) viene dada por\[ P(s) = \E\left(s^N\right) = e^{a(s - 1)}, \quad s \in \R \]

    Prueba

    Usando nuevamente la fórmula de cambio de variables,\[ \E(s^N) = \sum_{n=0}^\infty s^n e^{-a} \frac{a^n}{n!} = e^{-a} \sum_{n=0}^\infty \frac{(a s)^n}{n!} = e^{-a} e^{a s}, \quad s \in \R \]

    Volviendo al proceso de conteo de Poisson\(\bs{N} = (N_t: t \ge 0)\) con parámetro de tasa\(r\), se deduce eso\(\E(N_t) = r t\) y\(\var(N_t) = r t\) para\(t \ge 0\). Una vez más, vemos que se\(r\) puede interpretar como la tasa promedio de llegada. En un intervalo de longitud\(t\), esperamos sobre\(r t\) llegadas.

    En el experimento de Poisson, variar\(r\) y\(t\) con las barras de desplazamiento y anotar la ubicación y tamaño de la barra de desviación\( \pm \) estándar media. Para diversos valores de\(r\) y\(t\), ejecute el experimento 1000 veces y compare la media de la muestra y la desviación estándar con la media de distribución y la desviación estándar, respectivamente.

    Estimación de la tasa

    Supongamos nuevamente que tenemos un proceso de Poisson con tasa\( r \in (0, \infty) \). En muchas situaciones prácticas, la tasa\(r\) es desconocida y debe estimarse con base en datos de observación. Para fijo\(t \gt 0\), un estimador natural de la tasa\(r\) es\(N_t / t\).

    La media y varianza de\(N_t / t\) son

    1. \(\E(N_t / t) = r\)
    2. \(\var(N_t / t) = r / t\)
    Prueba

    Estos resultados siguen fácilmente\(\E(N_t) = \var(N_t) = r t\) y propiedades básicas de valor esperado y varianza.

    La parte (a) significa que el estimador es imparcial. Como este es el caso, la varianza en la parte (b) da el error cuadrático medio. Ya que\(\var(N_t)\) disminuye a 0 as\(t \to \infty\), el estimador es consistente.

    Propiedades y conexiones adicionales

    Incrementos y Caracterizaciones

    Exploremos el supuesto básico de renovación del modelo de Poisson en términos del proceso de conteo\(\bs{N} = (N_t: t \ge 0)\). Recordemos que\(N_t\) es el número de llegadas en el intervalo\((0, t]\), por lo que se deduce que si\(s, \; t \in [0, \infty)\) con\(s \lt t\), entonces\(N_t - N_s\) es el número de llegadas en el intervalo\((s, t]\). Por supuesto, los tiempos de llegada tienen distribuciones continuas, por lo que la probabilidad de que ocurra una llegada en un punto específico\(t\) es 0. Así, realmente no importa si escribimos el intervalo anterior como\((s, t]\),\((s, t)\),\([s, t)\) o\([s, t]\).

    El proceso\(\bs{N}\) tiene incrementos estacionarios e independientes.

    1. Si\(s, \, t \in [0, \infty)\) con\(s \lt t\) entonces\(N_t - N_s\) tiene la misma distribución que\(N_{t-s}\), es decir, Poisson con parámetro\(r (t - s)\).
    2. Si\(t_1, \, t_2, \, t_3 \ldots \in [0, \infty)\) con\(t_1 \lt t_2 \lt t_3 \lt \cdots\) entonces\(\left(N_{t_1}, N_{t_2} - N_{t_1}, N_{t_3} - N_{t_2}, \ldots\right)\) es una secuencia independiente.

    Las declaraciones sobre los incrementos del proceso de conteo se pueden expresar de manera más elegante en términos de nuestro proceso de conteo más general. Recordemos que para\(A \subseteq [0, \infty)\) (medible por supuesto),\(N(A)\) denota el número de puntos aleatorios en\(A\):\[ N(A) = \#\left\{n \in \N_+: T_n \in A\right\} \] y así en particular,\( N_t = N(0, t] \). Por lo tanto, tenga en cuenta que\( t \mapsto N_t \) es una función de distribución (aleatoria) y\( A \mapsto N(A) \) es la medida (aleatoria) asociada a esta función de distribución. Recordemos también que\(\lambda\) denota la medida de longitud estándar (Lebesgue) en\([0, \infty)\). Aquí está nuestra tercera caracterización del proceso de Poisson.

    Un proceso de puntos aleatorios en el tiempo es un proceso de Poisson con tasa\( r \in (0, \infty) \) si y solo si se mantienen las siguientes propiedades:.

    1. Si\( A \subseteq [0, \infty) \) es medible entonces\( N(A) \) tiene la distribución de Poisson con parámetro\( r \lambda(A) \).
    2. si\( \{A_i: i \in I\} \) es una colección contable y disjunta de conjuntos medibles en\( [0, \infty) \) entonces\( \{N(A_i): i \in I\} \) es un conjunto de variables independientes.

    Desde el punto de vista del modelado, los supuestos de incrementos estacionarios e independientes son aquellos que podrían hacerse razonablemente. Pero la suposición de que los incrementos tienen distribuciones de Poisson no parece tan clara. Nuestra siguiente caracterización del proceso es más primitiva en cierto sentido, porque solo impone algunas suposiciones limitantes (además de incrementos estacionarios e independientes.

    Un proceso de puntos aleatorios en el tiempo es un proceso de Poisson con tasa\( r \in (0, \infty) \) si y solo si se mantienen las siguientes propiedades:

    1. Si\( A, \, B \subseteq [0, \infty) \) son medibles y\(\lambda(A) = \lambda(B)\), entonces\(N(A)\) y\(N(B)\) tienen la misma distribución.
    2. si\( \{A_i: i \in I\} \) es una colección contable y disjunta de conjuntos medibles en\( [0, \infty) \) entonces\( \{N(A_i): i \in I\} \) es un conjunto de variables independientes.
    3. Si\( A_n \subseteq [0, \infty) \) es medible y\(\lambda(A_n) \gt 0\) para\(n \in \N_+\), y si\(\lambda(A_n) \to 0\) como\(n \to \infty\) entonces\ begin {align} &\ frac {\ P\ left [N (a_N) = 1\ right]} {\ lambda (a_N)}\ to r\ text {as} n\ to\ infty\\ &\ frac {\ P\ left [N (a_n)\ gt 1\ right]} {\ lambda (a_N)}\ a 0\ texto {as} n\ a\ infty\ end {align}
    Prueba

    Como de costumbre, vamos\(N_t = N(0, t]\), el número de llegadas en\( (0, t] \), y además dejar\(P_n(t) = \P(N_t = n)\) para\(t \ge 0\) y\(n \in \N\). Obsérvese primero que\(P_0\) satisface la siguiente ecuación diferencial y condición inicial:\[ P_0^\prime(t) = -r P_0(t), \; t \gt 0; \quad P_0(0) = 1 \] De ahí\(P_0(t) = e^{-r t}\) para\(t \ge 0\). Siguiente para\(n \in \N_+\),\(P_n\) satisface la siguiente ecuación diferencial y condición inicial\[P_n^\prime(t) = -r P_n(t) + r P_{n-1}(t), \; t \gt 0; \quad P_n(0) = 0 \] Por lo tanto\(P_n(t) = e^{-r t} (r t)^n / n!\) para\(t \ge 0\) y por lo tanto\(N_t\) tiene la distribución de Poisson con parámetro\(r t\).

    Por supuesto, la parte (a) es el supuesto estacionario y la parte (b) el supuesto de independencia. El primer límite en (c) a veces se llama propiedad de tasa y el segundo límite la propiedad de dispersión. En un pequeño intervalo de tiempo de longitud\( dt \), la probabilidad de un solo punto aleatorio es aproximadamente\( r \, dt \), y la probabilidad de dos o más puntos aleatorios es insignificante.

    Sumas

    Supongamos que\(N\) y\(M\) son variables aleatorias independientes, y que\(N\) tiene la distribución de Poisson con parámetro\(a \in (0, \infty)\) y\(M\) tiene la distribución de Poisson con parámetro\(b \in (0, \infty)\). Después\(N + M\) tiene la distribución de Poisson con parámetro\(a + b\).

    Prueba del proceso de Poisson

    Hay varias formas de probar este resultado, pero la que más perspicacia da es una prueba probabilística basada en el proceso de Poisson. Así supongamos que\(\bs{N} = (N_t: t \ge 0)\) es un proceso de conteo de Poisson con tasa 1. Podemos asociarnos\(N\) con\(N_a\) y\(M\) con\(N_{a + b} - N_a\), ya que éstas tienen las distribuciones correctas y son independientes. Pero entonces lo\(N + M\) es\(N_{a + b}\).

    Prueba de funciones de generación de probabilidad

    De nuestro resultado anterior,\( M \) tiene PGF\( P(s) = e^{a (s - 1)} \) para\( s \in \R \), y\( N \) tiene PGF\( Q(s) = e^{b(s-1)} \) para\( s \in \R \). De ahí\( M + N \) que tenga PGF\( P(s) Q(s) = e^{(a+b)(s-1)} \) para\( s \in \R \). Pero esta es la PGF de la distribución de Poisson con parámetro\( a + b \).

    Prueba de convolución

    De nuestros resultados anteriores,\( M \) tiene PDF\( g(n) = e^{-a} a^n / n! \) para\( n \in \N \), y\( N \) tiene PDF\( h(n) = e^{-b} b^n / n! \) para\( n \in \N \). De ahí que el PDF de\( M + N \) sea la convolución\( g * h \). Para\( n \in \N \),\[ (g * h)(n) = \sum_{k=0}^n g(k) h(n - k) = \sum_{k=0}^n e^{-a} \frac{a^k}{k!} e^{-b} \frac{b^{n-k}}{(n - k)!} = e^{-(a+b)} \frac{1}{n!} \sum_{k=0}^n \frac{n!}{k! (n - k)!} a^k b^{n-k}\] Por el teorema binomial, la última suma es\( (a + b)^n \).

    Del último teorema se deduce que la distribución de Poisson es infinitamente divisible. Es decir, una variable distribuida de Poisson se puede escribir como la suma de un número arbitrario de variables independientes, distribuidas idénticamente (de hecho también Poisson).

    Supongamos que\( N \) tiene la distribución de Poisson con parámetro\( a \in (0, \infty) \). Entonces for\( n \in \N_+ \),\( N \) tiene la misma distribución que\( \sum_{i=1}^n N_i \) donde\( (N_1, N_2, \ldots, N_n) \) son independientes, y cada uno tiene la distribución de Poisson con parámetro\( a / n \).

    Aproximación normal

    Debido a la representación como una suma de variables independientes, distribuidas idénticamente, no es sorprendente que la distribución de Poisson pueda aproximarse por la normal.

    Supongamos que\(N_t\) tiene la distribución de Poisson con parámetro\(t \gt 0\). Entonces la distribución de la variable a continuación converge a la distribución normal estándar como\(t \to \infty\). \[ Z_t = \frac{N_t - t}{\sqrt{t}} \]

    Prueba

    Como es habitual, podemos suponer que\((N_t: t \ge 0)\) es el proceso de conteo de Poisson con tasa 1. Tenga en cuenta que\(Z_t\) es simplemente la puntuación estándar asociada con\(N_t\). For\(n \in \N_+\),\(N_n\) es la suma de variables\(n\) independientes, cada una con la distribución de Poisson con el parámetro 1. Así, a partir del teorema del límite central, la distribución de\(Z_n\) converge a la distribución normal estándar como\(n \to \infty\). Por lo general\(t \in [0, \infty)\), es posible escribir\(Z_t = Z_n + W_t\) dónde\(n = \lfloor t \rfloor\) y\(W_t \to 0\) como\(t \to \infty\) (en probabilidad y por lo tanto en distribución).

    Así, si\(N\) tiene la distribución de Poisson con parámetro\(a\), y\(a\) es grande, entonces la distribución de\(N\) es aproximadamente normal con media\(a\) y desviación estándar\(\sqrt{a}\). Al usar la aproximación normal, debemos recordar usar la corrección de continuidad, ya que el Poisson es una distribución discreta.

    En el experimento de Poisson, set\(r = t = 1\). Aumente\(t\) y observe cómo la gráfica de la función de densidad de probabilidad se vuelve más en forma de campana.

    Exponencial General

    La distribución de Poisson es un miembro de la familia exponencial general de distribuciones. Este hecho es importante en diversos procedimientos estadísticos.

    Supongamos que\(N\) tiene la distribución de Poisson con parámetro\(a \in (0, \infty)\). Esta distribución es una familia exponencial de un parámetro con parámetro natural\(\ln(a)\) y estadística natural\(N\).

    Prueba

    Esto se desprende de la forma del PDF de Poisson:\[ g(n) = e^{-a} \frac{a^n}{n!} = \frac{e^{-a}}{n!} \exp\left[n \ln (a)\right], \quad n \in \N \]

    La distribución uniforme

    El proceso de Poisson tiene algunas conexiones básicas con la distribución uniforme. Considera de nuevo el proceso de Poisson con tasa\(r \gt 0\). Como es habitual,\(\bs{T} = (T_0, T_1, \ldots)\) denota la secuencia de tiempo de llegada y\(\bs{N} = (N_t: t \ge 0)\) el proceso de conteo.

    Para\(t \gt 0\), la distribución condicional de\(T_1\) dado\(N_t = 1\) es uniforme en el intervalo\((0, t]\).

    Prueba

    Dado\(N_t = 1\) (una llegada en\((0, t]\)) la hora de llegada\(T_1\) toma valores en\((0, t]\). A partir de propiedades de incrementos independientes y estacionarios,\[ \P(T_1 \le s \mid N_t = 1) = \P(N_s = 1, N_t - N_s = 0 \mid N_t = 1) = \frac{\P(N_s = 1, N_t - N_s = 0)}{\P(N_t = 0)} = \frac{\P(N_s = 1) \P(N_t - N_s = 0)}{\P(N_t = 1)}\] Por lo tanto, usando la distribución de Poisson,\[ \P(T_1 \le s \mid N_t = 1) = \frac{e^{-r\,s} s e^{-r(t - s)}}{e^{-r\,t} t} = \frac{s}{t}, \quad 0 \lt s \le t \]

    De manera más general, para\(t \gt 0\) y\(n \in \N_+\), la distribución condicional de\((T_1, T_2, \ldots, T_n)\) dado\(N_t = n\) es la misma que la distribución de las estadísticas de orden de una muestra aleatoria de tamaño\(n\) a partir de la distribución uniforme en el intervalo\((0, t]\).

    Prueba heurística

    Supongamos que\( 0 \lt t_1 \lt t_2 \lt t_n \lt t \). En el evento\( N_t = n \), la densidad de probabilidad de\( (T_1, T_2, \ldots, T_n) \) at\( (t_1, t_2, \ldots, t_n) \) es la función de densidad de probabilidad de tiempos independientes entre llegadas\( \left(t_1, t_2 - t_1, \ldots, t_n - t_{n-1}\right) \) veces la probabilidad de no llegadas en el intervalo\((t_n, t) \). De ahí dada\( N_t = n \), la densidad condicional de\( (T_1, T_2, \ldots, T_n) \) at\( (t_1, t_2, \ldots, t_n) \) es\[ \frac{r e^{- r t_1} r e^{-r (t_2 - t_1)} \cdots r e^{-r(t_n - t_{n-1})} e^{-r(t - t_n)}}{e^{-r t} (r t)^n \big/n!} = \frac{n!}{t^n} \] Pero esta es la PDF de las estadísticas de orden a partir de una muestra de tamaño\( n \) a partir de la distribución uniforme en adelante\( [0, t] \).

    Tenga en cuenta que la distribución condicional en el último resultado es independiente de la tasa\(r\). Esto significa que, en cierto sentido, el modelo de Poisson da la distribución más aleatoria de puntos en el tiempo.

    La distribución binomial

    La distribución de Poisson tiene importantes conexiones con la distribución binomial. Primero consideramos una distribución condicional basada en el número de llegadas de un proceso de Poisson en un intervalo dado, como hicimos en la última subsección.

    Supongamos que\( (N_t: t \in [0, \infty)) \) es un proceso de conteo de Poisson con tasa\( r \in (0, \infty) \). Si\( s, \, t \in (0, \infty) \) con\( s \lt t \), y\(n \in \N_+\), entonces la distribución condicional de\(N_s\) dado\(N_t = n\) es binomial con parámetro de ensayo\(n\) y parámetro de éxito\(p = s / t\).

    Prueba

    Tenga en cuenta que dado\(N_t = n\), el número de llegadas\(N_s\) en\((0, s]\) toma valores en\(\{0, 1 \ldots, n\}\). Nuevamente, las propiedades de los incrementos estacionarios e independientes son críticos para la prueba. \[ \P(N_s = k \mid N_t = n) = \frac{\P(N_s = k, N_t = n)}{\P(N_t = n)} = \frac{\P(N_s = k, N_t - N_s = n - k)}{\P(N_t = n)} = \frac{\P(N_s = k) \P(N_t - N_s = n - k)}{\P(N_t = n)} \]Subsitituting en los PDF de Poisson da\[ \P(N_s = k \mid N_t = n) = \frac{\left(e^{-r s}(r s)^k / k!\right)\left(e^{-r(t-s)}[(r(t - s)]^{n-k}/(n - k)!\right)}{e^{-r t}(r t)^n / n!} = \frac{n!}{k! (n - k)!} \left(\frac{s}{t}\right)^k \left(1 - \frac{s}{t}\right)^{n-k}\]

    Obsérvese nuevamente que la distribución condicional en el último resultado no depende de la tasa\(r\). Dado\( N_t = n \), cada una de las\( n \) llegadas, independientemente de las otras, cae en el intervalo\( (0, s] \) con probabilidad\( s / t \) y en el intervalo\( (s, t] \) con probabilidad\( 1 - s / t = (t - s) / t \). Aquí está esencialmente el mismo resultado, fuera del contexto del proceso de Poisson.

    Supongamos que\( M \) tiene la distribución de Poisson con parámetro\( a \in (0, \infty) \),\( N \) tiene la distribución de Poisson con parámetro\( b \in (0, \infty) \), y eso\( M \) y\( N \) son independientes. Entonces la distribución condicional de\( M \) dado\( M + N = n \) es binomial con parámetros\( n \) y\( p = a / (a + b) \).

    Prueba

    La prueba es esencialmente la misma que el teorema anterior, con modificaciones menores. Primer recuerdo del resultado anterior que\( M + N \) tiene la distribución de Poisson con parámetro\( a + b \). Para\( n, \, k \in \N \) con\( k \le n \),\[ \P(M = k \mid M + N = n) = \frac{\P(M = k, M + N = n)}{\P(M + N = n)} = \frac{\P(M = k, N = n - k)}{\P(N + M = n)} = \frac{\P(M = k) \P(N = n - k)}{\P(M + N = n)} \] Subsitituting en los PDF de Poisson da\[ \P(M = k \mid M + N = n) = \frac{\left(e^{-a} a^k / k!\right)\left(e^{-b} b^{n-k}/(n - k)!\right)}{e^{-(a + b)}(a + b)^n / n!} = \frac{n!}{k! (n - k)!} \left(\frac{a}{a + b}\right)^k \left(1 - \frac{a}{a + b}\right)^{n-k}\]

    Más importante aún, la distribución de Poisson es el límite de la distribución binomial en cierto sentido. Como veremos, este resultado de convergencia está relacionado con la analogía entre el proceso de los ensayos de Bernoulli y el proceso de Poisson que discutimos en la Introducción, la sección sobre los tiempos entre llegadas y la sección sobre los tiempos de llegada.

    Supongamos que\( p_n \in (0, 1) \) para\( n \in \N_+ \) y que\( n p_n \to a \in (0, \infty) \) como\( n \to \infty \). Entonces la distribución binomial con parámetros\(n\) y\(p_n\) converge a la distribución de Poisson con parámetro\(a\) as\(n \to \infty\). Es decir, para fijo\(k \in \N\),\[ \binom{n}{k} p_n^k (1 - p_n)^{n-k} \to e^{-a} \frac{a^k}{k!} \text{ as } n \to \infty \]

    Prueba directa

    El PDF binomial con parámetros\( n \) y\( p_n \) at se\( k \in \{0, 1, \ldots, n\} \) puede escribir como\[ \frac{1}{k!}\left[n p_n\right]\left[(n - 1) p_n\right] \cdots \left[(n - k + 1) p_n\right] \left(1 - n \frac{p_n}{n}\right)^{n-k} \] Pero en\((n - j) p_n \to a\)\(n \to \infty\) cuanto a fijo\(j\). También, utilizando un teorema básico a partir del cálculo,\(\left(1 - n p_n / n\right)^{n-k} \to e^{-a}\) como\(n \to \infty\).

    Prueba de la generación de funciones

    Una prueba más fácil utiliza funciones de generación de probabilidad. Para\(s \in \R\), usando el mismo límite básico del cálculo,\[ \left[(1 - p_n) + p_n s\right]^n \to e^{a(s - 1)} \text{ as } n \to \infty \] El lado izquierdo es el PGF de la distribución binomial con parámetros\( n \) y\( p_n \), mientras que el lado derecho es el PGF de la distribución de Poisson con parámetro\( a \).

    La media y varianza de la distribución binomial convergen a la media y varianza de la distribución limitante de Poisson, respectivamente.

    1. \(n p_n \to a\)como\(n \to \infty\)
    2. \(n p_n (1 - p_n) \to a\)como\(n \to \infty\)

    Por supuesto, la convergencia de los medios es precisamente nuestra suposición básica, y es una prueba más de que ésta es la suposición esencial. Pero para una mirada más profunda, volvamos a la analogía entre el proceso de los juicios de Bernoulli y el proceso de Poisson. Recordemos que ambos tienen la fuerte propiedad de renovación que en cada hora fija, y en cada hora de llegada, el proceso estocásticamente comienza de nuevo, independientemente del pasado. La diferencia, por supuesto, es que el tiempo es discreto en el proceso de ensayos de Bernoulli y continuo en el proceso de Poisson. El resultado de convergencia es un caso especial del hecho más general de que si ejecutamos los ensayos de Bernoulli a un ritmo cada vez más rápido pero con una probabilidad de éxito cada vez menor, de la manera correcta, el proceso de ensayos de Bernoulli converge al proceso de Poisson. Específicamente, supongamos que tenemos una secuencia de procesos de ensayos de Bernoulli. En proceso\(n\) realizamos los ensayos a una tasa\(n\) por unidad de tiempo, con probabilidad de éxito\(p_n\). Nuestra suposición básica es que\(n p_n \to r\) como\(n \to \infty\) dónde\(r \gt 0\). Ahora vamos a\(Y_{n,t}\) denotar el número de éxitos en el intervalo de tiempo\((0,t]\) para el proceso de ensayos de Bernoulli\(n\), y vamos a\(N_t\) denotar el número de llegadas en este intervalo para el proceso de Poisson con tasa\( r \). Después\( Y_{n,t} \) tiene la distribución binomial con parámetros\(\lfloor n t \rfloor\) y\(p_n\), y por supuesto\( N_t \) tiene la distribución de Poisson con parámetro\( r t \).

    Para\(t \gt 0\), la distribución de\(Y_{n,t}\) converge a la distribución de\(N_t\) as\(n \to \infty\).

    Prueba

    Tenga en cuenta eso\( n t - 1 \lt \lfloor n t \rfloor \le n t \) y por lo tanto\( n p_n t - p_n \lt \lfloor n t \rfloor p_n \le n p_n t \). Desde\( n p_n \to r \) y\( p_n \to 0 \) como\( n \to \infty \), se desprende del teorema de squeeze para los límites que\( \lfloor n t \rfloor p_n \to r t \) como\( n \to \infty \). Así, el resultado se desprende de nuestro anterior teorema de convergencia.

    Comparar el experimento de Poisson y el experimento de línea de tiempo binomial.

    1. Abra el experimento de Poisson y establezca\( r = 1 \) y\( t = 5 \). Ejecute el experimento varias veces y anote el comportamiento general de los puntos aleatorios en el tiempo. Observe también la forma y ubicación de la función de densidad de probabilidad y la barra de desviación\( \pm \) estándar media.
    2. Ahora abre el experimento de línea de tiempo binomial y establece\( n = 100 \) y\( p = 0.05 \). Ejecute el experimento varias veces y anote el comportamiento general de los puntos aleatorios en el tiempo. Observe también la forma y ubicación de la función de densidad de probabilidad y la barra de desviación\( \pm \) estándar media.

    Desde un punto de vista práctico, la convergencia de la distribución binomial al Poisson significa que si el número de ensayos\(n\) es grande y la probabilidad de éxito\(p\) pequeña, entonces esa\(n p^2\) es pequeña, entonces la distribución binomial con parámetros\(n\) y\(p\) se aproxima bien por la distribución de Poisson con parámetro\(r = n p\). Esto suele ser un resultado útil, ya que la distribución de Poisson tiene menos parámetros que la distribución binomial (y a menudo en problemas reales, los parámetros solo pueden conocerse aproximadamente). Específicamente, en la distribución aproximada de Poisson, no necesitamos conocer el número de ensayos\(n\) y la probabilidad de éxito\(p\) individualmente, sino solo en el producto\(n p\). La condición que\(n p^2\) sea pequeña significa que la varianza de la distribución binomial,\(n p (1 - p) = n p - n p^2\) es decir, es aproximadamente\(r = n p\), la varianza de la distribución aproximada de Poisson.

    Recordemos que la distribución binomial también puede aproximarse por la distribución normal, en virtud del teorema del límite central. La aproximación normal funciona bien cuando\(n p\) y\(n (1 - p)\) son grandes; la regla general es que ambas deben ser al menos 5. La aproximación de Poisson funciona bien, como ya hemos señalado, cuando\(n\) es grande y\( n p^2 \) pequeña.

    Ejercicios Computacionales

    Supongamos que las solicitudes a un servidor web siguen el modelo de Poisson con tasa\(r = 5\) por minuto. Encuentra la probabilidad de que haya al menos 8 solicitudes en un periodo de 2 minutos.

    Contestar

    0.7798

    Los defectos en cierto tipo de cable siguen el modelo de Poisson con una tasa de 1.5 por metro. Encuentra la probabilidad de que no haya más de 4 defectos en una pieza de 2 metros del cable.

    Contestar

    0.8153

    Supongamos que los clientes llegan a una estación de servicio según el modelo de Poisson, a una tasa de\(r = 4\). Encuentra la media y desviación estándar del número de clientes en un periodo de 8 horas.

    Contestar

    32, 5.657

    En el experimento de Poisson, set\(r = 5\) y\(t = 4\). Ejecute el experimento 1000 veces y calcule lo siguiente:

    1. \(\P(15 \le N_4 \le 22) \)
    2. La frecuencia relativa del evento\(\{15 \le N_4 \le 22\}\).
    3. La aproximación normal a\(\P(15 \le N_4 \le 22)\).
    Contestar
    1. 0.6157
    2. 0.6025

    Supongamos que las solicitudes a un servidor web siguen el modelo de Poisson con tasa\(r = 5\) por minuto. Calcular la aproximación normal a la probabilidad de que haya al menos 280 solicitudes en un periodo de 1 hora.

    Contestar

    0.8818

    Supongamos que las solicitudes a un servidor web siguen el modelo de Poisson, y que 1 solicitud viene en un periodo de cinco minutos. Encuentra la probabilidad de que la solicitud haya llegado durante los primeros 3 minutos del periodo.

    Contestar

    0.6

    Supongamos que las solicitudes a un servidor web siguen el modelo de Poisson, y que 10 solicitudes llegan durante un periodo de 5 minutos. Encuentra la probabilidad de que al menos 4 solicitudes hayan llegado durante los primeros 3 minutos del periodo.

    Contestar

    0.9452

    En el experimento de Poisson, set\(r = 3\) y\(t = 5\). Ejecutar el experimento 100 veces.

    1. Para cada ejecución, calcule la estimación de\(r\) con base en\(N_t\).
    2. A lo largo de las 100 corridas, computa el promedio de los cuadrados de los errores.
    3. Comparar el resultado en (b) con\( \var(N_t) \).

    Supongamos que las solicitudes a un servidor web siguen el modelo de Poisson con tasa desconocida\(r\) por minuto. En un periodo de una hora, el servidor recibe 342 solicitudes. Estimación\(r\).

    Contestar

    \(r = 5.7\)por minuto

    En el experimento binomial, establecer\(n = 30\) y\(p = 0.1\), y ejecutar la simulación 1000 veces. Calcule y compare cada uno de los siguientes:

    1. \(\P(Y_{30} \le 4)\)
    2. La frecuencia relativa del evento\(\{Y_{30} \le 4\}\)
    3. La aproximación de Poisson a\(\P(Y_{30} \le 4)\)
    Contestar
    1. 0.8245
    2. 0.8153

    Supongamos que tenemos 100 chips de memoria, cada uno de los cuales es defectuoso con probabilidad 0.05, independientemente de los demás. Aproximar la probabilidad de que haya al menos 3 defectos en el lote.

    Contestar

    0.7350

    En el experimento de línea de tiempo binomial, establezca\(n = 40\)\(p = 0.1\) y ejecute la simulación 1000 veces. Calcule y compare cada uno de los siguientes:

    1. \(\P(Y_{40} \gt 5)\)
    2. La frecuencia relativa del evento\(\{Y_{40} \gt 5\}\)
    3. La aproximación de Poisson a\(\P(Y_{40} \gt 5)\)
    4. La aproximación normal a\(\P(Y_{40} \gt 5)\)
    Contestar
    1. 0.2063
    2. 0.2149
    3. 0.2146

    En el experimento de línea de tiempo binomial, establezca\(n = 100\)\(p = 0.1\) y ejecute la simulación 1000 veces. Calcule y compare cada uno de los siguientes:

    1. \(\P(8 \lt Y_{100} \lt 15)\)
    2. La frecuencia relativa del evento\(\{8 \lt Y_{100} \lt 15\}\)
    3. La aproximación de Poisson a\(\P(8 \lt Y_{100} \lt 15)\)
    4. La aproximación normal a\(\P(8 \lt Y_{100} \lt 15)\)
    Contestar
    1. 0.6066
    2. 0.5837
    3. 0.6247

    Un archivo de texto contiene 1000 palabras. Supongamos que cada palabra, independientemente de las demás, está mal escrita con probabilidad\(p\).

    1. Si\(p = 0.015\), aproximar la probabilidad de que el archivo contenga al menos 20 palabras mal escritas.
    2. Si\(p = 0.001\), aproximar la probabilidad de que el archivo contenga al menos 3 palabras mal escritas.
    Contestar

    La verdadera distribución del número de palabras mal escritas es binomial, con\( n = 1000 \) y\( p \).

    1. La aproximación normal (con\( \mu = n p = 15 \) y\( \sigma^2 = n p (1 - p) = 14.775 \)) es 0.120858. La aproximación de Poisson (con parámetro\( n p = 15 \)) es 0.124781. La verdadera probabilidad binomial es 0.123095.
    2. La aproximación de Poisson (con parámetro\( n p = 1 \)) es 0.0803014. La verdadera probabilidad binomial es 0.0802093.

    This page titled 14.4: La distribución de Poisson is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.