Saltar al contenido principal
LibreTexts Español

2.2: Definición y propiedades de un proceso de Poisson

  • Page ID
    86210
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Un proceso de Poisson es un ejemplo de un proceso de llegada, y los tiempos de interllegada proporcionan la descripción más conveniente ya que los tiempos de interllegada se definen como IID. Los procesos con tiempos de interllegada del IID son particularmente importantes y forman el tema del Capítulo 3.

    Definición 2.2.1: Procesos de Renovación

    Un proceso de renovación es un proceso de llegada para el cual la secuencia de tiempos de interllegada es una secuencia de IID rv.

    Definición 2.2.2: Procesos de Poisson

    Un proceso de Poisson es un proceso de renovación en el que los intervalos interllegados tienen una función de distribución exponencial; es decir, para algunos reales\(\lambda>0\), cada uno\(X_{i}\) tiene la densidad 4\(\mathrm{f}_{X}(x)=\lambda \exp (-\lambda x) \text { for } x \geq 0\).

    El parámetro\(\lambda\) se llama la tasa del proceso. Veremos más adelante que para cualquier intervalo de tamaño\(t\),\(\lambda t\) es el número esperado de llegadas en ese intervalo. Así\(\lambda\) se llama la tasa de llegada del proceso.

    Propiedad sin memoria

    Lo que hace que el proceso de Poisson sea único entre los procesos de renovación es la propiedad sin memoria de la distribución exponencial.

    Definición 2.2.3: Palabra

    Variables aleatorias sin memoria:\(A\) rv\(X\) posee la propiedad sin memoria si\(\operatorname{Pr}\{X>0\}=1\), (es decir,\(X\) es un rv positivo) y, para cada\(x \geq 0\) y\(t \geq 0\),

    \[\operatorname{Pr}\{X>t+x\}=\operatorname{Pr}\{X>x\} \operatorname{Pr}\{X>t\}\label{2.4} \]

    Tenga en cuenta que\ ref {2.4} es una declaración sobre la función de distribución complementaria de\(X\). No hay insinuación de que el evento\(\{X>t+x\}\) en la ecuación tenga alguna relación particular con los eventos\(\{X>t\}\) o\(\{X>x\}\).

    Para una rv exponencial\(X\) de tasa\(\lambda>0\),\(\operatorname{Pr}\{X>x\}=e^{-\lambda x}\) para\(x \geq 0\). Esto satisface\ ref {2.4} para todos\(x \geq 0\),\(t \geq 0\), así\(X\) es sin memoria. Por el contrario, un rv\(X\) arbitrario no tiene memoria solo si es exponencial. Para ver esto, vamos\(h(x)=\ln [\operatorname{Pr}\{X>x\}]\) y observemos que ya no\(\operatorname{Pr}\{X>x\}\) está aumentando en\(x\), también\(h(x)\) lo es. Además,\ ref {2.4} dice que\(h(t+x)=h(x)+h(t)\) para todos\(x\),\(t \geq 0\). Estas dos afirmaciones (ver Ejercicio 2.6) implican que\(h(x)\) debe ser lineal en\(x\), y\(\operatorname{Pr}\{X>x\}\) debe ser exponencial en\(x\).

    Ya que un rv sin memoria\(X\) debe ser exponencial,\(\operatorname{Pr}\{X>t\}>0\) para todos\(t \geq 0\). Esto significa que podemos reescribir\ ref {2.4} como

    \[\operatorname{Pr}\{X>t+x \mid X>t\}=\operatorname{Pr}\{X>x\}\label{2.5} \]

    Si\(X\) se interpreta como el tiempo de espera hasta alguna llegada dada, entonces\ ref {2.5} establece que, dado que la llegada no ha ocurrido por tiempo\(t\), la distribución del tiempo de espera restante (dada por\(x\) en el lado izquierdo de (2.5)) es la misma que la distribución del tiempo de espera original (dado en el lado derecho de (2.5)), es decir, el tiempo de espera restante no tiene 'memoria' de espera previa.

    Ejemplo 2.2.1

    Supongamos que\(X\) es el tiempo de espera, comenzando en el tiempo 0, para que llegue un autobús, y supongamos\(X\) que no tiene memoria. Después de esperar de 0 a\(t\), la distribución del tiempo de espera restante de\(t\) es la misma que la distribución original a partir de 0. El cliente que sigue esperando, en cierto sentido, no está mejor en el momento\(t\) que en el tiempo 0. Por otro lado, si se sabe que el autobús llega regularmente cada 16 minutos, entonces seguramente llegará en un minuto, y no\(X\) carece de memoria. La situación opuesta también es posible. Si el autobús se descompone frecuentemente, entonces una espera de 15 minutos puede indicar que la espera restante es probablemente muy larga, por lo que nuevamente X no carece de memoria. Estudiamos estas situaciones sin memoria cuando estudiamos los procesos de renovación en el siguiente capítulo.

    Solución

    Aunque las distribuciones sin memoria deben ser exponenciales, se puede ver que si la definición de sin memoria se restringe a tiempos enteros, entonces la distribución geométrica se vuelve sin memoria, y se puede ver como antes que esta es la única distribución de tiempo entero sin memoria. En este sentido, el proceso de Bernoulli (que tiene tiempos geométricos de interllegada) es como una versión de tiempo discreto del proceso de Poisson (que tiene tiempos de interllegada exponenciales).

    Ahora utilizamos la propiedad sin memoria de los rv exponenciales para encontrar la distribución de la primera llegada a un proceso de Poisson después de un tiempo dado arbitrario\(t>0\). No solo encontramos esta distribución, sino que también mostramos que esta primera llegada después de t es independiente de todas las llegadas hasta e incluyendo\(t\). Más precisamente, demostramos el siguiente teorema.

    Teorema 2.2.1.

    Para un proceso de Poisson de tasa\(\lambda\), y cualquiera dado\(t>0\), la longitud del intervalo desde\(t\) hasta la primera llegada después\(t\) es una rv no negativa\(Z\) con la función de distribución\(1-\exp [-\lambda z]\) para\(z \geq 0\). Este rv es independiente de todas las épocas de llegada antes de tiempo\(t\) e independiente del conjunto de rv\(\{N(\tau) ; \tau \leq t\}\).

    La idea básica detrás de este teorema es señalar que\(Z\), condicionado a la hora\(\mathcal{T}\) de la última llegada anterior\(t\), es simplemente el tiempo restante hasta la siguiente llegada. Dado que el tiempo de interllegada a partir de\(\mathcal{T}\) es exponencial y, por lo tanto, sin memoria,\(Z\) es independiente de\(\tau \leq t\), y de todas las llegadas anteriores. La siguiente prueba lleva a cabo esta idea en detalle.

    Screen Shot 2021-08-19 a las 11.50.03 PM.png
    Figura 2.2: Para fijos arbitrarios\(t>0\), considere el evento\(N(t)=0\). Condicional a este evento,\(Z\) es la distancia de\(t\) a\(S_{1}\); es decir,\(Z=X_{1}-t\).

    Prueba:

    Dejar\(Z\) ser la distancia desde\(t\) hasta la primera llegada después\(t\). Primero condicionamos\(N(t)=0\) (ver Figura 2.2). Dado\(N(t)=0\), vemos que\(X_{1}>t\) y\(Z=X_{1}-t\). Por lo tanto,

    \ (\ begin {alineado}
    \ nombreoperador {Pr}\ {z>z\ mid N (t) =0\} &=\ nombreoperador {Pr}\ left\ {X_ {1} >z+t\ mid N (t) =0\ right\}\\
    &=\ operatorname {Pr}\ left\ {X_ {1} >z+t\ mid X_ {1} >t\ derecha\} & (2.6)\\
    &=\ nombreoperador {Pr}\ izquierda\ {X_ {1} >z\ derecha\} =e^ {-\ lambda z} & (2.7)
    \ end {alineado}\)

    En (2.6), se utilizó el hecho de que\(\{N(t)=0\}=\left\{X_{1}>t\right\}\), lo cual queda claro a partir de la Figura 2.1 (y también de (2.3)). En\ ref {2.7} usamos la condición sin memoria en\ ref {2.5} y el hecho de que\(X_{1}\) es exponencial.

    A continuación considere las condiciones que\(N(t)=n\) (para arbitrarias\(n>1\)) y\(S_{n}=\tau\) (para arbitrarias\(\tau \leq t\)). El argumento aquí es básicamente el mismo que el de\(N(t)=0\), con algunos detalles adicionales (ver Figura 2.3).

    Screen Shot 2021-08-20 a las 12.24.26 PM.png
    Figura 2.3: Dado\(N(t)=2\), y\(S_{2}=\tau\),\(X_{3}\) es igual a\(Z+(t-\tau)\). Además, el evento\(\left\{N(t)=2, S_{2}=\tau\right\}\) es el mismo que el evento\(\left\{S_{2}=\tau, X_{3}>t-\tau\right\}\).

    Condicional a\(N(t)=n\) y\(S_{n}=\tau\), la primera llegada después\(t\) es la primera llegada después de la llegada a\(S_{n}\), es decir,\(Z=z\) corresponde a\(X_{n+1}=z+(t-\tau)\).

    \ (\ begin {alineado}
    \ nombreoperador {Pr}\ izquierda\ {z>z\ mid N (t) =n, S_ {n} =\ tau\ derecha\} &=\ nombreoperador {Pr}\ izquierda\ {X_ {n+1} >z+t-\ tau\ mid N (t) =n, S_ {n} =\ tau\ derecha\} & (2.8)\\
    &=\ nombreoperador {Pr}\ izquierda\ {X_ {n+1} >z+t-\ tau\ mediados de X_ {n+1} >t-\ tau, S_ {n} =\ tau\ derecha\} & (2.9)\\
    &=\ nombreoperador {Pr}\ izquierda\ {X_ {n+1} >z+t-\ tau\ mediados X_ {n+1} >t-\ tau\ derecha\} & (2.10)\\
    &=\ nombreoperador {Pr}\ izquierda\ {X_ {n+1} >z\ derecha\} =e^ {-\ lambda z} & (2.11)
    \ end {alineado}\)

    donde sigue\ ref {2.9} porque, dado\(S_{n}=\tau \leq t\), tenemos\(\{N(t)=n\}=\left\{X_{n+1}>t-\tau\right\}\) (ver Figura 2.3). Eq. \ ref {2.10} sigue porque\(X_{n+1}\) es independiente de\(S_{n}\). Eq. \ ref {2.11} se desprende de la condición sin memoria en\ ref {2.5} y el hecho de que\(X_{n+1}\) es exponencial.

    El mismo argumento se aplica si, en (2.8), condicionamos no sólo en\(S_{n}\) sino también en\(S_{1}, \ldots, S_{n-1}\). Dado que esto es equivalente a condicionar\(N(\tau)\) para todos\(\tau\) en\((0, t]\), tenemos

    \[\operatorname{Pr}\{Z>z \mid\{N(\tau), 0<\tau \leq t\}\}=\exp (-\lambda z)\label{2.12} \]

    A continuación, considere los intervalos posteriores entre llegadas después de un tiempo dado\(t\). Para\(m \geq 2\), deja\(Z_{m}\) ser el intervalo entre llegadas desde la época de\(m-1 \mathrm{st}\) llegada después\(t\) hasta la época de llegada posterior a la\(m\) ésima época de llegada posterior\(t\). Vamos\(Z\)\ ref {2.12} ser denotado como\(Z_{1}\) aquí. Dado\(N(t)=n\) y\(S_{n}=\tau\), vemos que\(Z_{m}=X_{m+n}\) para\(m \geq 2\), y por lo tanto\(Z_{1}\)\(Z_{2}\),,.,., son IID rv distribuidos exponencialmente, condicionados a\(N(t)=n\) y\(S_{n}=\tau\) (ver Ejercicio 2.8). Ya que esto es independiente de\(N(t)\) y\(S_{n}\), vemos que\(Z_{1}, Z_{2}, \ldots\) son incondicionalmente IID y también independientes de\(N(t)\) y\(S_{n}\). También debe quedar claro que\(Z_{1}, Z_{2}, \ldots\) son independientes de\(\{N(\tau) ; 0<\tau \leq t\}\).

    El argumento anterior muestra que la porción de un proceso de Poisson que comienza en un tiempo arbitrario\(t>0\) es una réplica probabilística del proceso que comienza en 0; es decir, el tiempo hasta la primera llegada después\(t\) es una rv distribuida exponencialmente con parámetro\(\lambda\), y todas las llegadas posteriores son independientes de esta primera llegada y unos de otros y todos tienen la misma distribución exponencial.

    Definición 2.2.4.

    Un proceso de conteo\(\{N(t) ; t>0\}\) tiene la propiedad de incremento estacionario si para cada uno\(t^{\prime}>t>0, N\left(t^{\prime}\right)-N(t)\) tiene la misma función de distribución que\(N\left(t^{\prime}-t\right)\).

    Definamos\(\tilde{N}\left(t, t^{\prime}\right)=N\left(t^{\prime}\right)-N(t)\) como el número de llegadas en el intervalo\(\left(t, t^{\prime}\right]\) para cualquier dado\(t^{\prime} \geq t\). Acabamos de demostrar que para un proceso de Poisson, el rv\(\widetilde{N}\left(t, t^{\prime}\right)\) tiene la misma distribución que\(N\left(t^{\prime}-t\right)\), lo que significa que un proceso de Poisson tiene la propiedad de incremento estacionario. Así, la distribución del número de llegadas en un intervalo depende del tamaño e del intervalo pero no de su punto de partida.

    Definición 2.2.5.

    Un proceso de conteo\(\{N(t) ; t>0\}\) tiene la propiedad de incremento independiente si, para cada entero\(k>0\), y cada k-tupla de veces\(0<t_{1}<t_{2}<\cdots<t_{k}\), la k-tupla de rv\(N\left(t_{1}\right)\)\(\widetilde{N}\left(t_{1}, t_{2}\right)\),.,.,\(\tilde{N}\left(t_{k-1}, t_{k}\right)\) de rv son estadísticamente independientes.

    Para el proceso de Poisson, el Teorema 2.2.1 dice que para cualquier\(t\), el tiempo\(Z_{1}\) hasta la siguiente llegada después\(t\) es independiente de\(N(\tau)\) para todos\(\tau \leq t\). Dejar\(t_{1}<t_{2}<\cdots t_{k-1}< t\), esto significa que\(Z_{1}\) es independiente de\(N\left(t_{1}\right), \tilde{N}\left(t_{1}, t_{2}\right), \ldots, \tilde{N}\left(t_{k-1}, t\right)\). También hemos visto que los posteriores tiempos de interllegada después\(Z_{1}\), y por lo tanto\(\widetilde{N}\left(t, t^{\prime}\right)\) son independientes de\(N\left(t_{1}\right), \widetilde{N}\left(t_{1}, t_{2}\right), \ldots, \widetilde{N}\left(t_{k-1}, t\right)\). Renombrar\(t\)\(t^{\prime}\) como\(t_{k}\) y como\(t_{k+1}\), vemos que\(\tilde{N}\left(t_{k}, t_{k+1}\right)\) es independiente de\(N\left(t_{1}\right), \widetilde{N}\left(t_{1}, t_{2}\right), \ldots, \widetilde{N}\left(t_{k-1}, t_{k}\right)\). Dado que esto es cierto e para todos\(k\), el proceso de Poisson tiene la propiedad de incremento independiente. En resumen, hemos demostrado la e siguiente:

    Teorema 2.2.2.

    Los procesos de Poisson tienen propiedades tanto de incremento estacionario como de incremento independiente.

    Tenga en cuenta que si miramos solo los tiempos enteros, entonces el proceso de Bernoulli también tiene las propiedades de incremento estacionario e independiente.

    Densidad de probabilidad de Sn y S1,. Sn

    Recordemos de\ ref {2.1} que, para un proceso de Poisson,\(S_{n}\) es la suma de\(n\) IID rv, cada uno con la función de densidad\(\mathrm{f}_{X}(x)=\lambda \exp (-\lambda x)\),\(x \geq 0\). Recordemos también que la densidad de la suma de dos rv independientes se puede encontrar al convolucionar sus densidades, y así la densidad de se\(S_{2}\) puede encontrar convolucionando\(\mathrm{f}_{X}(x)\) consigo misma,\(S_{3}\) convolucionando la densidad de\(S_{2}\) con\(f_{X}(x)\), y así sucesivamente. El resultado, para\(t \geq 0\), se llama la densidad Erlang, 5

    \[\mathrm{f}_{S_{n}}(t)=\frac{\lambda^{n} t^{n-1} \exp (-\lambda t)}{(n-1) !}\label{2.13} \]

    Podemos entender esta densidad (y otros asuntos relacionados) mucho mejor revisando la derivación mecánica anterior con más cuidado. La densidad de juntas para dos rv independientes continuas\(X_{1}\) y\(X_{2}\) viene dada por\(\mathrm{f}_{X_{1} X_{2}}\left(x_{1}, x_{2}\right)=\mathrm{f}_{X_{1}}\left(x_{1}\right) \mathrm{f}_{X_{2}}\left(x_{2}\right)\). Dejando\(S_{2}=X_{1}+X_{2}\) y sustituyendo\(S_{2}-X_{1}\)\(X_{2}\), obtenemos la siguiente densidad de juntas\(X_{1}\) y la suma\(S_{2}\),

    \(\mathrm{f}_{X_{1} S_{2}}\left(x_{1}, s_{2}\right)=\mathrm{f}_{X_{1}}\left(x_{1}\right) \mathrm{f}_{X_{2}}\left(s_{2}-x_{1}\right)\)

    La densidad marginal para\(S_{2}\) entonces resulta de la integración\(x_{1}\) a partir de la densidad articular, y esta, por supuesto, es la integración familiar de convolución. Para los rv exponenciales IID\(X_{1}, X_{2}\), la densidad conjunta de\(X_{1}, S_{2}\) toma la siguiente forma interesante:

    \[\mathrm{f}_{X_{1} S_{2}}\left(x_{1} s_{2}\right)=\lambda^{2} \exp \left(-\lambda x_{1}\right) \exp \left(-\lambda\left(s_{2}-x_{1}\right)\right)=\lambda^{2} \exp \left(-\lambda s_{2}\right) \quad\text { for } 0 \leq x_{1} \leq s_{2}\label{2.14} \]

    Esto dice que la densidad de juntas no contiene\(x_{1}\), salvo la restricción\(0 \leq x_{1} \leq s_{2}\). Así, para fijo\(s_{2}\), la densidad articular, y por lo tanto la densidad condicional de\(X_{1}\) dado\(S_{2}=s_{2}\) es uniforme sobre\(0 \leq x_{1} \leq s_{2}\). La integración\(x_{1}\) en la ecuación de convolución es entonces simplemente multiplicación por el tamaño del intervalo\(s_{2}\), produciendo la distribución marginal\(\mathrm{f}_{S_{2}}\left(s_{2}\right)=\lambda^2s_2\mathrm{exp}(-\lambda s_2)\), de acuerdo con\ ref {2.13} for\(n = 2\).

    Este mismo comportamiento curioso se exhibe por la suma de un número arbitrario\(n\) de rv exponenciales IID. es decir,\(\mathrm{f}_{X_{1} \cdots X_{n}}\left(x_{1}, \ldots, x_{n}\right)=\lambda^{n} \exp \left(-\lambda x_{1}-\lambda x_{2}-\cdots-\lambda x_{n}\right)\). Dejar\(S_{n}=X_{1}+\cdots+X_{n}\) y sustituir\(S_{n}-X_{1}-\cdots-X_{n-1}\)\(X_{n}\), esto se convierte

    \(\mathrm{f}_{X_{1} \cdots X_{n-1} S_{n}}\left(x_{1}, \ldots, x_{n-1}, s_{n}\right)=\lambda^{n} \exp \left(-\lambda s_{n}\right)\)

    ya que cada uno\(x_{i}\) cancela arriba. Esta ecuación es válida sobre la región donde cada\(x_{i} \geq 0\) y\(s_{n}-x_{1}-\cdots-x_{n-1} \geq 0\). La densidad es 0 en otra parte.

    La región de restricción se vuelve más clara aquí si reemplazamos los intervalos entre llegadas\(X_{1}, \ldots, X_{n-1}\) con las épocas de llegada\(S_{1}, \ldots, S_{n-1}\) donde\(S_{1}=X_{1}\) y\(S_{i}=X_{i}+S_{i-1}\) para\(2 \leq i \leq n-1\). La densidad de las articulaciones se convierte entonces en 6

    \[\mathrm{f}_{S_{1} \cdots S_{n}}\left(s_{1}, \ldots, s_{n}\right)=\lambda^{n} \exp \left(-\lambda s_{n}\right) \quad \text { for } 0 \leq s_{1} \leq s_{2} \cdots \leq s_{n}\label{2.15} \]

    La interpretación aquí es la misma que con\(S_{2}\). La densidad de juntas no contiene ningún tiempo de llegada que no sea\(\boldsymbol{s}_{n}\), excepto por la restricción de orden\(0 \leq s_{1} \leq s_{2} \leq \cdots \leq s_{n}\), y por lo tanto esta densidad de juntas es constante en todas las elecciones de tiempos de llegada que satisfacen la restricción de orden. Integrando mecánicamente esto sobre\(s_{1}\), entonces\(s_{2}\), etc. obtenemos la fórmula de Erlang (2.13). La densidad Erlang entonces es la densidad de juntas en\ ref {2.15} veces el volumen\(s_{n}^{n-1} /(n-1)!\) de la región\(s_{1}, \ldots, s_{n-1}\) de satisfacción\(0<s_{1}<\cdots<s_{n}\). Esto se discutirá más adelante.

    Tenga en cuenta que (2.15), para todos\(n\) especifica la distribución conjunta para todos los tiempos de llegada, y así especifica completamente un proceso de Poisson. Una definición alternativa para el proceso de Poisson es entonces cualquier proceso cuya distribución conjunta del tiempo de llegada sacifique (2.15). Esto no se usa habitualmente para definir el proceso de Poisson, mientras que dos definiciones alternativas dadas posteriormente a menudo se utilizan como definición inicial.

    para N (t)

    El proceso de conteo de Poisson,\(\{N(t) ; t>0\}\) consiste en un rv entero no negativo\(N(t)\) para cada uno\(t>0\). En esta sección, mostramos que el PMF para este rv es el conocido PMF de Poisson, como se afirma en el siguiente teorema. Damos dos pruebas para el teorema, cada una proporcionando su propio tipo de comprensión y mostrando cada una la estrecha relación entre\(\{N(t)=n\}\) y\(\left\{S_{n}=t\right\}\).

    Teorema 2.2.3.

    Para un proceso de Poisson de tasa\(\lambda\), y para cualquiera\(t>0\), el PMF para\(N(t)\) (es decir, el número de llegadas en\((0, t]\)) viene dado por el PMF de Poisson,

    \[\mathbf{p}_{N(t)}(n)=\frac{(\lambda t)^{n} \exp (-\lambda t)}{n !}\label{2.16} \]

    Prueba 1: Esta prueba, para dada\(n\) y\(t\), se basa en dos formas de calcular\(\operatorname{Pr}\left\{t<S_{n+1} \leq t+\delta\right\}\) para algunos desaparecidamente pequeños\(\delta\). La primera forma se basa en la densidad ya conocida de\(S_{n+1}\) y da

    \(\operatorname{Pr}\left\{t<S_{n+1} \leq t+\delta\right\}=\int_{t}^{\}{t+\delta}} \mathrm{f}_{S_{n}}(\tau) d \tau=\mathrm{f}_{S_{n}}(t)(\delta+o(\delta))\)

    El término\(o(\delta)\) se utiliza para describir una función de\(\delta\) que va a 0 más rápido que\(\delta\) como\(\delta \rightarrow 0\). Más precisamente,\(g(\delta)\) se dice que una función es de orden\(o(\delta)\) si\(\lim _{\delta \rightarrow 0} \frac{g(\delta)}{\delta}=0\). Así\(\operatorname{Pr}\left\{t<S_{n} \leq t+\delta\right\}=\mathrm{f}_{S_{n}}(t)(\delta+o(\delta))\) es simplemente una consecuencia del hecho de que\(S_{n}\) tiene una densidad de probabilidad continua en el intervalo\([t, t+\delta]\).

    La segunda forma de calcular\(\operatorname{Pr}\left\{t<S_{n+1} \leq t+\delta\right\}\) es observar primero que la probabilidad de más de 1 llegada en\((t, t+\delta])\) es\(o(\delta)\). Ignorando esta posibilidad,\(\left\{t<S_{n+1} \leq t+\delta\right\}\) ocurre si exactamente las\(n\) llegadas están en el intervalo\((0, t]\) y se produce una llegada en\((t, t+\delta]\). Debido a la propiedad de incremento independiente, este es un evento de probabilidad\(\mathbf{p}_{N(t)}(n)(\lambda \delta+o(\delta))\).

    Así

    \(\mathrm{p}_{N(t)}(n)(\lambda \delta+o(\delta))+o(\delta)=\mathrm{f}_{S_{n+1}}(t)(\delta+o(\delta))\)

    Dividiendo por\(\delta\) y tomando el límite\(\delta \rightarrow 0\), obtenemos

    \(\lambda \mathbf{p}_{N(t)}(n)=\mathbf{f}_{S_{n+1}}(t)\)

    Usando la densidad para\(\mathrm{f}_{S_{n}}\) in (2.13), obtenemos (2.16).

    Prueba 2: El enfoque aquí es utilizar la relación fundamental que\(\{N(t) \geq n\}=\left\{S_{n} \leq t\right\}\). Tomando las probabilidades de estos eventos,

    \ (\ begin {alineado}
    &\ suma_ {i=n} ^ {\ infty}\ mathrm {p} _ {N (t)} (i) =\ int_ {0} ^ {\} t}\ mathrm {f} _ {S_ {n}} (\ tau) d\ tau
    &\ texto {para todos} n\ geq 1\ texto {y} t>0
    \ fin {alineado}\)

    El término a la derecha arriba es la función de distribución de\(S_{n}\) y el término de la izquierda es la función de distribución complementaria de\(N(t)\). La función de distribución complementaria y el PMF de especificarse de\(N(t)\) manera única entre sí, por lo que el teorema es equivalente a mostrar que

    \[\sum_{i=n}^{\infty} \frac{(\lambda t)^{i} \exp (-\lambda t)}{i !}=\int_{0}^{\}t} \mathrm{f}_{S_{n}}(\tau) d \tau\label{2.17} \]

    Si tomamos la derivada con respecto a t de cada lado de (2.17), encontramos que casi mágicamente cada término excepto el primero de la izquierda cancela, dejándonos con

    \(\frac{\lambda^{n} t^{n-1} \exp (-\lambda t)}{(n-1) !}=\mathrm{f}_{S_{n}}(t)\)

    Así la derivada con respecto a\(t\) de cada lado de\ ref {2.17} es igual a la derivada de la otra para todos\(n \geq 1\) y\(t>0\). Los dos lados de\ ref {2.17} también son iguales en el límite\(t \rightarrow 0\), por lo que se deduce que\ ref {2.17} se satisface en todas partes, completando la prueba.

    Definiciones alternativas de procesos de Poisson

    Definición 2 de un proceso de Poisson

    Un proceso de conteo de Poisson\(\{N(t) ; t>0\}\) es un proceso de conteo que satisface\ ref {2.16} (es decir, tiene el PMF de Poisson) y tiene las propiedades de incremento independientes y estacionarias.

    Hemos visto que las propiedades en la Definición 2 están satisfechas a partir de la Definición 1 (usando tiempos de interllegada exponenciales IID), por lo que la Definición 1 implica la Definición 2. El ejercicio 2.4 muestra que los tiempos de interllegada exponenciales de IID están implícitos en la Definición 2, por lo que las dos definiciones son equivalentes.

    Puede ser algo sorprendente al principio darse cuenta de que un proceso de conteo que tiene el PMF de Poisson en cada t no es necesariamente un proceso de Poisson, y que las propiedades de incremento independientes y estacionarias también son necesarias. Una forma de ver esto es recordar que el PMF de Poisson para todos los t en un proceso de conteo es equivalente a la densidad de Erlang para las sucesivas épocas de llegada. Especificando la densidad de probabilidad para\(S_{1}\)\(S_{2}\),,..,., como Erlang especifica las densidades marginales de\(S_{1}\)\(S_{2}\),,.,., pero no es necesario especificar las densidades de juntas de estas rv. La Figura 2.4 ilustra esto en términos de la densidad conjunta de\(S_{1}\),\(S_{2}\), dada como

    \(\mathrm{f}_{S_{1} S_{2}}\left(s_{1} s_{2}\right)=\lambda^{2} \exp \left(-\lambda s_{2}\right) \quad \text { for } 0 \leq s_{1} \leq s_{2}\)

    y 0 en otros lugares. La figura ilustra cómo se puede cambiar la densidad de las articulaciones sin cambiar los marginales.

    Hay un efecto similar con el proceso de Bernoulli en que un proceso de conteo discreto para el cual el número de llegadas de 0 a\(t\), para cada entero\(t\), es un rv binomial, pero el proceso no es Bernoulli. Esto se explora en el Ejercicio 2.5.

    La siguiente definición de un proceso de Poisson se basa en sus propiedades incrementales. Considera el número de llegadas en algún intervalo muy pequeño\((t, t+\delta]\). Ya que\(\tilde{N}(t, t+\delta)\) tiene la misma distribución que\(N(\delta)\), podemos usar\ ref {2.16} para obtener

    \ [\ begin {alineado}
    &\ nombreoperador {Pr}\ {\ tilde {N} (t, t+\ delta) =0\} ^\} =e^ {-\ lambda\ delta}\ aprox 1-\ lambda\ delta+o (\ delta)\\\
    &\ nombreoperador {Pr}\ {\ tilde {N} (t, t+\ delta) =1\}\ ^} =\ lambda\ delta e^ {-\ lambda\ delta}\ approx\ lambda\ delta+o (\ delta)\\
    &\ nombreoperador {Pr}\ {\ tilde {N} (t, t+\ delta)\ geq 2\} ^\}\ aprox o (\ delta)
    \ final {alineado}\ etiqueta {2.18}\]

    Definición 3 de un proceso de Poisson

    Un proceso de conteo de Poisson es un proceso de conteo que satisface\ ref {2.18} y tiene las propiedades de incremento estacionario e independiente.

    Screen Shot 2021-08-25 a las 11.35.59 AM.png
    Figura 2.4: La densidad articular de\(S_{1}, S_{2}\) es distinta de cero en la región mostrada. Se puede cambiar, manteniendo constantes los marginales, reduciendo la densidad de las articulaciones\(\epsilon\) en los cuadrados superior izquierda e inferior derecha arriba y aumentándola\(\epsilon\) en los cuadrados superior derecha e inferior izquierda.

    Hemos visto que la Definición 1 implica Definición 3. La esencia del argumento de la otra manera es que para cualquier intervalo entre llegadas\(X\),\(\mathrm{F}_{X}(x+\delta)-\mathrm{F}_{X}(x)\) es la probabilidad de una llegada en un intervalo infinitesimal apropiado de ancho\(\delta\), que por\ ref {2.18} es\(\lambda \delta+o(\delta)\). Al convertir esto en una ecuación diferencial (ver Ejercicio 2.7), obtenemos los intervalos exponenciales deseados entre llegadas. La definición 3 tiene un atractivo intuitivo, ya que se basa en la idea de llegadas independientes durante intervalos discretos arbitrarios. Tiene la desventaja de que se debe hacer una cantidad considerable de trabajo para estar seguros de que estas condiciones son mutuamente consistentes, y probablemente la forma más fácil es comenzar con la Definición 1 y derivar estas propiedades. Demostrar que existe un proceso único que satisface las condiciones de la Definición 3 es aún más difícil, pero no es necesario en este punto, ya que todo lo que necesitamos es el uso de estas propiedades. La sección 2.2.5 ilustrará mejor cómo usar esta definición (o más precisamente, cómo usar (2.18)).

    Lo que\ ref {2.18} logra en la Definición 3, más allá del supuesto de incrementos independientes y estacionarios, es la prevención de llegadas de graneles. Por ejemplo, consideremos un proceso de conteo en el que las llegadas siempre ocurren en pares, y los intervalos entre pares sucesivos son IID y distribuidos exponencialmente con parámetro\(\lambda\) (ver Figura 2.5). Para este proceso,\(\operatorname{Pr}\{\widetilde{N}(t, t+\delta)=1\}^\}=0, \text { and } \operatorname{Pr}\{\widetilde{N}(t, t+\delta)=2\}^\}=\lambda \delta+o(\delta)\), violando así (2.18). Este proceso tiene incrementos estacionarios e independientes, sin embargo, ya que el proceso formado al ver un par de llegadas como un solo incidente es un proceso de Poisson.

    Proceso de Poisson como límite de encogimiento de procesos de Bernoulli

    La intuición de la Definición 3 se puede lograr de una manera menos abstracta partiendo del proceso de Bernoulli, que tiene las propiedades de la Definición 3 en un sentido discreto-temporal. Luego vamos a un límite apropiado de una secuencia de estos procesos, y encontramos que esta secuencia de procesos de Bernoulli converge en algún sentido con el proceso de Poisson.

    Recordemos que un proceso de Bernoulli es una secuencia IID,\(Y_{1}, Y_{2}, \ldots\), de variables aleatorias binarias para las cuales\(\mathrm{p}_{Y}(1)=p\) y\(\mathrm{p}_{Y}(0)=1-p\). Podemos visualizar\(Y_{i}=1\) como una llegada a tiempo\(i\) y\(Y_{i}=0\) como ninguna llegada, pero también podemos 'reducir' la escala de tiempo del proceso para que para algún entero\(j>0\),\(Y_{i}\) sea una llegada o no llegada a tiempo\(i 2^{-j}\). Consideramos una secuencia indexada

    Screen Shot 2021-08-25 a las 12.08.00 PM.png
    Figura 2.5: Un proceso de conteo que modela llegadas a granel. \(X_{1}\)es el tiempo hasta el primer par de llegadas y\(X_{2}\) es el intervalo entre el primer y segundo par de llegadas.

    por\(j\) tales procesos Bernoulli que se encogen, y para mantener constante la tasa de llegada, dejamos que\(p=\lambda 2^{-j}\) el\(j \text { th }\) proceso. Así, por cada incremento de unidad en\(j\), el proceso de Bernoulli se contrae al reemplazar cada ranura por dos ranuras, cada una con la mitad de la probabilidad de llegada previa. El número esperado de llegadas por unidad de tiempo es entonces, coincidiendo con el proceso de Poisson que estamos aproximando.

    Si miramos este\(j \text { th }\) proceso relativo a la Definición 3 de un proceso de Poisson, vemos que para estos incrementos de tamaño regularmente espaciados\(\delta=2^{-j}\), la probabilidad de una llegada en un incremento es\(\lambda \delta\) y la de no llegada es\(1-\lambda \delta\), y así se satisface\ ref {2.18}, y de hecho la \(o(\delta)\)los términos son exactamente cero. Para incrementos arbitrarios de tamaño, es claro que los incrementos disjuntos tienen llegadas independientes. Los incrementos no son del todo estacionarios, ya que, por ejemplo, un incremento de tamaño\(2^{-j-1}\) podría contener un tiempo que es múltiplo\(2^{-j}\) o podría no, dependiendo de su ubicación. Sin embargo, para cualquier incremento fijo de tamaño\(\delta\), el número de múltiplos de\(2^{-j}\) (es decir, el número de posibles puntos de llegada) es\(\left\lfloor\delta 2^{j}\right\rfloor\) o bien\(1+\left\lfloor\delta 2^{j}\right\rfloor\). Así, en el límite\(j \rightarrow \infty\), los incrementos son tanto estacionarios como independientes.

    Para cada uno\(j\), el proceso de\(j \text { th }\) Bernoulli tiene asociado un proceso de conteo de Bernoulli\(N_j(t)=\sum_{i=1}^{\left\lfloor t 2^{j}\right\rfloor} Y_{i}\). Este es el número de llegadas hasta el tiempo\(t\) y es un rv discreto con el binomio i=1 PMF. Es decir,\ (\ mathbf {p} _ {N_ {j} (t)} (n) =\ left (\ begin {array} {c}
    \ left\ lfloor t 2^ {j}\ right\ rfloor\\ n\ end {array}\ right) p^ {n} (1-p) ^ {\ left\ lfloor t 2^ {j}\ right\ rfloor-n}\) donde\(p=\lambda 2^{-j}\). Ahora mostramos que este PMF se acerca al PMF de Poisson a medida que\(j\) aumenta. 7

    Teorema 2.2.4.

    Considere la secuencia de procesos de Bernoulli que se encogen con probabilidad de llegada\(\lambda 2^{-j}\) y tamaño de intervalo de tiempo\(2^{-j}\). Entonces por cada tiempo fijo\(t>0\) y número fijo de llegadas\(n\), el PMF de conteo\(\mathbf{p}_{N_{j}(t)}(n)\) se acerca al PMF de Poisson (del mismo\(\lambda\)) con aumento\(j\), es decir,

    \[\lim _{j \rightarrow \infty} \mathrm{p}_{N_{j}(t)}(n)=\mathrm{p}_{N(t)}(n)\label{2.19} \]

    Prueba: Primero reescribimos el binomio PMF, para\(\left\lfloor t 2^{j}\right\rfloor\) variables con\(p=\lambda 2^{-j}\) as

    \ [\ begin {aligned}
    \ lim _ {j\ rightarrow\ infty} p_ {N_ {j} (t)} (n) &=\ lim _ {j\ rightarrow\ infty}\ left (\ begin {array} {c}
    \ left\ lfloor t 2^ {j}\ right\ rfloor\\ n
    \ end {array}\ right)\ left (\ frac {\}\ lambda 2^ {-j}} {1-\ lambda 2^ {-j}}\ derecha) ^ {\} n}\ exp\ izquierda [\ izquierda\ lpiso t 2^ {j }\ derecha\ rpiso\ izquierda (\ ln\ izquierda (1-\ lambda 2^ {-j}\ derecha)\ derecha]\ derecha. \\
    &=\ lim _ {j\ fila derecha\ infty}\ izquierda (\ begin {array} {c}
    \ izquierda\ lpiso t 2^ {j}\ derecho\ rpiso\\ n
    \ end {array}\ derecha)\ izquierda (\ frac {3\ lambda 2^ {-j}} {1-\ lambda 2^ {-j}}\ derecha) ^ {\} n\ exp (-\ lambda t) & (2.20)\\
    &=\ lim _ {j\ fila derecha\ infty}\ frac {\ izquierda\ lpiso t 2^ {j}\ derecho\ rpiso\ cdot\ izquierda\ lpiso t 2^ {j} -1\ derecho\ rpiso\ cdots\ izquierda\ lpiso t 2^ {j} -n+1\ derecho\ rpiso} {n!} \ izquierda (\ frac {\}\ lambda 2^ {-j}} {1-\ lambda 2^ {-j}}\ derecha) ^ {\} n}\ exp (-\ lambda t) & (2.21)\\
    &=\ frac {(\ lambda t) ^ {n}\ exp (-\ lambda t)} {n!} & (2.22)
    \ final {alineado}\ nonumber\]

    Utilizamos\(\ln \left(1-\lambda 2^{-j}\right)=-\lambda 2^{-j}+o\left(2^{-j}\right)\) en\ ref {2.20} y expandimos el término combinatorio en (2.21). En (2.22), lo reconocimos\(\lim _{j \rightarrow \infty}\left\lfloor t 2^{j}-i\right\rfloor\left(\frac{\} \lambda 2^{-j}}{1-\lambda 2^{-j}}\right)^{\}}=\lambda t \text { for } 0 \leq i \leq n-1\).

    Dado que el PMF binomial (escalado como arriba) tiene el PMF de Poisson como límite para cada uno\(n\), la función de distribución de\(N_{j}(t)\) también converge a la función de distribución de Poisson para cada uno\(t\). Es decir, para cada uno\(t>0\), las variables aleatorias\(N_{j}(t)\) de conteo de los procesos de Bernoulli convergen en distribución al proceso\(N(t)\) de Poisson.

    Esto no dice que los procesos de conteo de Bernoulli converjan con el proceso de conteo de Poisson en algún sentido significativo, ya que las distribuciones conjuntas también son motivo de preocupación. El siguiente corolario trata esto.

    Corolario 2.2.1.

    Para cualquier entero finito\(k>0\), let\(0<t_{1}<t_{2}<\cdots<t_{k}\) ser cualquier conjunto de instantes de tiempo. Entonces la función de distribución conjunta de\(N_{j}\left(t_{1}\right), N_{j}\left(t_{2}\right), \ldots N_{j}\left(t_{k}\right)\) se acerca a la función de distribución conjunta de\(N\left(t_{1}\right), N\left(t_{2}\right), \ldots N\left(t_{k}\right)\) as\(j \rightarrow \infty\).

    Prueba: Es suciente demostrar que los PMF conjuntos convergen. Podemos reescribir el PMF conjunto para cada proceso de Bernoulli como

    \ [\ begin {alineado}
    \ mathrm {p} _ {N_ {j}\ izquierda (t_ {1}\ derecha),\ ldots, N_ {j}\ izquierda (t_ {k}\ derecha)}\ izquierda (n_ {1},\ ldots, n_ {k}\ derecha) &=\ mathrm {p} _ {N_ {j}\ izquierda (t_ {1}\ derecha),\ tilde {N} _ {j}\ izquierda (t_ {1}, t_ {2}\ derecha),\ lpuntos,\ tilde {N} _ {j}\ izquierda (t_ {k-1}, t_ {k}\ derecha)}\ izquierda (n_ {1}, n_ {2} -n_ {1},\ lpuntos, _ {k} -n_ {k-1 }\ derecha)\\
    &=\ mathrm {p} _ {N_ {j}\ izquierda (t_ {1}\ derecha)}\ izquierda (n_ {1}\ derecha)\ prod_ {\ ell=2} ^ {k}\ mathrm {p} _ {\ tilde {N} _ {j}\ izquierda (t_ {\ ell}, t_ {\ ell-1} derecha)}\ izquierda (n_ {\ ell} -n_ {\ ell-1}\ derecha)
    \ final {alineado}\ etiqueta {2.23}\]

    donde hemos utilizado la propiedad de incremento independiente para el proceso Bernoulli. Para el proceso de Poisson, de manera similar tenemos

    \[\mathrm{p}_{N\left(t_{1}\right), \ldots, N\left(t_{k}\right)}\left(n_{1}, \ldots n_{k}\right)=\mathrm{p}_{N\left(t_{1}\right)}\left(n_{1}\right) \prod_{\ell=2}^{k} \mathrm{p}_{\tilde{N}\left(t_{\ell}, t_{\ell-1}\right)}\left(n_{\ell}-n_{\ell-1}\right)\label{2.24} \]

    Tomando el límite de\ ref {2.23} como\(j \rightarrow \infty\), reconocemos del Teorema 2.2.4 que cada término de\ ref {2.23} va al término correspondiente en (2.24). Para las\(\tilde{N}\) rv, esto requiere una generalización trivial en el Teorema 2.2.4 para hacer frente al tiempo de inicio arbitrario.

    De esto se concluye que la secuencia de procesos de Bernoulli anterior converge al proceso de Poisson en el sentido del corolario. Recordemos de la Sección 1.5.5 que hay una serie de formas en las que una secuencia de rv puede converger. Como se podría imaginar, hay muchas más formas en las que una secuencia de procesos estocásticos puede converger, y el corolario simplemente establece uno de estos. No tenemos ni las herramientas matemáticas ni la necesidad de profundizar más en estos temas de convergencia.

    Tanto el proceso de Poisson como el proceso de Bernoulli son tan fáciles de analizar que la convergencia de los procesos de Bernoulli a Poisson rara vez es la forma más fácil de establecer propiedades sobre cualquiera de ellos. Por otro lado, esta convergencia es una poderosa ayuda a la intuición en la comprensión de cada proceso. En otras palabras, la relación entre Bernoulli y Poisson es muy útil para sugerir nuevas formas de ver los problemas, pero no suele ser la mejor manera de analizarlos.


    Referencia

    4 Con esta densidad,\(\operatorname{Pr}\left\{X_{i}>0\right\}=1\), para que podamos considerar\(X_{i}\) como una variable aleatoria positiva. Dado que los eventos de probabilidad cero pueden ignorarse, la densidad\(\lambda \exp (-\lambda x)\) para\(x \geq 0\) y cero para\(x<0\) es efectivamente la misma que la densidad\(\lambda \exp (-\lambda x)\) para\(x>0\) y cero para\(x \leq 0\).

    5 Otro nombre (algo raramente usado) para la densidad Erlang es la densidad gamma.

    6 El vector aleatorio\(\boldsymbol{S}=\left(S_{1}, \ldots, S_{n}\right)\) se relaciona entonces con los intervalos entre\(\boldsymbol{X}=\left(X_{1}, \ldots, X_{n}\right)\) llegadas mediante una transformación lineal, digamos\(\boldsymbol{S}=\mathbf{A} \boldsymbol{X}\) donde A es una matriz triangular superior con unos en la diagonal principal y en todos los elementos por encima de la diagonal principal. En general, la densidad conjunta de una transformación lineal no singular\(A X\) en\(\boldsymbol{X}=\boldsymbol{x}\) es\(\mathrm{f}_{\boldsymbol{X}}(\boldsymbol{x}) /|\operatorname{det} \mathrm{A}|\). Esto se debe a que la transformación A lleva un cubo incremental, a cada\(\delta\) lado, en un paralelepípedo de volumen\(\delta^{n}|\operatorname{det} \mathrm{A}|\). Ya que, para el caso aquí, A es triangular superior con 1's en la diagonal, det A=1.

    7 Este resultado limitante para la distribución binomial es muy diferente de los resultados asintóticos del Capítulo 1 para el binomio. Aquí el parámetro\(p\) del binomio se está reduciendo con el aumento\(j\), mientras que hay,\(p\) es constante mientras que el número de variables va en aumento.


    This page titled 2.2: Definición y propiedades de un proceso de Poisson is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Robert Gallager (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.