Saltar al contenido principal
LibreTexts Español

2.5: Densidades de Llegada Condicional y Estadísticas de Orden

  • Page ID
    86198
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Una amplia gama de problemas que involucran procesos de Poisson se abordan mejor condicionando un número dado\(n\) de llegadas en el intervalo\((0, t]\), es decir, en el evento\(N(t)=n\). Debido a la visión incremental del proceso de Poisson como llegadas independientes y estacionarias en cada intervalo incremental del eje de tiempo, se adivinaría que las llegadas deberían tener algún tipo de distribución uniforme dada\(N(t)=n\). Más precisamente, el siguiente teorema muestra que la densidad articular de\(\boldsymbol{S}^{(n)}=\left(S_{1}, S_{2}, \ldots, S_{n}\right)\) dado\(N(t)=n\) es uniforme sobre la región\(0<S_{1}<S_{2}<\cdots<S_{n}<t\).

    Teorema 2.5.1

    \(f_{S^{(n)} \mid N(t)}\left(\boldsymbol{s}^{(n)} \mid n\right)\)Sea la densidad conjunta de\(\boldsymbol{S}^{(n)}\) condicional\(N(t)=n\). Esta densidad es constante sobre la región\(0<s_{1}<\cdots<s_{n}<t\) y tiene el valor

    \[f_{\boldsymbol{S}^{(n)} \mid N(t)}\left(\boldsymbol{s}^{(n)} \mid n\right)=\frac{n !}{t^{n}}\label{2.37} \]

    Se dan dos pruebas, cada una ilustrativa de técnicas útiles

    Prueba

    Prueba 1: Recordemos que la densidad conjunta de las primeras\(n+1\)\(\boldsymbol{S}^{(n+1)}=\left(S_{1} \ldots, S_{n}, S_{n+1}\right)\) llegadas sin condicionamiento se da en (2.15). Primero utilizamos la ley Bayes para calcular la densidad conjunta de\(\boldsymbol{S}^{(n+1)}\) condicional\(N(t)=n\).

    \(\mathrm{f}_{\boldsymbol{S}^{(n+1)} \mid N(t)}\left(\boldsymbol{s}^{(n+1)} \mid n\right) \mathrm{p}_{N(t)}(n)=\mathbf{p}_{N(t) \mid \boldsymbol{S}^{(n+1)}}\left(n \mid \boldsymbol{s}^{(n+1)}\right) \mathrm{f}_{\boldsymbol{S}^{(n+1)}}\left(\boldsymbol{s}^{(n+1)}\right)\)

    Tenga en cuenta que\(N(t)=n\) si y solo si\(S_{n} \leq t\) y\(S_{n+1}>t\). Así\(\mathbf{p}_{N(t) \mid \boldsymbol{S}^{(n+1)}}\left(n \mid \boldsymbol{s}^{(n+1)}\right)\) es 1 si\(S_{n} \leq t\) y\(S_{n+1}>t\) y es 0 en caso contrario. Restringir la atención al caso\(N(t)=n\)\(S_{n+1}>t\),\(S_{n} \leq t\) y

    \ [\ begin {alineado}
    {} _ _ {S^ {(n+1)}\ mid N (t)}\ left (\ negridsymbol {s} ^ {(n+1)}\ mid n\ right) &=\ frac {\ mathrm {f} _ {\ negritas {S} ^ {(n+1)}}\ left (\ negridsymbol {s} ^ {(n+1)}}\ derecha)} {\ mathrm {p} _ {N (t)} (n)}\\
    &=\ frac {\ lambda^ {n+1}\ exp\ izquierda (-\ lambda s_ {n+1}\ derecha)} {(\ lambda t) ^ {n}\ exp (-\ lambda t)/n!} \\
    &=\ frac {n! \ lambda\ exp\ izquierda (-\ lambda\ izquierda (s_ {n+1} -t\ derecha)\ derecha.} {t^ {n}}
    \ final {alineado}\ etiqueta {2.38}\]

    Esta es una expresión útil, pero nos interesa\(\boldsymbol{S}^{(n)}\) más que\(\boldsymbol{S}^{(n+1)}\). Así rompemos el lado izquierdo de\ ref {2.38} de la siguiente manera:

    \(f_{\boldsymbol{S}^{(n+1)} \mid N(t)}\left(\boldsymbol{s}^{(n+1)} \mid n\right)=\mathrm{f}_{\boldsymbol{S}^{(n)} \mid N(t)}\left(\boldsymbol{s}^{(n)} \mid n\right) \mathrm{f}_{S_{n+1} \mid \boldsymbol{S}^{(n)} N(t)}\left(s_{n+1} \mid \boldsymbol{s}^{(n)}, n\right)\)

    Condicional\(N(t)=n, S_{n+1}\) es la primera época de llegada después\(t\), de la que por la propiedad sin memoria es independiente\(\boldsymbol{S}^{(n)}\). Así ese término final es simplemente\(\lambda \exp \left(-\lambda\left(s_{n+1}-t\right)\right)\) para\(s_{n+1}>t\). Sustituyendo esto en (2.38), el resultado es (2.37).

    Prueba 2: Esta prueba alternativa deriva\ ref {2.37} al observar las llegadas en incrementos muy pequeños de tamaño\(\delta\) (ver Figura 2.9). Para un determinado\(t\) y un conjunto dado de\(n\) tiempos,\(0<s_{1}<\cdots,<s_{n}<t\), calculamos la probabilidad de que haya una sola llegada en cada uno de los intervalos\(\left(s_{i}, s_{i}+\delta\right], 1 \leq i \leq n\) y ninguna otra llegada en el intervalo\((0, t]\). Dejando\(A(\delta)\) ser este evento,

    Screen Shot 2021-08-25 a las 10.34.04 PM.pngFigura 2.9: Intervalos para densidad de llegada.

    \(\operatorname{Pr}\{A(\delta)\}=\mathbf{p}_{N\left(s_{1}\right)}(0) \mathbf{p}_{\widetilde{N}\left(s_{1}, s_{1}+\delta\right)}(1) \mathbf{p}_{\tilde{N}\left(s_{1}+\delta, s_{2}\right)}(0) \mathbf{p}_{\tilde{N}\left(s_{2}, s_{2}+\delta\right)}(1) \cdots \mathbf{p}_{\tilde{N}\left(s_{n}+\delta, t\right)}(0)\)

    La suma de las longitudes de los intervalos anteriores es\(t\), así que si representamos\(\mathbf{p}_{\tilde{N}\left(s_{i}, s_{i}+\delta\right)}(1)\) como\(\lambda \delta \exp (-\lambda \delta)+o(\delta)\) para cada uno\(i\), entonces

    \(\operatorname{Pr}\{A(\delta)\}=(\lambda \delta)^{n} \exp (-\lambda t)+\delta^{n-1} o(\delta)\)

    El evento se\(A(\delta)\) puede caracterizar como el evento que, primero,\(N(t)=n\) y, segundo, que las\(n\) llegadas ocurren en\(\left(s_{i}, s_{i}+\delta\right]\) para\(1 \leq i \leq n\). Así concluimos que

    \(f_{S^{(n)} \mid N(t)}\left(\boldsymbol{s}^{(n)}\right)=\lim _{\delta \rightarrow 0} \frac{\operatorname{Pr}\{A(\delta)\}}{\delta^{n} \mathbf{p}_{N(t)}(n)}\)

    lo que simplifica a (2.37).

    La densidad conjunta de los intervalos entre\(\boldsymbol{X}^{(n)}=\left(X_{1} \ldots, X_{n}\right)\) llegadas, dada se\(N(t)=n\) puede encontrar directamente a partir del Teorema 2.5.1 simplemente haciendo la transformación lineal\(X_{1}=S_{1}\) y\(X_{i}=S_{i}-S_{i-1}\) para\(2 \leq i \leq n\). La densidad no ha cambiado, pero la región de restricción se transforma en\(\sum_{i=1}^{n} X_{i}<t\) con\(X_{i}>0\) for\(1 \leq i \leq n\) (ver Figura 2.10).

    Screen Shot 2021-08-25 a las 10.47.31 PM.pngFigura 2.10: Mapeo de épocas de llegada a tiempos interllegados. Tenga en cuenta que los cubos incrementales en el espacio de llegada se mapean a paralelepípedos del mismo volumen en el espacio entre llegadas.

    \[f_{\boldsymbol{X}^{(n)} \mid N(t)}\left(\boldsymbol{x}^{(n)} \mid n\right)=\frac{n !}{t^{n}} \quad \text { for } \boldsymbol{X}^{(n)}>0, \sum_{i=1}^{n} X_{i}<t\label{2.39} \]

    También es instructivo comparar la distribución conjunta de\(\boldsymbol{S}^{(n)}\) condicional\(N(t)=n\) con la distribución conjunta de variables aleatorias distribuidas uniformemente\(n\) IID,\(\boldsymbol{U}^{(n)}=\left(U_{1}, \ldots, U_{n}\right)\) on\((0, t]\). Para cualquier punto\(\boldsymbol{U}^{(n)}=\boldsymbol{u}^{(n)}\), esta densidad de juntas es

    \(f_{U^{(n)}}\left(\boldsymbol{u}^{(n)}\right)=1 / t^{n} \text { for } 0<u_{i} \leq t, 1 \leq i \leq n\)

    Ambos\(\mathbf{f}_{\boldsymbol{S}^{(n)}}\) y\(f_{\boldsymbol{U}^{(n)}}\) son uniformes sobre el volumen del espacio n donde no son cero, pero como se ilustra en la Figura 2.11 para\(n=2\), el volumen para este último es\(n !\) veces mayor que el volumen para el primero. Para explicar esto más a fondo, podemos definir un conjunto de variables aleatorias\(S_{1}, \ldots, S_{n}\) no como épocas de llegada en un proceso de Poisson, sino como la función estadística de orden de las variables uniformes IID\(U_{1}, \ldots, U_{n}\); es decir

    \(S_{1}=\min \left(U_{1}, \ldots, U_{n}\right) ; S_{2}=2^{\text {nd }} \text { smallest }\left(U_{1}, \ldots, U_{n}\right) ; \text { etc. }\)

    Screen Shot 2021-08-25 a las 10.59.14 PM.png
    Figura 2.11: Densidad para las estadísticas de orden de una distribución uniforme bidimensional IID. Tenga en cuenta que el cuadrado sobre el cual\(f_{U^{(2)}}\) es distinto de cero contiene un triángulo donde\(u_{2}>u_{1}\) y otro de igual tamaño donde\(u_{1}>u_{2}\). Cada uno de estos mapas, mediante un mapeo de permutación, al triángulo único donde\(s_{2}>s_{1}\).

    El\(n\) -cube se divide en\(n !\) regiones, una donde\(u_{1}<u_{2}<\cdots<u_{n}\). Por cada permutación\(\pi(i)\) de los enteros 1 a\(n\), hay otra región 10 donde\(u_{\pi(1)}<u_{\pi(2)}<\dots<u_{\pi(n)}\). Por simetría, cada una de estas regiones tiene el mismo volumen, que luego debe ser\(1 / n !\) del volumen\(t^{n}\) del\(n\) -cubo.

    Todas estas\(n !\) regiones se mapean a la misma región de valores ordenados. Por lo tanto, estas estadísticas de orden tienen la misma función de densidad de probabilidad conjunta que las épocas de llegada\(S_{1}, \ldots, S_{n}\) condicionadas\(N(t)=n\). Todo lo que sepamos (o podamos descubrir) sobre las estadísticas de pedidos es válido para épocas de llegada dadas\(N(t)=n\) y viceversa. 11

    A continuación queremos encontrar las funciones marginales de distribución del individuo\(S_{i}\), condicionadas a\(N(t)=n\). Comenzando con\(S_{1}\), y viéndolo como el mínimo de las variables IID distribuidas uniformemente\(U_{1}, \ldots, U_{n}\), reconocemos que\(S_{1}>\tau\) si y solo si\(U_{i}>\tau\) para todos\(i, 1 \leq i \leq n\).

    Por lo tanto,

    \[\operatorname{Pr}\left\{S_{1}>\tau \mid N(t)=n\right\}=\left[\frac{t-\tau}{t}\right]^{n} \quad \text { for } 0<\tau \leq t\label{2.40} \]

    \(S_{2}\)Para\(S_{n}\), la densidad es ligeramente más simple en apariencia que la función de distribución. Para encontrar\(\mathrm{f}_{S_{i} \mid N(t)}\left(s_{i} \mid n\right)\), mire las rv distribuidas\(n\) uniformemente en\((0, t]\). La probabilidad de que uno de estos se encuentre en el intervalo\(\left(s_{i}, s_{i}+d t\right]\) es\((n d t) / t\). Del resto\(n-1\), la probabilidad de que se\(i-1\) encuentre en el intervalo\(\left(0, s_{i}\right]\) viene dada por la distribución binomial con probabilidad de éxito\(s_{i} / t\). Así, la densidad deseada es

    \ [\ begin {alineado}
    \ mathrm {f} _ {S_ {i}\ mid N (t)} (x\ mid n) d t &=\ frac {s_ {i} ^ {i-1}\ izquierda (t-s_ {i}\ derecha) ^ {n-i} (n-1)!} {t^ {n-1} (n-i)! (i-1)!} \ quad\ frac {n d t} {t}\\
    \ mathrm {f} _ {S_ {i}\ mid N (t)}\ left (s_ {i}\ mid n\ right) &=\ frac {s_ {i} ^ {i-1}\ left (t-s_ {i}\ right) ^ {n-i} n!} {t^ {n} (n-i)! (i-1)!}
    \ end {alineado}\ etiqueta {2.41}\]

    Es fácil encontrar el valor esperado de\(S_{1}\) condicional\(N(t)=n\) al integrar la función de distribución complementaria en (2.40), obteniendo

    \[\mathrm{E}\left[S_{1} \mid N(t)=n\right]=\frac{t}{n+1}\label{2.42} \]

    Volvemos más tarde para encontrar\(\mathrm{E}\left[S_{i} \mid N(t)=n\right]\) para\(2 \leq i \leq n\). Primero, observamos las distribuciones marginales de los intervalos entre llegadas. Recordemos de\ ref {2.39} que

    \[f_{\boldsymbol{X}^{(n)} \mid N(t)}\left(\boldsymbol{x}^{(n)} \mid n\right)=\frac{n !}{t^{n}} \quad \text { for } \boldsymbol{X}^{(n)}>0, \sum_{i=1}^{n} X_{i}<t\label{2.43} \]

    La densidad de unión es la misma para todos los puntos de la región de restricción, y la restricción no distingue entre\(X_{1}\) a\(X_{n}\). Así todos\(X_{1}, \ldots, X_{n}\) deben tener la misma distribución marginal, y más generalmente la distribución marginal de cualquier subconjunto de la\(X_{i}\) lata depende únicamente del tamaño del subconjunto. Hemos encontrado la distribución de\(S_{1}\), que es la misma que\(X_{1}\), y por lo tanto

    \[\operatorname{Pr}\left\{X_{i}>\tau \mid N(t)=n\right\}=\left[\frac{t-\tau}{t}\right]^{n} \quad \text { for } 1 \leq i \leq n \text { and } 0<\tau \leq t.\label{2.44} \]

    \[\mathrm{E}\left[X_{i} \mid N(t)=n\right]=\frac{t}{n+1} \quad \text { for } 1 \leq i \leq n .\label{2.45} \]

    A partir de esto, vemos inmediatamente que para\(1 \leq i \leq n\),

    \[\mathrm{E}\left[S_{i} \mid N(t)=n\right]=\frac{i t}{n+1}\label{2.46} \]

    Uno podría continuar y derivar distribuciones conjuntas de todo tipo en este punto, pero hay un tipo adicional de intervalo que debe discutirse. \(X_{n+1}^{*}=t-S_{n}\)Definir como el intervalo desde la época de llegada más grande antes\(t\) a\(t\) sí mismo. Reescritura (2.43),

    \(f_{\boldsymbol{X}^{(n)} \mid N(t)}\left(\boldsymbol{x}^{(n)} \mid n\right)=\frac{n !}{t^{n}} \quad \text { for } \boldsymbol{X}^{(n)}>0, X_{n+1}^{*}>0, \sum_{i=1}^{n} X_{i}+X_{n+1}^{*}=t\)

    Las restricciones anteriores son simétricas y\(X_{1}, \ldots, X_{n}, X_{n+1}^{*}\), dentro de la región de restricción, la densidad conjunta de\(X_{1}, \ldots, X_{n}\) (condicional\(N(t)=n\)) es uniforme. Obsérvese que no existe densidad de articulaciones sobre\(X_{1}, \ldots, X_{n}, X_{n+1}^{*}\) condicionales\(n(t)=n\), ya que entonces\(X_{n+1}^{*}\) es una función determinista de\(X_{1}, \ldots, X_{n}\). Sin embargo, la densidad sobre\(X_{1}, \ldots, X_{n}\) puede ser reemplazada por una densidad sobre cualquier otra\(n\) rv fuera de\(X_{1}, \ldots, X_{n}, X_{n+1}^{*}\) por una transformación lineal con determinante unitario. Así\(X_{n+1}^{*}\) tiene la misma distribución marginal que cada uno de los\(X_{i}\). Esto nos da una revisión parcial de nuestro trabajo, ya que el intervalo\((0, t]\) se divide en\(n+1\) intervalos de tamaños\(X_{1}, X_{2}, \ldots, X_{n}, X_{n+1}^{*}\), y cada uno de estos tiene un tamaño medio\(t /(n+1)\). También vemos que la función de distribución conjunta de cualquier subconjunto propio de\(X_{1}, X_{2}, \ldots X_{n}, X_{n+1}^{*}\) es independiente del orden de las variables.

    Una consecuencia importante de esto es que podemos mirar un segmento\((0, t]\) de un proceso de Poisson ya sea hacia adelante o hacia atrás en el tiempo y 'se ve lo mismo'. Mirado hacia atrás, los intervalos entre llegadas son\(X_{n+1}^{*}, X_{n}, \ldots, X_{2}\). Estos intervalos son IID, y luego\(X_{1}\) se determina como\(t-X_{n+1}^{*}-X_{n}-\cdots-X_{2}\). Aquí no haremos ningún uso particular de esta propiedad, pero luego exploraremos esta propiedad de reversibilidad en el tiempo para otros tipos de procesos. Para los procesos de Poisson, esta reversibilidad es intuitivamente obvia a partir de las propiedades estacionarias e independientes. Es menos obvio cómo expresar esta condición por ecuaciones, pero eso no es realmente necesario en este punto.


    Referencia

    10 Como es habitual, estamos ignorando aquellos puntos donde\(u_{i}=u_{j}\) para algunos\(i\),\(j\), ya que el conjunto de dichos puntos tiene 0 probabilidad.

    11 Ciertamente también existe la noción intuitiva, dadas las\(n\) llegadas\((0, t]\) y dadas las propiedades estacionarias e independientes de incremento del proceso de Poisson, de que esas\(n\) llegadas pueden verse como distribuidas uniformemente. Una forma de ver esto es visualizar el proceso de Poisson como la suma de un número muy grande\(k\) de procesos independientes de tasa\(\lambda / k\) cada uno. Entonces, dado\(N(t)=n\), con\(k>>n\), hay una probabilidad despreciable de más de una llegada de cualquier proceso, y para cada uno de los n procesos con llegadas, esa llegada se distribuye uniformemente en\((0, t]\).


    This page titled 2.5: Densidades de Llegada Condicional y Estadísticas de Orden is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Robert Gallager (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.