Saltar al contenido principal

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$
$$\newcommand{\P}{\mathbb{P}}$$$$\newcommand{\E}{\mathbb{E}}$$$$\newcommand{\R}{\mathbb{R}}$$$$\newcommand{\N}{\mathbb{N}}$$$$\newcommand{\bs}{\boldsymbol}$$$$\newcommand{\var}{\text{var}}$$$$\newcommand{\sd}{\text{sd}}$$$$\newcommand{\skw}{\text{skew}}$$$$\newcommand{\kur}{\text{kurt}}$$

Adelgazamiento o división de un proceso de Poisson se refiere a clasificar cada punto aleatorio, independientemente, en uno de un número finito de diferentes tipos. Los puntos aleatorios de un tipo dado también forman procesos de Poisson, y estos procesos son independientes. Nuestra exposición se concentrará en el caso de solo dos tipos, pero este caso tiene todas las ideas esenciales.

### El proceso de dos tipos

Empezamos con un proceso de Poisson con tasa$$r \gt 0$$. Recordemos que esta afirmación realmente significa tres procesos estocásticos interrelacionados: la secuencia de tiempos entre llegadas$$\bs{X} = (X_1, X_2, \ldots)$$, la secuencia de tiempos$$\bs{T} = (T_0, T_1, \ldots)$$ de llegada y el proceso de conteo$$\bs{N} = (N_t: t \ge 0)$$. Supongamos ahora que cada llegada, independientemente de las otras, es uno de dos tipos: tipo 1 con probabilidad$$p$$ y tipo 0 con probabilidad$$1 - p$$, donde$$p \in (0, 1)$$ es un parámetro. Aquí hay algunos ejemplos comunes:

• Las llegadas son clientes en una estación de servicio y cada cliente se clasifica como masculino (tipo 1) o femenino (tipo 0).

Queremos considerar los puntos aleatorios tipo 1 y tipo 0 por separado. Por esta razón, el nuevo proceso aleatorio suele denominarse adelgazamiento o división del proceso original de Poisson. En algunas aplicaciones, se aceptan los puntos tipo 1 mientras que se rechazan los puntos tipo 0. El resultado principal de esta sección es que los puntos tipo 1 y tipo 0 forman procesos de Poisson separados, con tasas$$r p$$ y$$r (1-p)$$ respectivamente, y son independientes. Exploraremos este importante resultado desde varios puntos de vista.

### Juicios de Bernoulli

En las secciones anteriores, hemos explorado la analogía entre el proceso de ensayos de Bernoulli y el proceso de Poisson. Ambos tienen la fuerte propiedad de renovación que en cada hora fija y en cada hora de llegada, el proceso se reinicia estocásticamente, independientemente del pasado. La diferencia, por supuesto, es que el tiempo es discreto en el proceso de ensayos de Bernoulli y continuo en el proceso de Poisson. En esta sección, tenemos ambos procesos simultáneamente, y dadas nuestras exploraciones anteriores, quizás no sea sorprendente que esto lleve a algunas matemáticas interesantes.

Así, además de los procesos$$\bs{X}$$, y$$\bs{T}$$$$\bs{N}$$, tenemos una secuencia de ensayos de Bernoulli$$\bs{I} = (I_1, I_2, \ldots)$$ con parámetro de éxito$$p$$. La variable indicadora$$I_j$$ especifica el tipo de la llegada$$j$$ th. Además, debido a nuestras suposiciones,$$\bs{I}$$ es independiente de$$\bs{X}$$,$$\bs{T}$$, y$$\bs{N}$$. Recordemos que$$V_k$$, el número de prueba del éxito$$k$$ th tiene la distribución binomial negativa con parámetros$$k$$ y$$p$$ para$$k \in \N_+$$. Tomamos$$V_0 = 0$$ por convención. También,$$U_k$$, el número de ensayos necesarios para pasar del$$(k-1)$$ st éxito al$$k$$ th éxito tiene la distribución geométrica con parámetro de éxito$$p$$ para$$k \in \N_+$$. Además,$$\bs{U} = (U_1, U_2, \ldots)$$ es independiente y$$\bs{V} = (V_0, V_1, \ldots)$$ es el proceso de suma parcial asociado con$$\bs{U}$$:\ begin {align} v_k & =\ sum_ {i=1} ^k U_i,\ quad k\ in\ N\\ u_k & = v_k - V_ {k-1},\ quad k\ in\ N_+\ end {align} Como se señaló anteriormente, el proceso de ensayos de Bernoulli puede considerarse como puntos aleatorios en tiempo discreto, es decir, los números de prueba de los éxitos. Con esta comprensión,$$\bs{U}$$ es la secuencia de tiempos inter-llegada y$$\bs{V}$$ es la secuencia de tiempos de llegada.

Ahora considera solo los puntos tipo 1 en nuestro proceso de Poisson. El tiempo entre las llegadas de$$(k-1)$$ st y$$k$$ th tipo 1 punto es$Y_k = \sum_{i = V_{k-1} + 1}^{V_k} X_i, \quad k \in \N_+$ Nota que$$Y_k$$ tiene$$U_k$$ términos. El siguiente resultado muestra que los puntos tipo 1 forman un proceso de Poisson con tasa$$p r$$.

$$\bs{Y} = (Y_1, Y_2, \ldots)$$es una secuencia de variables independientes y cada una tiene la distribución exponencial con parámetro de tasa$$p r$$

Prueba

A partir de las propiedades de renovación del proceso de Poisson y del proceso de ensayos de Bernoulli, los tiempos de inter-llegada son independientes e idénticos distribuidos. Cada tiempo entre llegadas es la suma de un número aleatorio de términos independientes; cada término tiene la distribución exponencial con tasa$$r$$, y el número de términos tiene la distribución geométrica$$\N_+$$ con parámetro$$p$$. Además, el número de términos es independiente de los propios términos. Mostramos en la sección sobre la distribución exponencial que una suma aleatoria de esta forma tiene la distribución exponencial con parámetro$$r p$$.

De igual manera, si$$\bs{Z} = (Z_1, Z_2, \ldots)$$ es la secuencia de tiempos interarrviales para el tipo 0 puntos, entonces$$\bs{Z}$$ es una secuencia de variables independientes, y cada una tiene la distribución exponencial con tasa$$(1 - p) r$$. Además,$$\bs{Y}$$ y$$\bs{Z}$$ son independientes.

### Procesos de conteo

Para$$t \ge 0$$, vamos a$$M_t$$ denotar el número de llegadas tipo 1 en$$(0, t]$$ y$$W_t$$ el número de llegadas tipo 0 en$$(0, t]$$. Así,$$\bs{M} = (M_t: t \ge 0)$$ y$$\bs{W} = (W_t: t \ge 0)$$ son los procesos de conteo para las llegadas tipo 1 y para las llegadas tipo 0. El siguiente resultado se desprende de la subsección anterior, pero una prueba directa es interesante.

For$$t \ge 0$$,$$M_t$$ tiene la distribución de Poisson con parámetro$$p r$$,$$W_t$$ tiene la distribución de Poisson con parámetro$$(1 - p) r$$, y$$M_t$$ y$$W_t$$ son independientes.

Prueba

La observación importante es que la distribución condicional de$$M_t$$ dado$$N_t = n$$ es binomial con parámetros$$n$$ y$$p$$. Así para$$j \in \N$$ y$$k \in \N$$,\ begin {align}\ P (m_T = j, W_t = k) & =\ P (m_T = j, N_t = j + k) =\ P (N_t = j + k)\ P (m_T = j\ mid N_t = j + k)\\ & = e^ {-r t}\ frac {(r t) ^ {j + k}} {(j + k)!} \ frac {(j + k)!} {j! k!} p^j (1 - p) ^k\\ & = e^ {-p r t}\ frac {(p r t) ^j} {j!} e^ {- (1 - p) r t}\ frac {\ izquierda [(1 - p) r t\ derecha] ^k} {k!} \ end {align}

En el experimento de Poisson de dos tipos varían$$r$$,$$p$$, y$$t$$ con las barras de desplazamiento y anotar la forma de las funciones de densidad de probabilidad. Para varios valores de los parámetros, ejecute el experimento 1000 veces y compare las funciones de frecuencia relativa con las funciones de densidad de probabilidad.

### Estimación del número de llegadas

Supongamos que las llegadas tipo 1 son observables, pero no las llegadas tipo 0. Este ajuste es natural, por ejemplo, si las llegadas son emisiones radiactivas, y las llegadas tipo 1 son emisiones que son detectadas por un contador, mientras que las llegadas tipo 0 son emisiones que se pierden. Supongamos que para un dado$$t \gt 0$$, nos gustaría estimar el número total de llegadas$$N_t$$ después de observar el número de llegadas tipo 1$$M_t$$.

La distribución condicional de$$N_t$$ dado$$M_t = k$$ es la misma que la distribución de$$k + W_t$$. $\P(N_t = n \mid M_t = k) = e^{-(1 - p) r t} \frac{\left[(1 - p) r t\right]^{n - k}}{(n - k)!}, \quad n \in \{k, k + 1, \ldots\}$

Prueba

Recordemos del resultado básico de la división por encima de eso$$M_t$$ y$$W_t$$ son independientes. Así, para$$n \in \N$$,\ begin {align}\ P (N_t = n\ mid m_T = k) & =\ frac {\ P (N_t = n, m_T = k)} {\ P (m_T = k)} =\ frac {\ P (m_T = k, W_t = n - k)} {\ P (m_T = k)}\\ & =\ frac {\ P (m_T = k)\ P (W_t = n - k)} {\ P (m_T = k)} =\ P (W_t = n - k)\ end {align} La forma de la función de densidad de probabilidad sigue desde $$W_t$$como la distribución de Poisson con parámetro$$(1 - p) r$$.

$$\E(N_t \mid M_t = k) = k + (1 - p)\,r$$.

Prueba

Esto se desprende fácilmente de nuestro teorema anterior desde entonces$$\E(N_t \mid M_t = k) = \E(k + W_t) = k + (1 - p) r$$.

Así, si se conocen la tasa general$$r$$ del proceso y la probabilidad de$$p$$ que una llegada sea de tipo 1, entonces se desprende de la teoría general de la expectativa condicional que el mejor estimador de$$N_t$$ basado en$$M_t$$, en el sentido de mínimos cuadrados, es$\E(N_t \mid M_t) = M_t + (1 - p) r$

El error cuadrático medio es$$\E\left(\left[N_t - \E(N_t \mid M_t)\right]^2 \right) = (1 - p) r t$$.

Prueba

Tenga en cuenta que$$N_t - \E(N_t \mid M_t) = W_t - (1 - p) r$$. Así el error cuadrático medio es justo$$\var(W_t) = (1 - p) r t$$.

### El proceso multitipo

Como puedes adivinar, los resultados anteriores generalizan de 2 tipos a$$k$$ tipos para general$$k \in \N_+$$. Una vez más, comenzamos con un proceso de Poisson con tasa$$r \gt 0$$. Supongamos que cada llegada, independientemente de las otras, es tipo$$i$$ con probabilidad$$p_i$$ para$$i \in \{0, 1, \ldots, k - 1\}$$. Por supuesto que debemos tener$$p_i \ge 0$$ para cada uno$$i$$ y$$\sum_{i=0}^{k-1} p_i = 1$$. Entonces para cada uno$$i$$, los$$i$$ puntos tipo forman un proceso de Poisson con tasa$$p_i r$$, y estos procesos son independientes.

## Superposición

Complementario a dividir o adelgazar un proceso de Poisson es la superposición: si combinamos los puntos aleatorios en el tiempo de procesos independientes de Poisson, entonces tenemos un nuevo proceso de Poisson. La tasa del nuevo proceso es la suma de las tasas de los procesos que se combinaron. Una vez más, nuestra exposición se concentrará en la superposición de dos procesos. Este caso contiene todas las ideas esenciales.

### Dos Procesos

Supongamos que tenemos dos procesos independientes de Poisson. Denotaremos la secuencia de tiempos entre llegadas, la secuencia de tiempos de llegada, y las variables de conteo para el proceso$$i \in \{1, 2\}$$ por$$\bs{X}^i = \left(X_1^i, X_2^i \ldots\right)$$$$\bs{T}^i = \left(T_1^i, T_2^i, \ldots\right)$$, y$$\bs{N}^i = \left(N_t^i: t \in [0, \infty)\right)$$, y asumimos que el proceso$$i$$ tiene tasa$$r_i \in (0, \infty)$$. El nuevo proceso que queremos considerar se obtiene simplemente combinando los puntos aleatorios. Es decir, los nuevos puntos aleatorios son$$\left\{T_n^1: n \in \N_+\right\} \cup \left\{T_n^2: n \in \N_+\right\}$$, pero claro luego ordenados a tiempo. Denotaremos la secuencia de tiempos entre llegadas, la secuencia de tiempos de llegada, y las variables de conteo para el nuevo proceso por$$\bs{X} = (X_1, X_2 \ldots)$$$$\bs{T} = (T_1, T_2, \ldots)$$, y$$\bs{N} = \left(N_t: t \in [0, \infty)\right)$$. Claramente si$$A$$ es un intervalo en$$[0, \infty)$$ entonces$N(A) = N^1(A) + N^2(A)$ el número de puntos combinados en$$A$$ es simplemente la suma del número de puntos en$$A$$ para los procesos 1 y 2. También vale la pena señalar que$X_1 = \min\{X^1_1, X^2_1\}$ la primera llegada para el proceso combinado es el menor de los primeros tiempos de llegada para los procesos 1 y 2. Los otros tiempos entre llegadas, y de ahí también los tiempos de llegada, para el proceso combinado son más difíciles de declarar.

El proceso combinado es un proceso de Poisson con tasa$$r_1 + r_2$$. Además,

Prueba

Como se señaló anteriormente, si$$A$$ es un subintervalo de$$[0, \infty)$$ entonces$$N(A) = N^1(A) + N^2(A)$$. El primer término tiene la distribución de Poisson con parámetro$$r_1 \lambda(A)$$, el segundo término tiene la distribución de Poisson con parámetro$$r_2 \lambda(A)$$, y los términos son independientes. De ahí$$N(A)$$ que tenga la distribución de Poisson con parámetro$$r_1 \lambda(A) + r_2 \lambda(A) = (r_1 + r_2) \lambda(A)$$. Así, el proceso de conteo tiene incrementos estacionarios distribuidos por Poisson. A continuación, si$$(A_1, A_2, \ldots, A_n)$$ es una secuencia de subintervalos disjuntos de$$[0, \infty)$$ entonces$\left(N(A_1), N(A_2), \ldots, N(A_n)\right) = \left(N^1(A_1) + N^2(A_1), N^1(A_2) + N^2(A_2), \ldots, N^1(A_n) + N^2(A_n) \right)$ es una secuencia independiente, por lo que el proceso de conteo tiene incrementos independientes.

## Ejercicios Computacionales

En el experimento de Poisson de dos tipos, conjunto$$r = 2$$,$$t = 3$$, y$$p = 0.7$$. Ejecutar el experimento 1000 veces, Calcular las funciones de frecuencia relativa apropiadas e investigar empíricamente la independencia del número de puntos tipo 1 y el número de puntos tipo 0.

Supongamos que los clientes llegan a una estación de servicio según el modelo Poisson, con tarifa$$r = 20$$ por hora. Además, cada cliente, independientemente, es femenino con probabilidad 0.6 y masculino con probabilidad 0.4. Encuentra la probabilidad de que en un periodo de 2 horas, haya al menos 20 mujeres y al menos 15 hombres.

Responder

0.5814

En el experimento de Poisson de dos tipos, conjunto$$r = 3$$,$$t = 4$$, y$$p = 0.8$$. Ejecutar el experimento 100 veces.

1. Calcular la estimación de$$N_t$$ en base a$$M_t$$ para cada ejecución.
2. A lo largo de las 100 corridas, se calcula el promedio de la suma de los cuadrados de los errores.
3. Comparar el resultado en (b) con el resultado en el Ejercicio 8.

Supongamos que una pieza de material radiactivo emite partículas según el modelo de Poisson a una velocidad de$$r = 100$$ por segundo. Además, supongamos que un contador detecta cada partícula emitida, independientemente, con probabilidad 0.9. Supongamos que el número de partículas detectadas en un periodo de 5 segundos es 465.

1. Estimar el número de partículas emitidas.
2. Calcular el error cuadrático medio de la estimación.
Responder
1. 515
2. 50

This page titled 14.5: Adelgazamiento y Superpositon is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform.