15.2: Algunos problemas de selección aleatoria
- Page ID
- 151046
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)En la unidad de Selección Aleatoria, desarrollamos algunos resultados teóricos generales y procedimientos computacionales utilizando MATLAB. En esta unidad, extendemos el tratamiento a una variedad de problemas. Se establecen algunos resultados teóricos útiles y en algunos casos utilizamos procedimientos MATLAB, incluyendo los de la unidad en selección aleatoria.
La descomposición de Poisson
En muchos problemas, las demandas individuales pueden clasificarse en uno de los m tipos. Si la variable aleatoria\(T_i\) es el tipo de llegada\(i\) th y la clase\(\{T_i: 1 \le i\}\) es iid, tenemos ensayos multinomiales. Porque\(m = 2\) tenemos el caso Bernoulli o binomio, en el que a un tipo se le llama éxito y al otro un fracaso.
Ensayos multinomiales
Analizamos tal secuencia de ensayos de la siguiente manera. Supongamos que hay m tipos, que numeramos 1 a través\(m\). Let\(E_{ki}\) Ser el evento que tipo\(k\) ocurre en la prueba de componentes\(i\) th. Para cada uno\(i\), la clase\(\{E_{ki}: 1 \le k \le m\}\) es una partición, ya que en cada componente se producirá exactamente uno de los tipos de prueba. El tipo en el\(i\) ensayo puede estar representado por la variable aleatoria de tipo
\(T_i = \sum_{k = 1}^{m} kI_{E_{ki}}\)
asumimos
\(\{T_k: 1 \le i\}\)es iid, con\(P(T_i = k) = P(E_{ki}) = p_k\) invariante con\(i\)
En una secuencia de\(n\) ensayos, dejamos\(N_{kn}\) ser el número de ocurrencias de tipo\(k\). Entonces
\(N_{kn} = \sum_{i = 1}^{n} I_{E_{ki}}\)con\(\sum_{k = 1}^{m} N_{kn} = n\)
Ahora cada\(N_{kn}\) ~ binomio (\(n, p_k\)). La clase\(\{N_{kn}: 1 \le k \le m\}\) no puede ser independiente, ya que suma a\(n\). Si se conocen los valores\(m - 1\) de ellos, se determina el valor del otro. Si\(n_1 + n_2 + \cdot\cdot\cdot n_m = n\). el evento
\(\{N_{1n} = n_1, N_{2n} = n_2, \cdot\cdot\cdot, N_{mn} = n_m\}\)
es uno de los
\(C(n; n_1, n_2, \cdot\cdot\cdot, n_m) = n!/(n1! n2! \cdot\cdot\cdot n_m!)\)
formas de arreglar\(n_1\) de la\(E_{1i}\),\(n_2\) de la\(E_{2i}\),\(\cdot\cdot\cdot\),\(n_m\) de la\(E_{mi}\). Cada arreglo tiene probabilidad\(p_{1}^{n_1} p_{2}^{n_2} \cdot\cdot\cdot p_{m}^{n_m}\), por lo que
\(P(N_{1n} = n_1, N_{2n} = n_2, \cdot\cdot\cdot N_{mn} = n_m) = n! \prod_{k = 1}^{m} \dfrac{p_{k}^{n_k}}{n_k !}\)
Este conjunto de probabilidades conjuntas constituye la distribución multinomial. Para\(m = 2\), y el tipo 1 un éxito, esta es la distribución binomial con parámetro\((n, p_1)\).
Un número aleatorio de ensayos multinomiales
Consideramos, en particular, el caso de un número aleatorio\(N\) de ensayos multinomiales, donde\(N\) ~ Poisson\((\mu)\). \(N_k\)Sea el número de resultados de tipo\(k\) en un número aleatorio\(N\) de ensayos multinomiales.
\(N_k = \sum_{i = 1}^{N} I_{E_{ki}} = \sum_{n = 1}^{\infty} I_{\{N = n\}} N_{kn}\)con\(\sum_{k = 1}^{m} N_k = N\)
Descomposición de Poisson
Supongamos
\(N\)~ Poisson (\(\mu\))
\(\{T_i: 1 \le i\}\) es iid con\(P(T_i = k) = p_k\),\(1 \le k \le m\)
\(\{N, T_i : 1 \le i\}\) es independiente
Entonces
Cada\(N_k\) ~ Poisson (\(\mu p_k\))
\(\{N_k: 1 \le k \le m\}\) es independiente.
— □
La utilidad de este notable resultado se ve reforzada por el hecho de que la suma de variables aleatorias independientes de Poisson también es Poisson, con\(\mu\) para la suma la suma de las\(\mu_i\) para las variables agregadas. Esto se establece fácilmente con la ayuda de la función generadora. Antes de verificar las proposiciones anteriores, consideramos algunos ejemplos.
Ejemplo\(\PageIndex{1}\) A shipping problem
El número\(N\) de pedidos diarios recibidos por una casa de pedidos por correo es Poisson (300). Los pedidos se envían por expreso al día siguiente, por prioridad del segundo día o por correo postal regular. Supongamos que 4/10 de los clientes quieren expreso al día siguiente, 5/10 quieren prioridad para el segundo día y 1/10 requieren correo regular. Hacer los supuestos habituales sobre la demanda compuesta. ¿Cuál es la probabilidad de que menos de 150 quieran expresar al día siguiente? ¿Cuál es la probabilidad de que menos de 300 quieran una u otra de las dos entregas más rápidas?
Solución
Modelar como un número aleatorio de ensayos multinomiales, con tres tipos de resultados: Tipo 1 es expreso al día siguiente, Tipo 2 es prioridad de segundo día, y Tipo 3 es correo regular, con probabilidades respectivas\(p_1 = 0.4\),\(p_2 = 0.5\), y\(p_3 = 0.1\). El\(N_1\) ~ Poisson\((0.4 \cdot 300 = 120)\),\(N_2\) ~ Poisson\((0.5 \cdot 300 = 150)\), y\(N_3\) ~ Poisson\((0.1 \cdot 300 = 30)\). También\(N_1 + N_2\) ~ Poisson (120 + 150 = 270).
P1 = 1 - cpoisson(120,150) P1 = 0.9954 P12 = 1 - cpoisson(270,300) P12 = 0.9620
Ejemplo\(\PageIndex{2}\) Message routing
Un punto de cruce en una red tiene dos líneas entrantes y dos líneas salientes. El número de mensajes entrantes\(N_1\) en la línea uno en una hora es Poisson (50); en la línea 2 el número es\(N_2\) ~ Poisson (45). En la línea entrante 1 los mensajes tienen probabilidad\(P_{1a} = 0.33\) de salir en la línea saliente a y\(1 - p_{1a}\) de salir en la línea b. Los mensajes que entran en la línea 2 tienen probabilidad\(P_{2a} = 0.47\) de salir en la línea a. Bajo los supuestos de independencia habituales, ¿cuál es la distribución de los mensajes salientes en la línea a? ¿Cuáles son las probabilidades de al menos 30, 35, 40 mensajes salientes en la línea a?
Solución
Por la descomposición de Poisson,\(N_a\) ~ Poisson\((50 \cdot 0.33 + 45 \cdot 0.47 = 37.65)\).
ma = 50*0.33 + 45*0.47 ma = 37.6500 Pa = cpoisson(ma,30:5:40) Pa = 0.9119 0.6890 0.3722
VERIFICACIÓN de la descomposición de Poisson
\(N_k = \sum_{i = 1}^{N} I_{E{ki}}\).
Esto es demanda compuesta con\(Y_k = I_{E_{ki}}\), así que eso\(g_{Y_k} (s) = q_k + sp_k = 1 + p_k (s - 1)\). Por lo tanto,
\(g_{N_k} (s) = g_N [g_{Y_k} (s)] = e^{} = e^{}\)
que es la función generadora para\(N_k\) ~ Poisson\((\mu p_k)\).
Para cualquier\(n_1\),\(n_2\)\(\cdot\cdot\cdot\),\(n_m\), dejar\(n = n_1 + n_2 + \cdot\cdot\cdot + n_m\), y considerar
\(A = \{N_1 = n_1, N_2 = n_2, \cdot\cdot\cdot, N_m = n_m\} = \{N = n\} \cap \{N_{1n} = N_1, N_{2n} = n_2, \cdot\cdot\cdot, N_{mn} = n_m\}\)
Dado que\(N\) es independiente de la clase de\(I_{E_{ki}}\), la clase
\(\{\{N = n\}, \{N_{1n} = n_1, N_{2n} = n_2, \cdot\cdot\cdot, N_{mn} = n_m\}\}\)
es independiente. Por la regla del producto y la distribución multinomial
\(P(A) = e^{-\mu} \dfrac{\mu^n}{n!} \cdot n! \prod_{k = 1}^{m} \dfrac{p_{k}^{n_k}}{(n_k)!} = \prod_{k = 1}^{m} e^{-\mu p_k} \dfrac{p_{k}^{n_k}}{n_k !} = \prod_{k = 1}^{m} P(N_k = n_k)\)
El segundo producto utiliza el hecho de que
\(e^{\mu} = e^{\mu (p_1 + p_2 + \cdot\cdot\cdot + p_m)} = \prod_{k = 1}^{m} e^{\mu p_k}\)
Por lo tanto, la regla del producto se mantiene para la clase
Valores extremos
Considere una clase iid\(\{Y_i: 1 \le i\}\) de variables aleatorias no negativas. Para cualquier entero positivo\(n\) dejamos
\(V_n = \text{min } \{Y_1, Y_2, \cdot\cdot\cdot, Y_n\}\)y\(W_n = \text{max } \{Y_1, Y_2, \cdot\cdot\cdot, Y_n\}\)
Entonces
\(P(V_n > t) = P^n (Y > t)\)y\(P(W_n \le t) = P^n (Y \le t)\)
Ahora considere un número aleatorio\(N\) de los\(Y_i\). Las variables aleatorias mínima y máxima son
\(V_N = \sum_{n = 0}^{\infty} I_{\{N = n\}} V_n\)y\(W_N = \sum_{n = 0}^{\infty} I_{\{N = n\}} W_n\)
— □
Fórmulas computacionales
Si establecemos\(V_0 = W_0 = 0\), entonces
\(F_V (t) = P(V \le t) = 1 + P(N = 0) - g_N [P(Y > t)]\)
\(F_W (t) = g_N [P(Y \le t)]\)
Estos resultados se establecen fácilmente de la siguiente manera. \(\{V_N > t\} = \bigvee_{n = 0}^{\infty} \{N = n\} \ \{V_n > t\}\). Por aditividad e independencia de\(\{N, V_n\}\) para cada\(n\)
\(P(V_N > t) = \sum_{n = 0}^{\infty} P(N = n) P(V_n > t) = \sum_{n = 1}^{\infty} P(N = n) P^n (Y > t)\), ya que\(P(V_0 > t) = 0\)
Si sumamos a la última suma el término\(P(N = 0) P^0 (Y > t) = P(N = 0)\) luego lo restamos, tenemos
\(P(V_N > t) = \sum_{n = 0}^{\infty} P(N = n) P^n (Y > t) - P(N = 0) = g_N [P(Y > t)] - P(N = 0)\)
Un argumento similar se mantiene para la proposición (b). En este caso, no tenemos el término extra para\(\{N = 0\}\), ya que\(P(W_0 \le t) = 1\).
Caso especial. En algunos casos,\(N = 0\) no corresponde a un resultado admisible (ver Ejemplo 14.2.4, más abajo, sobre el postor más bajo y Ejemplo 14.2.6). En ese caso
\(F_V (t) = \sum_{n = 1}^{\infty} P(V_n \le t) P(N = n) = \sum_{n = 1}^{\infty} [1 - P^n (Y > t)] P(N = n) = \sum_{n = 1}^{\infty} P(N = n) - \sum_{n = 1}^{\infty} P^n (Y > t) P(N = n)\)
\(P(N = 0) = p^0\ (Y > t) P(N = 0)\)Sumar a cada una de las sumas para obtener
\(F_V (t) = 1 - \sum_{n = 0}^{\infty} P^n (Y > t) P (N = n) = 1 - g_N [P(Y > t)]\)
— □
Ejemplo\(\PageIndex{3}\) Maximum service time
El número\(N\) de empleos que llegan a un centro de servicios en una semana es una cantidad aleatoria que tiene una distribución de Poisson (20). Supongamos que los tiempos de servicio (en horas) para unidades individuales son iid, con distribución común exponencial (1/3). ¿Cuál es la probabilidad de que el tiempo máximo de servicio para las unidades no sea mayor de 6, 9, 12, 15, 18 horas?
Solución
\(P(W_N \le t) = g_N [P(Y \le t)] = e^{20[F_Y (t) - 1]} = \text{exp} (-20e^{-t/3})\)
t = 6:3:18; PW = exp(-20*exp(-t/3)); disp([t;PW]') 6.0000 0.0668 9.0000 0.3694 12.0000 0.6933 15.0000 0.8739 18.0000 0.9516
Ejemplo\(\PageIndex{4}\) Lowest Bidder
Un fabricante busca ofertas por una modificación de una de sus unidades de procesamiento. Se invita a veinte contratistas a licitar. Pujan con probabilidad 0.3, de manera que el número de pujas\(N\) ~ binomio (20,0.3). Supongamos que las pujas Y i (en miles de dólares) forman una clase iid. El mercado es tal que las ofertas tienen una distribución común simétrica triangular en (150,250). ¿Cuál es la probabilidad de que al menos una oferta no sea mayor a 170, 180, 190, 200, 210? Tenga en cuenta que ninguna puja no es una oferta baja de cero, de ahí que debemos usar el caso especial.
Solución
\(P(V \le t) = 1 - g_N [P(Y > t)] = 1 - (0.7 + 0.3p)^{20}\)donde\(p = P(Y > t)\)
Resolviendo gráficamente para\(p = P (V > t)\), obtenemos
\(p =\)[23/25 41/50 17/25 1/2 8/25] para\(t =\) [170 180 190 200 210]
Ahora\(g_N (s) = (0.7 + 0.3s)^{20}\). Utilizamos MATLAB para obtener
t = [170 180 190 200 210]; p = [23/25 41/50 17/25 1/2 8/25]; PV = 1 - (0.7 + 0.3*p).^20; disp([t;p;PV]') 170.0000 0.9200 0.3848 180.0000 0.8200 0.6705 190.0000 0.6800 0.8671 200.0000 0.5000 0.9612 210.0000 0.3200 0.9896
Ejemplo\(\PageIndex{5}\) Example 15.2.4 with a general counting variable
Supongamos que el número de pujas es 1, 2 o 3 con probabilidades 0.3, 0.5, 0.2, respectivamente.
Determinar\(P(V \le t)\) en cada caso.
Solución
El mínimo de los seleccionados no\(Y\) es mayor que\(t\) si y sólo si hay al menos uno\(Y\) menor o igual a\(t\). Determinamos en cada caso las probabilidades para el número de ofertas satisfactorias\(Y \le t\). Para cada uno\(t\), nos interesa la probabilidad de una o más ocurrencias del evento\(Y \le t\). Este es esencialmente el problema en el Ejemplo 7 de "Selección Aleatoria “, con probabilidad\(p = P(Y \le t)\).
t = [170 180 190 200 210]; p = [23/25 41/50 17/25 1/2 8/25]; % Probabilities Y <= t are 1 - p gN = [0 0.3 0.5 0.2]; % Zero for missing value PV = zeros(1,length(t)); for i=1:length(t) gY = [p(i),1 - p(i)]; [d,pd] = gendf(gN,gY); PV(i) = (d>0)*pd'; % Selects positions for d > 0 and end % adds corresponding probabilities disp([t;PV]') 170.0000 0.1451 180.0000 0.3075 190.0000 0.5019 200.0000 0.7000 210.0000 0.8462
El ejemplo 15.2.4 se puede trabajar de esta manera usando gN = ibinom (20,0.3, 0:20)
. Los resultados, por supuesto, son los mismos que en la solución anterior. El hecho de que las probabilidades en este ejemplo sean menores para cada t que en el Ejemplo 15.2.4 refleja el hecho de que probablemente haya menos pujas en cada caso.
Ejemplo\(\PageIndex{6}\) Batch testing
Las unidades eléctricas de una línea de producción se inspeccionan primero para verificar su operatividad. Sin embargo, la experiencia indica que una fracción\(p\) de los que pasan la prueba inicial de operabilidad son defectuosos. Todas las unidades operables se prueban posteriormente en un lote bajo operación continua (una prueba de “quemado”). Los datos estadísticos indican que las unidades defectuosas tienen tiempos de falla\(Y_i\) iid, exponenciales (\(\lambda\), mientras que las unidades buenas tienen una vida muy larga (infinita desde el punto de vista de la prueba). Se prueba un lote de\(n\) unidades. Dejar\(V\) ser el momento de la primera falla y\(N\) ser el número de unidades defectuosas en el lote. Si la prueba va\(t\) unidades de tiempo sin falla (es decir,\(V > t\)), ¿cuál es la probabilidad de que no haya unidades defectuosas?
Solución
Dado que ninguna unidad defectuosa implica que no haya fallas en ningún tiempo de prueba razonable, tenemos
\(\{N = 0\} \subset \{V > t \}\)para que\(P(N = 0|V > t) = \dfrac{P(N = 0)}{P(V > t)}\)
Ya que\(N = 0\) no arroja un valor mínimo, tenemos\(P(V > t) = g_N [P(Y > t)]\). Ahora bajo la condición anterior, el número de unidades defectuosas\(N\) ~ binomial (\(n, p\)), así que eso\(g_N (s) = (q + ps)^n\). Si\(N\) es grande y\(p\) es razonablemente pequeño,\(N\) es aproximadamente Poisson\((np)\) con\(g_N (s) = e^{np (s - 1)}\) y\(P(N = 0) = e^{-np}\). Ahora\(P(Y > t) = e^{-\lambda t}\); para grandes\(n\)
\(P(N = 0|V > t) = \dfrac{e^{-np}}{e^{np[P(Y > t) - 1]}} = e^{-np P(Y >t)} = e^{-npe^{-lambda t}}\)
Para\(n = 5000\),\(p = 0.001\), y\(\lambda = 2\)\(t = 1, 2, 3, 4, 5\), los cálculos de MATLAB dan
t = 1:5; n = 5000; p = 0.001; lambda = 2; P = exp(-n*p*exp(-lambda*t)); disp([t;P]') 1.0000 0.5083 2.0000 0.9125 3.0000 0.9877 4.0000 0.9983 5.0000 0.9998
Parece que una prueba de tres a cinco horas debería dar resultados confiables. Al diseñar realmente la prueba, probablemente se deberían hacer cálculos con una serie de suposiciones diferentes sobre la fracción de unidades defectuosas y la duración de vida de las unidades defectuosas. Estos cálculos son relativamente fáciles de hacer con MATLAB.
Ensayos de Bernoulli con tiempos o costos de ejecución aleatorios
Considere una secuencia de Bernoulli con probabilidad\(p\) de éxito en cualquier ensayo de componentes. \(N\)Sea el número del juicio en el que se produce el primer éxito. \(Y_i\)Sea el tiempo (o costo) para ejecutar el\(i\) th juicio. Entonces el tiempo total (o costo) desde el inicio hasta la finalización del primer éxito es
\(T = \sum_{i = 1}^{N} Y_i\)(“demanda” compuesta con\(N - 1\) ~ geométrica\(p\))
Suponemos la\(Y_i\) forma una clase iid, independiente de\(N\). Ahora\(N - 1\) ~ geométrico (\(p\)) implica\(g_N (s) = ps/(1 - qs)\), de modo que
\(M_T (s) = g_N [M_Y (s)] = \dfrac{pM_Y (s)}{1 - qM_Y (s)}\)
Hay dos casos especiales útiles:
\(Y_i\)~ exponencial\((\lambda)\), así que\(M_Y (s) = \dfrac{}{}\).
\(M_T (s) = \dfrac{}{} = \dfrac{}{}\)
lo que implica\(T\) ~ exponencial (\(p \lambda\)).
\(Y_i - 1\)~ geométrica\((p_0)\), de modo que\(g_Y (s) = \dfrac{\lambda}{\lambda - s}\)
\(g_T (s) = \dfrac{p \lambda/ (\lambda -s)}{1 - q\lambda/(\lambda -s)} = \dfrac{p \lambda}{p\lambda - s}\)
así que\(T - 1\) ~ geométrica\((pp_0)\).
Ejemplo\(\PageIndex{7}\) Job interviews
Supongamos que un posible empleador está entrevistando a candidatos para un puesto de trabajo de una piscina en la que el veinte por ciento está calificado. \(Y_i\)Se presume que los tiempos de entrevista (en horas) forman una clase iid, cada exponencial (3). Así, el tiempo promedio de entrevista es de 1/3 hora (veinte minutos). Tomamos la probabilidad de éxito en cualquier entrevista para ser\(p = 0.2\). ¿Cuál es la probabilidad de que se encuentre un candidato satisfactorio en cuatro horas o menos? ¿Cuál es la probabilidad de que el tiempo máximo de entrevista no sea mayor a 0.5, 0.75, 1, 1.25, 1.5 horas?
Solución
\(T\)~ exponencial (\(0.2 \cdot 3 = 0.6\)), así que eso\(P(T \le 4) = 1 - e^{-0.6 \cdot 4} = 0.9093\).
\(P(W \le t) = g_N [P(Y \le t)] = \dfrac{0.2 (1 - e^{-3t})}{1 - 0.8 (1 - e^{-3t})} = \dfrac{1 - e^{-3t}}{1 + 4e^{-3t}}\)
Los cálculos de MATLAB dan
t = 0.5:0.25:1.5; PWt = (1 - exp(-3*t))./(1 + 4*exp(-3*t)); disp([t;PWt]') 0.5000 0.4105 0.7500 0.6293 1.0000 0.7924 1.2500 0.8925 1.5000 0.9468
El tiempo promedio de entrevista es de 1/3 hora; con probabilidad 0.63 el máximo es 3/4 hora o menos; con probabilidad 0.79 el máximo es de una hora o menos; etc.
En el caso general, la solución para la distribución de\(T\) requiere transformar la teoría, y puede ser manejada mejor por un programa como Maple o Mathematica.
Para el caso de simple\(Y_i\) podemos usar procedimientos de aproximación basados en propiedades de la serie geométrica. Desde\(N - 1\) ~ geométrico\((p)\).
\(g_N 9s) = \dfrac{ps}{1 - qs} = ps \sum_{k = 0}^{\infty} (qs)^k = ps [\sum_{k = 0}^{n} (qs)^k + \sum_{k = m + 1}^{\infty} (qs)^k] = ps[\sum_{k = 0}^{n} (qs)^k + (qs)^{n + 1} \sum_{k = 0}^{\infty} (qs)^k]\)
\(= ps[\sum_{k = 0}^{n} (qs)^k] + (qs)^{n + 1} g_N 9s) = g_n (s) + (qs)^{n + 1} g_N (s)\)
Tenga en cuenta que\(g_n (s)\) tiene la forma de la función generadora para una aproximación simple\(N_n\) que empareja valores y probabilidades con\(N\) hasta\(k = n\). Ahora
\(g_T (s) = g_n[g_Y (s)] + (qs)^{n + 1} g_N [g_Y (s)]\)
La evaluación implica convolución de coeficientes que efectivamente establece\(s = 1\). Ya que\(g_N (1) = g_Y (1) = 1\).
\((qs)^{n + 1} g_N [g_Y (s)]\)para\(s = 1\) reduce a\(q^{n + 1} = P(N > n)\)
lo cual es insignificante si\(n\) es lo suficientemente grande. Se\(n\) puede determinar adecuado en cada caso. Con tal\(n\), si los no\(Y_i\) son negativos, de valor entero, podemos usar el procedimiento gend on\(g_n [g_Y (s)]\), donde
\(g_n (s) = ps + pqs^2 + pq^2s^3 + \cdot\cdot\cdot + pq^n s^{n + 1}\)
Para el caso de valor entero, como en el caso general de simple\(Y_i\), podríamos usar mgd. Sin embargo, gend suele ser más rápido y eficiente para el caso de valor completo. A menos que\(q\) sea pequeño, es probable que el número de términos necesarios para\(g_n\) aproximarse sea demasiado grande.
Ejemplo\(\PageIndex{8}\) Approximating the generating function
Dejar\(p = 0.3\) y\(Y\) distribuirse uniformemente en\(\{1, 2, \cdot\cdot\cdot, 10\}\). Determinar la distribución para
\(T = \sum_{k = 1}^{N} Y_k\)
Solución
p = 0.3; q = 1 - p; a = [30 35 40]; % Check for suitable n b = q.^a b = 1.0e-04 * % Use n = 40 0.2254 0.0379 0.0064 n = 40; k = 1:n; gY = 0.1*[0 ones(1,10)]; gN = p*[0 q.^(k-1)]; % Probabilities, 0 <= k <= 40 gend Do not forget zero coefficients for missing powers Enter gen fn COEFFICIENTS for gN gN Enter gen fn COEFFICIENTS for gY gY Values are in row matrix D; probabilities are in PD. To view the distribution, call for gD. sum(PD) % Check sum of probabilities ans = 1.0000 FD = cumsum(PD); % Distribution function for D plot(0:100,FD(1:101)) % See Figure 15.2.1 P50 = (D<=50)*PD' P50 = 0.9497 P30 = (D<=30)*PD' P30 = 0.8263
Figura 15.2.1. Función de Distribución del Tiempo de Ejecución\(F_D\).
Los mismos resultados se pueden lograr con mgd, aunque a costa de más tiempo de cómputos. En ese caso, use\(gN\) como en el Ejemplo 15.2.8, pero use la distribución real para\(Y\).
Horarios de llegada y procesos de conteo
Supongamos que tenemos fenómenos que ocurren en instantes discretos de tiempo, separados por tiempos aleatorios de espera o interllegada. Estas pueden ser llegadas de clientes en una tienda, de pulsos de ruido en una línea de comunicaciones, vehículos que pasan por una posición en una carretera, fallas de un sistema, etc. Nos referimos a estas ocurrencias como llegadas y designamos los tiempos de ocurrencia como tiempos de llegada. Un flujo de llegadas puede describirse de tres maneras equivalentes.
- Horarios de llegada:\(\{S_n: 0 \le n\}\), con\(0 = S_0 < S_1 < \cdot\cdot\cdot\) a.s. (secuencia básica)
- Tiempos de interllegada:\(\{W_i: 1 \le i\}\), con cada\(W_i > 0\) a.s. (secuencia incremental)
Las estrictas desigualdades implican que con probabilidad uno no hay llegadas simultáneas. Las relaciones entre las dos secuencias son simplemente
\(S_0 = 0\),\(S_n = \sum_{i = 1}^{n} W_i\) y\(W_n = S_n - S_{n - 1}\) para todos\(n \ge 1\)
La formulación indica la equivalencia esencial del problema con la de la demanda compuesta. Se cambia la notación y terminología para que correspondan a la utilizada habitualmente en los procesos de tratamiento de llegada y conteo.
El flujo de llegadas puede describirse de una tercera manera.
- Procesos de conteo:\(N_t = N(t)\) es el número de llegadas en periodo de tiempo\((0, t]\). Debe quedar claro que se trata de una cantidad aleatoria para cada no negativo\(t\). Para un dado\(t, \omega\) el valor es\(N (t, \omega)\). Tal familia de variables aleatorias constituye un proceso aleatorio. En este caso el proceso aleatorio es un proceso de conteo.
Por lo tanto, tenemos tres descripciones equivalentes para el flujo de llegadas.
\(\{S_n: 0 \le n\}\)\(\{W_n: 1 \le n\}\)\(\{N_t: 0 \le t\}\)
\(N\)Deben señalarse varias propiedades del proceso de
\(N(t + h) - N(t)\) conteo: cuenta las llegadas en el intervalo\((t, t + h]\),\(h > 0\),\(N(t + h) \ge N(t)\) para que para\(h > 0\).
\(N_0 = 0\)y para\(t >0\) tenemos
\(N_t = \sum_{i = 1}^{\infty} I_{(0, t]} (S_i) = \text{max } \{n: S_n \le t\} = \text{min } \{n: S_{n + 1} > t\}\)
Para cualquier dado\(\omega\),\(N(\cdot, \omega)\) es una función no decreciente, contínua derecha, de valor entero definida en\([0, \infty)\), con\(N(0, \omega) = 0\).
Las relaciones esenciales entre las tres formas de describir el flujo de llegadas se muestran en
\(W_n = S_n - S_{n - 1}\),\(\{N_t \ge n\} = \{S_n \le t\}\),\(\{N_t = n\} = \{S_n \le t < S_{n + 1}\}\)
Esto implora
\(P(N_t = n) = P(S_n \le t) - P(S_{n + 1} \le t) = P(S_{n + 1} > t) - P(S_n > t)\)
Aunque existen muchas posibilidades para las distribuciones de tiempo entre llegadas, suponemos
\(\{W_i: 1 \le i\}\)es iid, con\(W_i > 0\) a.s.
Bajo tales supuestos, el proceso de conteo a menudo se denomina proceso de renovación y los tiempos interrarivales se denominan tiempos de renovación. En la literatura sobre procesos de renovación, es común que la variable aleatoria cuente una llegada a\(t = 0\). Esto requiere un ajuste de las expresiones relativas\(N_t\) y la\(S_i\). Utilizamos la convención anterior.
Tiempos de interllegada de iid exponenciales
El caso de tiempos de interllegada exponenciales es natural en muchas aplicaciones y conduce a importantes resultados matemáticos. Utilizamos las siguientes proposiciones sobre los tiempos de llegada\(S_n\), los tiempos\(W_i\) interllegados y el proceso de conteo\(N\).
Si\(\{W_i: 1 \le i\}\) es iid exponencial (\(\lambda\)), entonces\(S_n\) ~ gamma\((n, \lambda)\) para todos\(n \ge 1\). Esto se trabaja en la unidad sobre MÉTODOS DE TRANSFORMACIÓN, en la discusión de la conexión entre la distribución gamma y la distribución exponencial.
\(S_n\)~ gamma\((n, \lambda)\) para todos\(n \ge 1\), y\(S_0 = 0\), iff\(N_t\) ~ Poisson\((\lambda t)\) para todos\(t > 0\). Esto sigue el resultado en la unidad APPROXI9MACIONES DE DISTRIBUCIÓN sobre la relación entre las distribuciones de Poisson y gamma, junto con el hecho de que\(\{N_t \ge n\} = \{S_n \le t\}\).
Observación. El proceso de conteo es un proceso de Poisson en el sentido de que\(N_t\) ~ Poisson (\(\lambda t\)) para todos\(t > 0\). Los tratamientos más avanzados muestran que el proceso tiene incrementos estacionarios independientes. Eso es
\(N(t + h) - N(t) = N(h)\)para todos\(t, h > 0\), y
Para\(t_1 < t_2 \le t_3 < t_4 \le \cdot\cdot\cdot \le t_{m - 1} < t_m\), la clase\(\{N(t_2) - N(N_1), N(t_4) - N(t_3), \cdot\cdot\cdot, N(t_m) - N(t_{m -1})\}\) es independiente.
En palabras, el número de llegadas en cualquier intervalo de tiempo depende de la duración del intervalo y no de su ubicación en el tiempo, y los números de llegadas en intervalos de tiempo no superpuestos son independientes.
Ejemplo\(\PageIndex{9}\) Emergency calls
Las llamadas de emergencia llegan a una centralita policial con tiempos interarribos (en horas) exponenciales (15). Así, el tiempo promedio entre llegadas es de 1/15 hora (cuatro minutos). ¿Cuál es la probabilidad de que el número de llamadas en un turno de ocho horas no sea superior a 100, 120, 140?
p = 1 - cpoisson(8*15,[101 121 141]) p = 0.0347 0.5243 0.9669
Desarrollamos a continuación un resultado computacional simple para los procesos de llegada para los cuales\(S_n\) ~ gamma\((n, \lambda)\)
Ejemplo\(\PageIndex{10}\) Gamma arrival times
Supongamos que los tiempos de llegada\(S_n\) ~ gamma (\(n, \lambda\)) y\(g\) es tal que
\(\int_{0}^{\infty} |g| < \infty\)y\(E[\sum_{n = 1}^{\infty} |g(S_n)|] < \infty\)
Entonces
\(E[\sum_{n = 1}^{\infty} g(S_n)] = \lambda \int_{0}^{\infty} g\)
VERIFICACIÓN
Utilizamos la propiedad de sumas contables (E8b) para la expectativa y la propiedad correspondiente para integrales para hacer valer
\(E[\sum_{n = 1}^{\infty} g(S_n)] = \sum_{n = 1}^{\infty} E[g(S_n)] = \sum_{n = 1}^{\infty} \int_{0}^{\infty} g(t) f_n (t)\ dt\)donde\(f_n (t) = \dfrac{\lambda e^{-\lambda t} (\lambda t)^{n - 1}}{(n - 1)!}\)
Podemos aplicar (E8b) para afirmar
\(\sum_{n = 1}^{\infty} \int_{0}^{\infty} gf_n = \int_{0}^{\infty} g \sum_{n = 1}^{\infty} f_n\)
Desde
\(\sum_{n = 1}^{\infty} f_n (t) = \lambda e^{-\lambda t} \sum_{n = 1}^{\infty} \dfrac{(\lambda t)^{n - 1}}{(n - 1)!} = \lambda e^{-\lambda t} e^{\lambda t} = \lambda\)
se establece la proposición.
Ejemplo\(\PageIndex{11}\) Discounted replacement costs
Una unidad crítica en un sistema de producción tiene una duración de vida exponencial\((\lambda)\). Al fallar la unidad es reemplazada inmediatamente por una unidad similar. Las unidades fallan independientemente. El costo de reposición de una unidad es de c dólares. Si el dinero se descuenta a una tasa\(\alpha\), entonces un dólar gastado t unidades de tiempo en el futuro tiene un valor actual\(e^{\alpha t}\). Si\(S_n\) es el momento de reemplazo de la unidad\(n\) th, entonces\(S_n\) ~ gamma\((n, \lambda)\) y el valor presente de todos los reemplazos futuros es
\(C = \sum_{n = 1}^{\infty} ce^{-\alpha S_n}\)
El costo de reemplazo esperado es
\(E[C] = E[\sum_{n =1}^{\infty} g(S_n)]\)donde\(g(t) = ce^{-\infty}\)
De ahí
\(E[C] = \lambda \int_{0}^{\infty} ce^{-\alpha t} \ dt = \dfrac{\lambda c}{\alpha}\)
Supongamos costo de reemplazo unitario\(c = 1200\), tiempo promedio (en años) hasta el fracaso\(1/\lambda = 1/4\), y la tasa de descuento por año\(\alpha = 0.08\) (ocho por ciento). Entonces
\(E[C] = \dfrac{1200 \cdot 4}{0.08} = 60,000\)
Ejemplo\(\PageIndex{12}\) Random costs
Supongamos que el costo del\(n\) th reemplazo en el Ejemplo 15.2.11 es una cantidad aleatoria\(C_n\), con\(\{C_n, S_n\}\) independiente y\(E[C_n] = c\), invariante con\(n\). Entonces
\(E[C] = E[\sum_{n = 1}^{\infty} C_n e^{-\alpha S_n}] = \sum_{n = 1}^{\infty} E[C_n] E[e^{-\alpha S_n}] = \sum_{n = 1}^{\infty} cE[e^{-\alpha S_n}] = \dfrac{\lambda c}{\alpha}\)
El análisis hasta este punto supone que el proceso continuará sin cesar hacia el futuro. A menudo, es deseable planificar para un período específico, finito. El resultado del Ejemplo 15.2.10 puede modificarse fácilmente para dar cuenta de un período finito, a menudo denominado horizonte finito.
Ejemplo\(\PageIndex{13}\) Finite horizon
Bajo las condiciones asumidas en el Ejemplo 15.2.10, anterior, deja\(N_t\) ser la variable aleatoria de conteo para llegadas en el intervalo\((0, t]\).
Si\(Z_t = \sum_{n = 1}^{N_t} g(S_n)\), entonces\(E[Z_t] = \lambda \int_{0}^{t} g(u)\ du\)
VERIFICACIÓN
Desde\(N_t \ge n\) iff\(S_n \le t\). \(\sum_{n = 1}^{N_t} g(S_n) = \sum_{n = 0}^{\infty} I_{(0, t]} (S_n) g(S_n)\). En el resultado del Ejemplo 15.2.10, sustitúyase\(g\) por\(I_{(0, t]} g\) y tenga en cuenta que
\(\int_{0}^{\infty} I_{(0, t]} (u) g(u)\ du = \int_{0}^{t} g(u)\ du\)
Ejemplo\(\PageIndex{14}\) Replacement costs, finite horizon
Bajo la condición del Ejemplo 15.2.11, considere los costos de reposición a lo largo de un periodo de dos años.
Solución
\(E[C] = \lambda c\int_{0}^{t} e^{-\alpha u} \ du = \dfrac{\lambda c}{\alpha} (1 - e^{-\alpha t})\)
Así, el costo esperado para el horizonte infinito\(\lambda c/ \alpha\) se ve reducido por el factor\(1 - e^{-\alpha t}\). Para\(t = 2\) y el número en el Ejemplo 15.2.11, el factor de reducción es\(1 - e^{-0.16} = 0.1479\) dar\(E[C] = 60000 \cdot 0.1479 = 8871.37\).
En el importante caso especial de que\(g(u) = ce^{-\alpha u}\), la exposición para\(E[\sum_{n = 1}^{\infty} g(S_n)]\) pueda ser puesta en una forma que no requiera que los tiempos de interllegada sean exponenciales.
Ejemplo\(\PageIndex{15}\) General interarrival, exponential g
Supongamos\(S_0 = 0\) y\(S_n = \sum_{i = 1}^{n} W_i\), donde\(\{W_i: 1 \le i\}\) es iid. Que\(\{V_n: 1 \le n\}\) sea una clase tal que cada\(E[V_n] = c\) pareja\(\{V_n ,S_n\}\) sea independiente. Entonces para\(\alpha > 0\)
\(E[C] = E[\sum_{n = 1}^{\infty} V_n e^{-\alpha S_n}] = c \cdot \dfrac{M_W (-\alpha)}{1 - M_W (-\alpha)}\)
donde\(M_W\) esta la función generadora de momento para\(W\).
DERIVACIÓN
Primero observamos que
\(E[V_n e^{-\alpha S_n}] = cM_{S_n} (-\alpha) = cM_W^n (-\alpha)\)
De ahí que por propiedades de expectativa y la serie geométrica
\(E[C] = c \sum_{n =1}^{\infty} M_W^n (- \alpha) = \dfrac{M_W (-\alpha)}{1 - M_W (-\alpha)}\), siempre\(|M_W (-\alpha)| < 1\)
Desde\(\alpha > 0\) y\(W > 0\), tenemos\(0 < e^{-\alpha W} < 1\), para que\(M_W (-\alpha) = E[e^{-\alpha W}] < 1\)
Ejemplo\(\PageIndex{16}\) Uniformly distributed interarrival times
Supongamos cada\(W_i\) ~ uniforme\((a, b)\). Luego (véase el Apéndice C),
\(M_W (-\alpha) = \dfrac{e^{-a \alpha} - e^{-b \alpha}}{\alpha (b - a)}\)para que\(E[C] = c \cdot \dfrac{e^{-a \alpha} - e^{-b \alpha}}{\alpha (b - a) - [e^{-a \alpha} - e^{-b \alpha}]}\)
Vamos\(a = 1\),\(b = 5\),\(c = 100\) y\(\alpha = 0\). Entonces,
a = 1; b = 5; c = 100; A = 0.08; MW = (exp(-a*A) - exp(-b*A))/(A*(b - a)) MW = 0.7900 EC = c*MW/(1 - MW) EC = 376.1643