Saltar al contenido principal
LibreTexts Español

15.2: Algunos problemas de selección aleatoria

  • Page ID
    151046
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En la unidad de Selección Aleatoria, desarrollamos algunos resultados teóricos generales y procedimientos computacionales utilizando MATLAB. En esta unidad, extendemos el tratamiento a una variedad de problemas. Se establecen algunos resultados teóricos útiles y en algunos casos utilizamos procedimientos MATLAB, incluyendo los de la unidad en selección aleatoria.

    La descomposición de Poisson

    En muchos problemas, las demandas individuales pueden clasificarse en uno de los m tipos. Si la variable aleatoria\(T_i\) es el tipo de llegada\(i\) th y la clase\(\{T_i: 1 \le i\}\) es iid, tenemos ensayos multinomiales. Porque\(m = 2\) tenemos el caso Bernoulli o binomio, en el que a un tipo se le llama éxito y al otro un fracaso.

    Ensayos multinomiales

    Analizamos tal secuencia de ensayos de la siguiente manera. Supongamos que hay m tipos, que numeramos 1 a través\(m\). Let\(E_{ki}\) Ser el evento que tipo\(k\) ocurre en la prueba de componentes\(i\) th. Para cada uno\(i\), la clase\(\{E_{ki}: 1 \le k \le m\}\) es una partición, ya que en cada componente se producirá exactamente uno de los tipos de prueba. El tipo en el\(i\) ensayo puede estar representado por la variable aleatoria de tipo

    \(T_i = \sum_{k = 1}^{m} kI_{E_{ki}}\)

    asumimos

    \(\{T_k: 1 \le i\}\)es iid, con\(P(T_i = k) = P(E_{ki}) = p_k\) invariante con\(i\)

    En una secuencia de\(n\) ensayos, dejamos\(N_{kn}\) ser el número de ocurrencias de tipo\(k\). Entonces

    \(N_{kn} = \sum_{i = 1}^{n} I_{E_{ki}}\)con\(\sum_{k = 1}^{m} N_{kn} = n\)

    Ahora cada\(N_{kn}\) ~ binomio (\(n, p_k\)). La clase\(\{N_{kn}: 1 \le k \le m\}\) no puede ser independiente, ya que suma a\(n\). Si se conocen los valores\(m - 1\) de ellos, se determina el valor del otro. Si\(n_1 + n_2 + \cdot\cdot\cdot n_m = n\). el evento

    \(\{N_{1n} = n_1, N_{2n} = n_2, \cdot\cdot\cdot, N_{mn} = n_m\}\)

    es uno de los

    \(C(n; n_1, n_2, \cdot\cdot\cdot, n_m) = n!/(n1! n2! \cdot\cdot\cdot n_m!)\)

    formas de arreglar\(n_1\) de la\(E_{1i}\),\(n_2\) de la\(E_{2i}\),\(\cdot\cdot\cdot\),\(n_m\) de la\(E_{mi}\). Cada arreglo tiene probabilidad\(p_{1}^{n_1} p_{2}^{n_2} \cdot\cdot\cdot p_{m}^{n_m}\), por lo que

    \(P(N_{1n} = n_1, N_{2n} = n_2, \cdot\cdot\cdot N_{mn} = n_m) = n! \prod_{k = 1}^{m} \dfrac{p_{k}^{n_k}}{n_k !}\)

    Este conjunto de probabilidades conjuntas constituye la distribución multinomial. Para\(m = 2\), y el tipo 1 un éxito, esta es la distribución binomial con parámetro\((n, p_1)\).

    Un número aleatorio de ensayos multinomiales

    Consideramos, en particular, el caso de un número aleatorio\(N\) de ensayos multinomiales, donde\(N\) ~ Poisson\((\mu)\). \(N_k\)Sea el número de resultados de tipo\(k\) en un número aleatorio\(N\) de ensayos multinomiales.

    \(N_k = \sum_{i = 1}^{N} I_{E_{ki}} = \sum_{n = 1}^{\infty} I_{\{N = n\}} N_{kn}\)con\(\sum_{k = 1}^{m} N_k = N\)

    Descomposición de Poisson

    Supongamos

    \(N\)~ Poisson (\(\mu\))
    \(\{T_i: 1 \le i\}\) es iid con\(P(T_i = k) = p_k\),\(1 \le k \le m\)
    \(\{N, T_i : 1 \le i\}\) es independiente

    Entonces

    Cada\(N_k\) ~ Poisson (\(\mu p_k\))
    \(\{N_k: 1 \le k \le m\}\) es independiente.

    — □

    La utilidad de este notable resultado se ve reforzada por el hecho de que la suma de variables aleatorias independientes de Poisson también es Poisson, con\(\mu\) para la suma la suma de las\(\mu_i\) para las variables agregadas. Esto se establece fácilmente con la ayuda de la función generadora. Antes de verificar las proposiciones anteriores, consideramos algunos ejemplos.

    Ejemplo\(\PageIndex{1}\) A shipping problem

    El número\(N\) de pedidos diarios recibidos por una casa de pedidos por correo es Poisson (300). Los pedidos se envían por expreso al día siguiente, por prioridad del segundo día o por correo postal regular. Supongamos que 4/10 de los clientes quieren expreso al día siguiente, 5/10 quieren prioridad para el segundo día y 1/10 requieren correo regular. Hacer los supuestos habituales sobre la demanda compuesta. ¿Cuál es la probabilidad de que menos de 150 quieran expresar al día siguiente? ¿Cuál es la probabilidad de que menos de 300 quieran una u otra de las dos entregas más rápidas?

    Solución

    Modelar como un número aleatorio de ensayos multinomiales, con tres tipos de resultados: Tipo 1 es expreso al día siguiente, Tipo 2 es prioridad de segundo día, y Tipo 3 es correo regular, con probabilidades respectivas\(p_1 = 0.4\),\(p_2 = 0.5\), y\(p_3 = 0.1\). El\(N_1\) ~ Poisson\((0.4 \cdot 300 = 120)\),\(N_2\) ~ Poisson\((0.5 \cdot 300 = 150)\), y\(N_3\) ~ Poisson\((0.1 \cdot 300 = 30)\). También\(N_1 + N_2\) ~ Poisson (120 + 150 = 270).

    P1 = 1 - cpoisson(120,150)
    P1  =  0.9954
    P12 = 1 - cpoisson(270,300)
    P12 =  0.9620

    Ejemplo\(\PageIndex{2}\) Message routing

    Un punto de cruce en una red tiene dos líneas entrantes y dos líneas salientes. El número de mensajes entrantes\(N_1\) en la línea uno en una hora es Poisson (50); en la línea 2 el número es\(N_2\) ~ Poisson (45). En la línea entrante 1 los mensajes tienen probabilidad\(P_{1a} = 0.33\) de salir en la línea saliente a y\(1 - p_{1a}\) de salir en la línea b. Los mensajes que entran en la línea 2 tienen probabilidad\(P_{2a} = 0.47\) de salir en la línea a. Bajo los supuestos de independencia habituales, ¿cuál es la distribución de los mensajes salientes en la línea a? ¿Cuáles son las probabilidades de al menos 30, 35, 40 mensajes salientes en la línea a?

    Solución

    Por la descomposición de Poisson,\(N_a\) ~ Poisson\((50 \cdot 0.33 + 45 \cdot 0.47 = 37.65)\).

    ma = 50*0.33 + 45*0.47
    ma =  37.6500
    Pa = cpoisson(ma,30:5:40)
    Pa =   0.9119    0.6890    0.3722

    VERIFICACIÓN de la descomposición de Poisson

    \(N_k = \sum_{i = 1}^{N} I_{E{ki}}\).
    Esto es demanda compuesta con\(Y_k = I_{E_{ki}}\), así que eso\(g_{Y_k} (s) = q_k + sp_k = 1 + p_k (s - 1)\). Por lo tanto,

    \(g_{N_k} (s) = g_N [g_{Y_k} (s)] = e^{} = e^{}\)

    que es la función generadora para\(N_k\) ~ Poisson\((\mu p_k)\).
    Para cualquier\(n_1\),\(n_2\)\(\cdot\cdot\cdot\),\(n_m\), dejar\(n = n_1 + n_2 + \cdot\cdot\cdot + n_m\), y considerar

    \(A = \{N_1 = n_1, N_2 = n_2, \cdot\cdot\cdot, N_m = n_m\} = \{N = n\} \cap \{N_{1n} = N_1, N_{2n} = n_2, \cdot\cdot\cdot, N_{mn} = n_m\}\)

    Dado que\(N\) es independiente de la clase de\(I_{E_{ki}}\), la clase

    \(\{\{N = n\}, \{N_{1n} = n_1, N_{2n} = n_2, \cdot\cdot\cdot, N_{mn} = n_m\}\}\)

    es independiente. Por la regla del producto y la distribución multinomial

    \(P(A) = e^{-\mu} \dfrac{\mu^n}{n!} \cdot n! \prod_{k = 1}^{m} \dfrac{p_{k}^{n_k}}{(n_k)!} = \prod_{k = 1}^{m} e^{-\mu p_k} \dfrac{p_{k}^{n_k}}{n_k !} = \prod_{k = 1}^{m} P(N_k = n_k)\)

    El segundo producto utiliza el hecho de que

    \(e^{\mu} = e^{\mu (p_1 + p_2 + \cdot\cdot\cdot + p_m)} = \prod_{k = 1}^{m} e^{\mu p_k}\)

    Por lo tanto, la regla del producto se mantiene para la clase

    Valores extremos

    Considere una clase iid\(\{Y_i: 1 \le i\}\) de variables aleatorias no negativas. Para cualquier entero positivo\(n\) dejamos

    \(V_n = \text{min } \{Y_1, Y_2, \cdot\cdot\cdot, Y_n\}\)y\(W_n = \text{max } \{Y_1, Y_2, \cdot\cdot\cdot, Y_n\}\)

    Entonces

    \(P(V_n > t) = P^n (Y > t)\)y\(P(W_n \le t) = P^n (Y \le t)\)

    Ahora considere un número aleatorio\(N\) de los\(Y_i\). Las variables aleatorias mínima y máxima son

    \(V_N = \sum_{n = 0}^{\infty} I_{\{N = n\}} V_n\)y\(W_N = \sum_{n = 0}^{\infty} I_{\{N = n\}} W_n\)

    — □

    Fórmulas computacionales

    Si establecemos\(V_0 = W_0 = 0\), entonces

    \(F_V (t) = P(V \le t) = 1 + P(N = 0) - g_N [P(Y > t)]\)
    \(F_W (t) = g_N [P(Y \le t)]\)

    Estos resultados se establecen fácilmente de la siguiente manera. \(\{V_N > t\} = \bigvee_{n = 0}^{\infty} \{N = n\} \ \{V_n > t\}\). Por aditividad e independencia de\(\{N, V_n\}\) para cada\(n\)

    \(P(V_N > t) = \sum_{n = 0}^{\infty} P(N = n) P(V_n > t) = \sum_{n = 1}^{\infty} P(N = n) P^n (Y > t)\), ya que\(P(V_0 > t) = 0\)

    Si sumamos a la última suma el término\(P(N = 0) P^0 (Y > t) = P(N = 0)\) luego lo restamos, tenemos

    \(P(V_N > t) = \sum_{n = 0}^{\infty} P(N = n) P^n (Y > t) - P(N = 0) = g_N [P(Y > t)] - P(N = 0)\)

    Un argumento similar se mantiene para la proposición (b). En este caso, no tenemos el término extra para\(\{N = 0\}\), ya que\(P(W_0 \le t) = 1\).

    Caso especial. En algunos casos,\(N = 0\) no corresponde a un resultado admisible (ver Ejemplo 14.2.4, más abajo, sobre el postor más bajo y Ejemplo 14.2.6). En ese caso

    \(F_V (t) = \sum_{n = 1}^{\infty} P(V_n \le t) P(N = n) = \sum_{n = 1}^{\infty} [1 - P^n (Y > t)] P(N = n) = \sum_{n = 1}^{\infty} P(N = n) - \sum_{n = 1}^{\infty} P^n (Y > t) P(N = n)\)

    \(P(N = 0) = p^0\ (Y > t) P(N = 0)\)Sumar a cada una de las sumas para obtener

    \(F_V (t) = 1 - \sum_{n = 0}^{\infty} P^n (Y > t) P (N = n) = 1 - g_N [P(Y > t)]\)

    — □

    Ejemplo\(\PageIndex{3}\) Maximum service time

    El número\(N\) de empleos que llegan a un centro de servicios en una semana es una cantidad aleatoria que tiene una distribución de Poisson (20). Supongamos que los tiempos de servicio (en horas) para unidades individuales son iid, con distribución común exponencial (1/3). ¿Cuál es la probabilidad de que el tiempo máximo de servicio para las unidades no sea mayor de 6, 9, 12, 15, 18 horas?

    Solución

    \(P(W_N \le t) = g_N [P(Y \le t)] = e^{20[F_Y (t) - 1]} = \text{exp} (-20e^{-t/3})\)

    t = 6:3:18;
    PW = exp(-20*exp(-t/3));
    disp([t;PW]')
        6.0000    0.0668
        9.0000    0.3694
       12.0000    0.6933
       15.0000    0.8739
       18.0000    0.9516

    Ejemplo\(\PageIndex{4}\) Lowest Bidder

    Un fabricante busca ofertas por una modificación de una de sus unidades de procesamiento. Se invita a veinte contratistas a licitar. Pujan con probabilidad 0.3, de manera que el número de pujas\(N\) ~ binomio (20,0.3). Supongamos que las pujas Y i (en miles de dólares) forman una clase iid. El mercado es tal que las ofertas tienen una distribución común simétrica triangular en (150,250). ¿Cuál es la probabilidad de que al menos una oferta no sea mayor a 170, 180, 190, 200, 210? Tenga en cuenta que ninguna puja no es una oferta baja de cero, de ahí que debemos usar el caso especial.

    Solución

    \(P(V \le t) = 1 - g_N [P(Y > t)] = 1 - (0.7 + 0.3p)^{20}\)donde\(p = P(Y > t)\)

    Resolviendo gráficamente para\(p = P (V > t)\), obtenemos

    \(p =\)[23/25 41/50 17/25 1/2 8/25] para\(t =\) [170 180 190 200 210]

    Ahora\(g_N (s) = (0.7 + 0.3s)^{20}\). Utilizamos MATLAB para obtener

    t = [170 180 190 200 210];
    p = [23/25 41/50 17/25 1/2 8/25];
    PV = 1 - (0.7 + 0.3*p).^20; 
    disp([t;p;PV]')
    170.0000    0.9200    0.3848
    180.0000    0.8200    0.6705
    190.0000    0.6800    0.8671
    200.0000    0.5000    0.9612
    210.0000    0.3200    0.9896

    Ejemplo\(\PageIndex{5}\) Example 15.2.4 with a general counting variable

    Supongamos que el número de pujas es 1, 2 o 3 con probabilidades 0.3, 0.5, 0.2, respectivamente.

    Determinar\(P(V \le t)\) en cada caso.

    Solución

    El mínimo de los seleccionados no\(Y\) es mayor que\(t\) si y sólo si hay al menos uno\(Y\) menor o igual a\(t\). Determinamos en cada caso las probabilidades para el número de ofertas satisfactorias\(Y \le t\). Para cada uno\(t\), nos interesa la probabilidad de una o más ocurrencias del evento\(Y \le t\). Este es esencialmente el problema en el Ejemplo 7 de "Selección Aleatoria “, con probabilidad\(p = P(Y \le t)\).

    t = [170 180 190 200 210];
    p = [23/25 41/50 17/25 1/2 8/25]; % Probabilities Y <= t are 1 - p
    gN = [0 0.3 0.5 0.2];             % Zero for missing value
    PV = zeros(1,length(t));
    for i=1:length(t)
    gY = [p(i),1 - p(i)];
    [d,pd] = gendf(gN,gY);
    PV(i) = (d>0)*pd';                 % Selects positions for d > 0 and
    end                                % adds corresponding probabilities
    disp([t;PV]')
      170.0000    0.1451
      180.0000    0.3075
      190.0000    0.5019
      200.0000    0.7000
      210.0000    0.8462
    

    El ejemplo 15.2.4 se puede trabajar de esta manera usando gN = ibinom (20,0.3, 0:20). Los resultados, por supuesto, son los mismos que en la solución anterior. El hecho de que las probabilidades en este ejemplo sean menores para cada t que en el Ejemplo 15.2.4 refleja el hecho de que probablemente haya menos pujas en cada caso.

    Ejemplo\(\PageIndex{6}\) Batch testing

    Las unidades eléctricas de una línea de producción se inspeccionan primero para verificar su operatividad. Sin embargo, la experiencia indica que una fracción\(p\) de los que pasan la prueba inicial de operabilidad son defectuosos. Todas las unidades operables se prueban posteriormente en un lote bajo operación continua (una prueba de “quemado”). Los datos estadísticos indican que las unidades defectuosas tienen tiempos de falla\(Y_i\) iid, exponenciales (\(\lambda\), mientras que las unidades buenas tienen una vida muy larga (infinita desde el punto de vista de la prueba). Se prueba un lote de\(n\) unidades. Dejar\(V\) ser el momento de la primera falla y\(N\) ser el número de unidades defectuosas en el lote. Si la prueba va\(t\) unidades de tiempo sin falla (es decir,\(V > t\)), ¿cuál es la probabilidad de que no haya unidades defectuosas?

    Solución

    Dado que ninguna unidad defectuosa implica que no haya fallas en ningún tiempo de prueba razonable, tenemos

    \(\{N = 0\} \subset \{V > t \}\)para que\(P(N = 0|V > t) = \dfrac{P(N = 0)}{P(V > t)}\)

    Ya que\(N = 0\) no arroja un valor mínimo, tenemos\(P(V > t) = g_N [P(Y > t)]\). Ahora bajo la condición anterior, el número de unidades defectuosas\(N\) ~ binomial (\(n, p\)), así que eso\(g_N (s) = (q + ps)^n\). Si\(N\) es grande y\(p\) es razonablemente pequeño,\(N\) es aproximadamente Poisson\((np)\) con\(g_N (s) = e^{np (s - 1)}\) y\(P(N = 0) = e^{-np}\). Ahora\(P(Y > t) = e^{-\lambda t}\); para grandes\(n\)

    \(P(N = 0|V > t) = \dfrac{e^{-np}}{e^{np[P(Y > t) - 1]}} = e^{-np P(Y >t)} = e^{-npe^{-lambda t}}\)

    Para\(n = 5000\),\(p = 0.001\), y\(\lambda = 2\)\(t = 1, 2, 3, 4, 5\), los cálculos de MATLAB dan

    t = 1:5;
    n = 5000;
    p = 0.001;
    lambda = 2;
    P = exp(-n*p*exp(-lambda*t));
    disp([t;P]')
        1.0000    0.5083
        2.0000    0.9125
        3.0000    0.9877
        4.0000    0.9983
        5.0000    0.9998
    

    Parece que una prueba de tres a cinco horas debería dar resultados confiables. Al diseñar realmente la prueba, probablemente se deberían hacer cálculos con una serie de suposiciones diferentes sobre la fracción de unidades defectuosas y la duración de vida de las unidades defectuosas. Estos cálculos son relativamente fáciles de hacer con MATLAB.

    Ensayos de Bernoulli con tiempos o costos de ejecución aleatorios

    Considere una secuencia de Bernoulli con probabilidad\(p\) de éxito en cualquier ensayo de componentes. \(N\)Sea el número del juicio en el que se produce el primer éxito. \(Y_i\)Sea el tiempo (o costo) para ejecutar el\(i\) th juicio. Entonces el tiempo total (o costo) desde el inicio hasta la finalización del primer éxito es

    \(T = \sum_{i = 1}^{N} Y_i\)(“demanda” compuesta con\(N - 1\) ~ geométrica\(p\))

    Suponemos la\(Y_i\) forma una clase iid, independiente de\(N\). Ahora\(N - 1\) ~ geométrico (\(p\)) implica\(g_N (s) = ps/(1 - qs)\), de modo que

    \(M_T (s) = g_N [M_Y (s)] = \dfrac{pM_Y (s)}{1 - qM_Y (s)}\)

    Hay dos casos especiales útiles:

    \(Y_i\)~ exponencial\((\lambda)\), así que\(M_Y (s) = \dfrac{}{}\).

    \(M_T (s) = \dfrac{}{} = \dfrac{}{}\)

    lo que implica\(T\) ~ exponencial (\(p \lambda\)).

    \(Y_i - 1\)~ geométrica\((p_0)\), de modo que\(g_Y (s) = \dfrac{\lambda}{\lambda - s}\)

    \(g_T (s) = \dfrac{p \lambda/ (\lambda -s)}{1 - q\lambda/(\lambda -s)} = \dfrac{p \lambda}{p\lambda - s}\)

    así que\(T - 1\) ~ geométrica\((pp_0)\).

    Ejemplo\(\PageIndex{7}\) Job interviews

    Supongamos que un posible empleador está entrevistando a candidatos para un puesto de trabajo de una piscina en la que el veinte por ciento está calificado. \(Y_i\)Se presume que los tiempos de entrevista (en horas) forman una clase iid, cada exponencial (3). Así, el tiempo promedio de entrevista es de 1/3 hora (veinte minutos). Tomamos la probabilidad de éxito en cualquier entrevista para ser\(p = 0.2\). ¿Cuál es la probabilidad de que se encuentre un candidato satisfactorio en cuatro horas o menos? ¿Cuál es la probabilidad de que el tiempo máximo de entrevista no sea mayor a 0.5, 0.75, 1, 1.25, 1.5 horas?

    Solución

    \(T\)~ exponencial (\(0.2 \cdot 3 = 0.6\)), así que eso\(P(T \le 4) = 1 - e^{-0.6 \cdot 4} = 0.9093\).

    \(P(W \le t) = g_N [P(Y \le t)] = \dfrac{0.2 (1 - e^{-3t})}{1 - 0.8 (1 - e^{-3t})} = \dfrac{1 - e^{-3t}}{1 + 4e^{-3t}}\)

    Los cálculos de MATLAB dan

    t = 0.5:0.25:1.5;
    PWt = (1 - exp(-3*t))./(1 + 4*exp(-3*t));
    disp([t;PWt]')
        0.5000    0.4105
        0.7500    0.6293
        1.0000    0.7924
        1.2500    0.8925
        1.5000    0.9468
    

    El tiempo promedio de entrevista es de 1/3 hora; con probabilidad 0.63 el máximo es 3/4 hora o menos; con probabilidad 0.79 el máximo es de una hora o menos; etc.

    En el caso general, la solución para la distribución de\(T\) requiere transformar la teoría, y puede ser manejada mejor por un programa como Maple o Mathematica.

    Para el caso de simple\(Y_i\) podemos usar procedimientos de aproximación basados en propiedades de la serie geométrica. Desde\(N - 1\) ~ geométrico\((p)\).

    \(g_N 9s) = \dfrac{ps}{1 - qs} = ps \sum_{k = 0}^{\infty} (qs)^k = ps [\sum_{k = 0}^{n} (qs)^k + \sum_{k = m + 1}^{\infty} (qs)^k] = ps[\sum_{k = 0}^{n} (qs)^k + (qs)^{n + 1} \sum_{k = 0}^{\infty} (qs)^k]\)

    \(= ps[\sum_{k = 0}^{n} (qs)^k] + (qs)^{n + 1} g_N 9s) = g_n (s) + (qs)^{n + 1} g_N (s)\)

    Tenga en cuenta que\(g_n (s)\) tiene la forma de la función generadora para una aproximación simple\(N_n\) que empareja valores y probabilidades con\(N\) hasta\(k = n\). Ahora

    \(g_T (s) = g_n[g_Y (s)] + (qs)^{n + 1} g_N [g_Y (s)]\)

    La evaluación implica convolución de coeficientes que efectivamente establece\(s = 1\). Ya que\(g_N (1) = g_Y (1) = 1\).

    \((qs)^{n + 1} g_N [g_Y (s)]\)para\(s = 1\) reduce a\(q^{n + 1} = P(N > n)\)

    lo cual es insignificante si\(n\) es lo suficientemente grande. Se\(n\) puede determinar adecuado en cada caso. Con tal\(n\), si los no\(Y_i\) son negativos, de valor entero, podemos usar el procedimiento gend on\(g_n [g_Y (s)]\), donde

    \(g_n (s) = ps + pqs^2 + pq^2s^3 + \cdot\cdot\cdot + pq^n s^{n + 1}\)

    Para el caso de valor entero, como en el caso general de simple\(Y_i\), podríamos usar mgd. Sin embargo, gend suele ser más rápido y eficiente para el caso de valor completo. A menos que\(q\) sea pequeño, es probable que el número de términos necesarios para\(g_n\) aproximarse sea demasiado grande.

    Ejemplo\(\PageIndex{8}\) Approximating the generating function

    Dejar\(p = 0.3\) y\(Y\) distribuirse uniformemente en\(\{1, 2, \cdot\cdot\cdot, 10\}\). Determinar la distribución para

    \(T = \sum_{k = 1}^{N} Y_k\)

    Solución

    p = 0.3;
    q = 1 - p;
    a = [30 35 40];          % Check for suitable n
    b = q.^a
    b =  1.0e-04 *           % Use n = 40
         0.2254    0.0379    0.0064
    n = 40;
    k = 1:n;
    gY = 0.1*[0 ones(1,10)];
    gN = p*[0 q.^(k-1)];     % Probabilities, 0 <= k <= 40
    gend
    Do not forget zero coefficients for missing powers
    Enter gen fn COEFFICIENTS for gN  gN
    Enter gen fn COEFFICIENTS for gY  gY
    Values are in row matrix D; probabilities are in PD.
    To view the distribution, call for gD.
    sum(PD)                % Check sum of probabilities
    ans =  1.0000
    FD = cumsum(PD);       % Distribution function for D
    plot(0:100,FD(1:101))  % See Figure 15.2.1
    P50 = (D<=50)*PD'
    P50 =  0.9497
    P30 = (D<=30)*PD'
    P30 =  0.8263

    La figura uno es una gráfica etiquetada, función de distribución del tiempo de ejecución. El eje horizontal está etiquetado, Tiempo, y el eje vertical está etiquetado, probabilidad. Los valores en el eje horizontal van de 0 a 100 en incrementos de 10. Los valores en el eje vertical van de 0 a 1 en incrementos de 0.1. Hay una función de distribución trazada en esta gráfica. Comienza en la esquina inferior izquierda, en el punto (0, 0), y se mueve a la derecha en una fuerte pendiente positiva. A medida que la parcela se mueve de izquierda a derecha, la pendiente disminuye a medida que aumenta la función. Alrededor de la mitad de la gráfica horizontalmente, la gráfica está casi en la parte superior, con un valor de probabilidad superior a 0.9. La parcela continúa aumentando a un ritmo decreciente hasta que se estrecha hacia una línea horizontal por el punto (80, 1), en el que continúa y termina en la esquina superior derecha.
    Figura 15.2.1. Función de Distribución del Tiempo de Ejecución\(F_D\).

    Los mismos resultados se pueden lograr con mgd, aunque a costa de más tiempo de cómputos. En ese caso, use\(gN\) como en el Ejemplo 15.2.8, pero use la distribución real para\(Y\).

    Horarios de llegada y procesos de conteo

    Supongamos que tenemos fenómenos que ocurren en instantes discretos de tiempo, separados por tiempos aleatorios de espera o interllegada. Estas pueden ser llegadas de clientes en una tienda, de pulsos de ruido en una línea de comunicaciones, vehículos que pasan por una posición en una carretera, fallas de un sistema, etc. Nos referimos a estas ocurrencias como llegadas y designamos los tiempos de ocurrencia como tiempos de llegada. Un flujo de llegadas puede describirse de tres maneras equivalentes.

    • Horarios de llegada:\(\{S_n: 0 \le n\}\), con\(0 = S_0 < S_1 < \cdot\cdot\cdot\) a.s. (secuencia básica)
    • Tiempos de interllegada:\(\{W_i: 1 \le i\}\), con cada\(W_i > 0\) a.s. (secuencia incremental)

    Las estrictas desigualdades implican que con probabilidad uno no hay llegadas simultáneas. Las relaciones entre las dos secuencias son simplemente

    \(S_0 = 0\),\(S_n = \sum_{i = 1}^{n} W_i\) y\(W_n = S_n - S_{n - 1}\) para todos\(n \ge 1\)

    La formulación indica la equivalencia esencial del problema con la de la demanda compuesta. Se cambia la notación y terminología para que correspondan a la utilizada habitualmente en los procesos de tratamiento de llegada y conteo.

    El flujo de llegadas puede describirse de una tercera manera.

    • Procesos de conteo:\(N_t = N(t)\) es el número de llegadas en periodo de tiempo\((0, t]\). Debe quedar claro que se trata de una cantidad aleatoria para cada no negativo\(t\). Para un dado\(t, \omega\) el valor es\(N (t, \omega)\). Tal familia de variables aleatorias constituye un proceso aleatorio. En este caso el proceso aleatorio es un proceso de conteo.

    Por lo tanto, tenemos tres descripciones equivalentes para el flujo de llegadas.

    \(\{S_n: 0 \le n\}\)\(\{W_n: 1 \le n\}\)\(\{N_t: 0 \le t\}\)

    \(N\)Deben señalarse varias propiedades del proceso de
    \(N(t + h) - N(t)\) conteo: cuenta las llegadas en el intervalo\((t, t + h]\),\(h > 0\),\(N(t + h) \ge N(t)\) para que para\(h > 0\).
    \(N_0 = 0\)y para\(t >0\) tenemos

    \(N_t = \sum_{i = 1}^{\infty} I_{(0, t]} (S_i) = \text{max } \{n: S_n \le t\} = \text{min } \{n: S_{n + 1} > t\}\)

    Para cualquier dado\(\omega\),\(N(\cdot, \omega)\) es una función no decreciente, contínua derecha, de valor entero definida en\([0, \infty)\), con\(N(0, \omega) = 0\).

    Las relaciones esenciales entre las tres formas de describir el flujo de llegadas se muestran en

    \(W_n = S_n - S_{n - 1}\),\(\{N_t \ge n\} = \{S_n \le t\}\),\(\{N_t = n\} = \{S_n \le t < S_{n + 1}\}\)

    Esto implora

    \(P(N_t = n) = P(S_n \le t) - P(S_{n + 1} \le t) = P(S_{n + 1} > t) - P(S_n > t)\)

    Aunque existen muchas posibilidades para las distribuciones de tiempo entre llegadas, suponemos

    \(\{W_i: 1 \le i\}\)es iid, con\(W_i > 0\) a.s.

    Bajo tales supuestos, el proceso de conteo a menudo se denomina proceso de renovación y los tiempos interrarivales se denominan tiempos de renovación. En la literatura sobre procesos de renovación, es común que la variable aleatoria cuente una llegada a\(t = 0\). Esto requiere un ajuste de las expresiones relativas\(N_t\) y la\(S_i\). Utilizamos la convención anterior.

    Tiempos de interllegada de iid exponenciales

    El caso de tiempos de interllegada exponenciales es natural en muchas aplicaciones y conduce a importantes resultados matemáticos. Utilizamos las siguientes proposiciones sobre los tiempos de llegada\(S_n\), los tiempos\(W_i\) interllegados y el proceso de conteo\(N\).

    Si\(\{W_i: 1 \le i\}\) es iid exponencial (\(\lambda\)), entonces\(S_n\) ~ gamma\((n, \lambda)\) para todos\(n \ge 1\). Esto se trabaja en la unidad sobre MÉTODOS DE TRANSFORMACIÓN, en la discusión de la conexión entre la distribución gamma y la distribución exponencial.
    \(S_n\)~ gamma\((n, \lambda)\) para todos\(n \ge 1\), y\(S_0 = 0\), iff\(N_t\) ~ Poisson\((\lambda t)\) para todos\(t > 0\). Esto sigue el resultado en la unidad APPROXI9MACIONES DE DISTRIBUCIÓN sobre la relación entre las distribuciones de Poisson y gamma, junto con el hecho de que\(\{N_t \ge n\} = \{S_n \le t\}\).

    Observación. El proceso de conteo es un proceso de Poisson en el sentido de que\(N_t\) ~ Poisson (\(\lambda t\)) para todos\(t > 0\). Los tratamientos más avanzados muestran que el proceso tiene incrementos estacionarios independientes. Eso es

    \(N(t + h) - N(t) = N(h)\)para todos\(t, h > 0\), y
    Para\(t_1 < t_2 \le t_3 < t_4 \le \cdot\cdot\cdot \le t_{m - 1} < t_m\), la clase\(\{N(t_2) - N(N_1), N(t_4) - N(t_3), \cdot\cdot\cdot, N(t_m) - N(t_{m -1})\}\) es independiente.

    En palabras, el número de llegadas en cualquier intervalo de tiempo depende de la duración del intervalo y no de su ubicación en el tiempo, y los números de llegadas en intervalos de tiempo no superpuestos son independientes.

    Ejemplo\(\PageIndex{9}\) Emergency calls

    Las llamadas de emergencia llegan a una centralita policial con tiempos interarribos (en horas) exponenciales (15). Así, el tiempo promedio entre llegadas es de 1/15 hora (cuatro minutos). ¿Cuál es la probabilidad de que el número de llamadas en un turno de ocho horas no sea superior a 100, 120, 140?

    p = 1 - cpoisson(8*15,[101 121 141])
    p  =  0.0347    0.5243    0.9669

    Desarrollamos a continuación un resultado computacional simple para los procesos de llegada para los cuales\(S_n\) ~ gamma\((n, \lambda)\)

    Ejemplo\(\PageIndex{10}\) Gamma arrival times

    Supongamos que los tiempos de llegada\(S_n\) ~ gamma (\(n, \lambda\)) y\(g\) es tal que

    \(\int_{0}^{\infty} |g| < \infty\)y\(E[\sum_{n = 1}^{\infty} |g(S_n)|] < \infty\)

    Entonces

    \(E[\sum_{n = 1}^{\infty} g(S_n)] = \lambda \int_{0}^{\infty} g\)

    VERIFICACIÓN

    Utilizamos la propiedad de sumas contables (E8b) para la expectativa y la propiedad correspondiente para integrales para hacer valer

    \(E[\sum_{n = 1}^{\infty} g(S_n)] = \sum_{n = 1}^{\infty} E[g(S_n)] = \sum_{n = 1}^{\infty} \int_{0}^{\infty} g(t) f_n (t)\ dt\)donde\(f_n (t) = \dfrac{\lambda e^{-\lambda t} (\lambda t)^{n - 1}}{(n - 1)!}\)

    Podemos aplicar (E8b) para afirmar

    \(\sum_{n = 1}^{\infty} \int_{0}^{\infty} gf_n = \int_{0}^{\infty} g \sum_{n = 1}^{\infty} f_n\)

    Desde

    \(\sum_{n = 1}^{\infty} f_n (t) = \lambda e^{-\lambda t} \sum_{n = 1}^{\infty} \dfrac{(\lambda t)^{n - 1}}{(n - 1)!} = \lambda e^{-\lambda t} e^{\lambda t} = \lambda\)

    se establece la proposición.

    Ejemplo\(\PageIndex{11}\) Discounted replacement costs

    Una unidad crítica en un sistema de producción tiene una duración de vida exponencial\((\lambda)\). Al fallar la unidad es reemplazada inmediatamente por una unidad similar. Las unidades fallan independientemente. El costo de reposición de una unidad es de c dólares. Si el dinero se descuenta a una tasa\(\alpha\), entonces un dólar gastado t unidades de tiempo en el futuro tiene un valor actual\(e^{\alpha t}\). Si\(S_n\) es el momento de reemplazo de la unidad\(n\) th, entonces\(S_n\) ~ gamma\((n, \lambda)\) y el valor presente de todos los reemplazos futuros es

    \(C = \sum_{n = 1}^{\infty} ce^{-\alpha S_n}\)

    El costo de reemplazo esperado es

    \(E[C] = E[\sum_{n =1}^{\infty} g(S_n)]\)donde\(g(t) = ce^{-\infty}\)

    De ahí

    \(E[C] = \lambda \int_{0}^{\infty} ce^{-\alpha t} \ dt = \dfrac{\lambda c}{\alpha}\)

    Supongamos costo de reemplazo unitario\(c = 1200\), tiempo promedio (en años) hasta el fracaso\(1/\lambda = 1/4\), y la tasa de descuento por año\(\alpha = 0.08\) (ocho por ciento). Entonces

    \(E[C] = \dfrac{1200 \cdot 4}{0.08} = 60,000\)

    Ejemplo\(\PageIndex{12}\) Random costs

    Supongamos que el costo del\(n\) th reemplazo en el Ejemplo 15.2.11 es una cantidad aleatoria\(C_n\), con\(\{C_n, S_n\}\) independiente y\(E[C_n] = c\), invariante con\(n\). Entonces

    \(E[C] = E[\sum_{n = 1}^{\infty} C_n e^{-\alpha S_n}] = \sum_{n = 1}^{\infty} E[C_n] E[e^{-\alpha S_n}] = \sum_{n = 1}^{\infty} cE[e^{-\alpha S_n}] = \dfrac{\lambda c}{\alpha}\)

    El análisis hasta este punto supone que el proceso continuará sin cesar hacia el futuro. A menudo, es deseable planificar para un período específico, finito. El resultado del Ejemplo 15.2.10 puede modificarse fácilmente para dar cuenta de un período finito, a menudo denominado horizonte finito.

    Ejemplo\(\PageIndex{13}\) Finite horizon

    Bajo las condiciones asumidas en el Ejemplo 15.2.10, anterior, deja\(N_t\) ser la variable aleatoria de conteo para llegadas en el intervalo\((0, t]\).

    Si\(Z_t = \sum_{n = 1}^{N_t} g(S_n)\), entonces\(E[Z_t] = \lambda \int_{0}^{t} g(u)\ du\)

    VERIFICACIÓN

    Desde\(N_t \ge n\) iff\(S_n \le t\). \(\sum_{n = 1}^{N_t} g(S_n) = \sum_{n = 0}^{\infty} I_{(0, t]} (S_n) g(S_n)\). En el resultado del Ejemplo 15.2.10, sustitúyase\(g\) por\(I_{(0, t]} g\) y tenga en cuenta que

    \(\int_{0}^{\infty} I_{(0, t]} (u) g(u)\ du = \int_{0}^{t} g(u)\ du\)

    Ejemplo\(\PageIndex{14}\) Replacement costs, finite horizon

    Bajo la condición del Ejemplo 15.2.11, considere los costos de reposición a lo largo de un periodo de dos años.

    Solución

    \(E[C] = \lambda c\int_{0}^{t} e^{-\alpha u} \ du = \dfrac{\lambda c}{\alpha} (1 - e^{-\alpha t})\)

    Así, el costo esperado para el horizonte infinito\(\lambda c/ \alpha\) se ve reducido por el factor\(1 - e^{-\alpha t}\). Para\(t = 2\) y el número en el Ejemplo 15.2.11, el factor de reducción es\(1 - e^{-0.16} = 0.1479\) dar\(E[C] = 60000 \cdot 0.1479 = 8871.37\).

    En el importante caso especial de que\(g(u) = ce^{-\alpha u}\), la exposición para\(E[\sum_{n = 1}^{\infty} g(S_n)]\) pueda ser puesta en una forma que no requiera que los tiempos de interllegada sean exponenciales.

    Ejemplo\(\PageIndex{15}\) General interarrival, exponential g

    Supongamos\(S_0 = 0\) y\(S_n = \sum_{i = 1}^{n} W_i\), donde\(\{W_i: 1 \le i\}\) es iid. Que\(\{V_n: 1 \le n\}\) sea una clase tal que cada\(E[V_n] = c\) pareja\(\{V_n ,S_n\}\) sea independiente. Entonces para\(\alpha > 0\)

    \(E[C] = E[\sum_{n = 1}^{\infty} V_n e^{-\alpha S_n}] = c \cdot \dfrac{M_W (-\alpha)}{1 - M_W (-\alpha)}\)

    donde\(M_W\) esta la función generadora de momento para\(W\).

    DERIVACIÓN

    Primero observamos que

    \(E[V_n e^{-\alpha S_n}] = cM_{S_n} (-\alpha) = cM_W^n (-\alpha)\)

    De ahí que por propiedades de expectativa y la serie geométrica

    \(E[C] = c \sum_{n =1}^{\infty} M_W^n (- \alpha) = \dfrac{M_W (-\alpha)}{1 - M_W (-\alpha)}\), siempre\(|M_W (-\alpha)| < 1\)

    Desde\(\alpha > 0\) y\(W > 0\), tenemos\(0 < e^{-\alpha W} < 1\), para que\(M_W (-\alpha) = E[e^{-\alpha W}] < 1\)

    Ejemplo\(\PageIndex{16}\) Uniformly distributed interarrival times

    Supongamos cada\(W_i\) ~ uniforme\((a, b)\). Luego (véase el Apéndice C),

    \(M_W (-\alpha) = \dfrac{e^{-a \alpha} - e^{-b \alpha}}{\alpha (b - a)}\)para que\(E[C] = c \cdot \dfrac{e^{-a \alpha} - e^{-b \alpha}}{\alpha (b - a) - [e^{-a \alpha} - e^{-b \alpha}]}\)

    Vamos\(a = 1\),\(b = 5\),\(c = 100\) y\(\alpha = 0\). Entonces,

    a = 1;
    b = 5;
    c = 100;
    A = 0.08;
    MW = (exp(-a*A) - exp(-b*A))/(A*(b - a))
    MW =    0.7900
    EC = c*MW/(1 - MW)
    EC =  376.1643
    

    This page titled 15.2: Algunos problemas de selección aleatoria is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.