Saltar al contenido principal
LibreTexts Español

15.1: Selección aleatoria

  • Page ID
    151045
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    Introducción

    Los tratamientos habituales tratan con una sola variable aleatoria o un número fijo y finito de variables aleatorias, consideradas conjuntamente. Sin embargo, existen muchas aplicaciones comunes en las que seleccionamos al azar un miembro de una clase de variables aleatorias y observamos su valor, o bien seleccionamos un número aleatorio de variables aleatorias y obtenemos alguna función de las seleccionadas. Esto se formula con la ayuda de una variable aleatoria de conteo o selección\(N\), que no es egativa, con valor entero. Puede ser independiente de la clase seleccionada, o puede estar relacionada de alguna manera secuencial con los miembros de la clase. Consideramos solo el caso independiente. Muchos problemas importantes requieren variables aleatorias opcionales, a veces llamadas tiempos de Markov. Estos implican más teoría de la que desarrollamos en este tratamiento.

    Algunos ejemplos comunes:

    Demanda total de\(N\) clientes,\(N\) independiente de las demandas individuales.
    Tiempo total de servicio para\(N\) las unidades—\(N\) independiente de los tiempos de servicio individuales.
    Ganancia neta en las\(N\) jugadas de un juego,\(N\) independientemente de las ganancias individuales.
    Valores extremos de variables\(N\) aleatorias—\(N\) independientes de los valores individuales.
    Muestra aleatoria de tamaño\(N\) — generalmente\(N\) se determina por las propiedades de la muestra observada.
    Decidir cuándo jugar sobre la base de resultados pasados,\(N\) dependiendo del pasado

    Un modelo útil: sumas aleatorias

    Como modelo básico, consideramos la suma de un número aleatorio de miembros de una clase iid. Para tener una interpretación concreta que ayude a visualizar los patrones formales, pensamos en la demanda de un número aleatorio de clientes. Suponemos que el número de clientes N es independiente de las demandas individuales. Formulamos un modelo para ser utilizado para una variedad de aplicaciones.

    Una secuencia básica\(\{X_n: 0 \le n\}\) [Demanda de\(n\) clientes]
    Una secuencia incremental\(\{Y_n:0 \le n\}\) [Demandas individuales]
    Estas se relacionan de la siguiente manera:

    \(X_n = \sum_{k = 0}^{n} Y_k\)para\(n \ge 0\) y\(X_n = 0\)\(n < 0\)\(Y_n = X_n - X_{n - 1}\) para todos\(n\)

    Una variable aleatoria de conteo\(N\). Si\(N = n\) entonces\(n\) de la\(Y_k\) se agregan para dar la demanda compuesta\(D\) (la suma aleatoria)

    \(D = \sum_{k = 0}^{N} Y_k = \sum_{k = 0}^{\infty} I_{[N = k]} X_k = \sum_{k = 0}^{\infty} I_{\{k\}} (N) X_k\)

    Nota. En algunas aplicaciones la variable aleatoria de conteo puede tomar el valor idealizado\(\infty\). Por ejemplo, en un juego que se juega hasta que se produce algún resultado especificado, esto puede que nunca suceda, por lo que no se le puede asignar ningún valor finito\(N\). En tal caso, es necesario decidir qué valor\(X_{\infty}\) se va a asignar. Para\(N\) independiente de la\(Y_n\) (por lo tanto de la\(X_n\)), rara vez necesitamos considerar esta posibilidad.

    Selección independiente de una secuencia incremental iid

    Asumimos en todo momento, a menos que se indique específicamente lo contrario, que:
    \(X_0 = Y_0 = 0\)
    \(\{Y_k: 1 \le k\}\) is iid
    \(\{N, Y_k: 0 \le k\}\) es una clase independiente

    Utilizamos repetidamente dos proposiciones importantes:
    \(E[h(D)|N = n] = E[h(X_n)]\),\(n \ge 0\)
    \(M_D (s) = g_N [M_Y (s)]\). \(Y_n\)Si el valor entero no negativo es, entonces así es\(D\) y\(g_D (s) = g_N[g_Y (s)]\)

    DERIVACIÓN

    Utilizamos propiedades de generación de funciones, funciones de generación de momentos y expectativa condicional.
    \(E[I_{\{n\}} (N) h(D)] = E[h(D)|N = n] P(N = n)\)por definición de expectativa condicional, dado un evento, Ahora,
    \(I_{\{n\}} (N) h(D) = I_{\{n\}} (N) h(X_n)\) y\(E[I_{\{n\}} (N) h(X_n)] = P(N = n) E[h(X_n)]\). De ahí
    \(E[h(D) |N = n] P(N = n) = P(N = n) E[h(X_n)]\). División por\(P(N = n)\) da el resultado deseado.
    Por la ley de probabilidad total (CE1b),\(M_D(s)= E[e^{sD}] = E\{E[e^{sD} |N]\}\). Por la proposición 1 y la regla del producto para las funciones de generación de momento,

    \(E[e^{sD}|N = n] = E[e^{sX_n}] = \prod_{k = 1}^{n} E[e^{sY_k}] = M_Y^n (s)\)

    De ahí

    \(M_D(s) = \sum_{n = 0}^{\infty} M_Y^n (s) P(N = n) = g_N[M_Y (s)]\)

    Un argumento paralelo se mantiene para\(g_D\)

    — □

    Observación. El resultado sobre\(M_D\) y\(g_D\) puede ser desarrollado sin uso de expectativa condicional.

    en el caso de valor total.

    \(M_D(s) = E[e^{sD}] = \sum_{k = 0}^{\infty} E[I_{\{N = n\}} e^{sX_n}] = \sum_{k = 0}^{\infty} P(N = n) E[e^{sX_n}]\)

    \(= \sum_{k = 0}^{\infty} P(N = n) M_Y^n (s) = g_N [M_Y (s)]\)

    — □

    Ejemplo\(\PageIndex{1}\) A service shop

    Supongamos que el número\(N\) de trabajos traídos a una tienda de servicios en un día es Poisson (8). Una cuarta parte de estos son artículos en garantía por los que no se realiza ningún cargo. Otros caen en una de dos categorías. La mitad de los trabajos que llegan se cobran por una hora de tiempo de tienda; la cuarta parte restante se cobra por dos horas de tiempo de tienda. Así, los cargos individuales por hora de tienda\(Y_k\) tienen la distribución común

    \(Y =\)[0 1 2] con probabilidades\(PY =\) [1/4 1/2 1/4]

    Hacer los supuestos básicos de nuestro modelo. Determinar\(P(D \le 4)\).

    Solución

    \(g_N(s) = e^{8(s - 1)} g_Y (s) = \dfrac{1}{4} (1 + 2s + s^2)\)

    Según la fórmula desarrollada anteriormente,

    \(g_D (s) = g_N [g_Y (s)] = \text{exp} ((8/4) (1 + 2s + s^2) - 8) = e^{4s} e^{2s^2} e^{-6}\)

    Ampliar los exponenciales en series de poder sobre el origen, multiplicar para obtener suficientes términos. El resultado de cálculos sencillos pero algo tediosos es

    \(g_D (s) = e^{-6} ( 1 + 4s + 10s^2 + \dfrac{56}{3} s^3 + \dfrac{86}{3} s^4 + \cdot\cdot\cdot)\)

    Tomando los coeficientes de la función generadora, obtenemos

    \(P(D \le 4) \approx e^{-6} (1 + 4 + 10 + \dfrac{56}{3} + \dfrac{86}{3}) = e^{-6} \dfrac{187}{3} \approx 0.1545\)

    Ejemplo\(\PageIndex{2}\) A result on Bernoulli trials

    Supongamos la variable aleatoria de conteo\(N\) ~ binomio\((n, p)\) y\(Y_i = I_{E_i}\), con\(P(E_i) = p_0\). Entonces

    \(g_N = (q + ps)^n\)y\(g_Y (s) = q_0 + p_0 s\)

    Por el resultado básico en la selección aleatoria, tenemos

    \(g_D (s) = g_N [g_Y(s)] = [q + p(q_0 + p_0 s)]^n = [(1 - pp_0) + pp_0 s]^n\)

    así que\(D\) ~ binomio\((n, pp_0)\).

    En la siguiente sección establecemos m-procedimientos útiles para determinar la función generadora g D y la función generadora de momento\(M_D\) para la demanda compuesta de variables aleatorias simples, de ahí para determinar la distribución completa. Obviamente, estos no funcionarán para todos los problemas. Puede ser útil, si no del todo suficiente, en tales casos poder determinar el valor medio\(E[D]\) y la varianza\(\text{Var} [D]\). Para ello, establecemos las siguientes expresiones para la media y varianza.

    Ejemplo\(\PageIndex{3}\) Mean and variance of the compound demand

    \(E[D] = E[N]E[Y]\)y\(\text{Var} [D] = E[N] \text{Var} [Y] + \text{Var} [N] E^2 [Y]\)

    DERIVACIÓN

    \(E[D] = E[\sum_{n = 0}^{\infty} I_{\{N = n\}} X_n] = \sum_{n = 0}^{\infty} P(N = n) E[X_n]\)

    \(= E[Y] \sum_{n = 0}^{\infty} n P(N = n) = E[Y] E[N]\)

    \(E[D^2] = \sum_{n = 0}^{\infty} P(N = n) E[X_n^2] = \sum_{n = 0}^{\infty} P(N = n) \{\text{Var} [X_n] + E^2 [X_n]\}\)

    \(= \sum_{n = 0}^{\infty} P(N = n) \{n \text{Var} [Y] = n^2 E^2 [Y]\} = E[N] \text{Var} [Y] + E[N^2] E^2[Y]\)

    De ahí

    \(\text{Var} [D] = E[N] \text{Var} [Y] + E[N^2] E^2 [Y] - E[N]^2 E^2[Y] = E[N] \text{Var} [Y] + \text{Var} [N] E^2[Y]\)

    Ejemplo\(\PageIndex{4}\) Mean and variance for Example 15.1.1

    \(E[N] = \text{Var} [N] = 9\). Por simetría\(E[Y] = 1\). \(\text{Var} [Y] = 0.25(0 + 2 + 4) - 1 = 0.5\). Por lo tanto,

    \(E[D] = 8 \cdot 1 = 8\),\(\text{Var} [D] = 8 \cdot 0.5 + 8 \cdot 1 = 12\)

    Cálculos para la demanda compuesta

    Contamos con m-procedimientos para realizar los cálculos necesarios para determinar la distribución de una demanda compuesta\(D\) cuando la variable aleatoria de conteo\(N\) y las demandas individuales\(Y_k\) son variables aleatorias simples con no demasiados valores. En algunos casos, como para una variable aleatoria de conteo de Poisson, podemos aproximarnos por una simple variable aleatoria.

    El procedimiento gend

    Si los no\(Y_i\) son negativos, valor entero, entonces así es\(D\), y hay una función generadora. Se examina una estrategia de cálculo que se implementa en el procedimiento m gend. Supongamos

    \(g_N (s) = p_0 + p_1 s + p_2 s^2 + \cdot\cdot\cdot p_n s^n\)

    \(g_Y (s) = \pi_0 + \pi_1 s + \pi_2 s^2 + \cdot\cdot\cdot \pi_m s^m\)

    Los coeficientes de\(g_N\) y\(g_Y\) son las probabilidades de los valores de\(N\) y\(Y\), respectivamente. Ingresamos estos y calculamos los coeficientes para potencias de\(g_Y\):

    \(\begin{array} {lcr} {gN = [p_0\ p_1\ \cdot\cdot\cdot\ p_n]} & {1 \times (n + 1)} & {\text{Coefficients of } g_N} \\ {y = [\pi_0\ \pi_1\ \cdot\cdot\cdot\ \pi_n]} & {1 \times (m + 1)} & {\text{Coefficients of } g_Y} \\ {\ \ \ \ \ \cdot\cdot\cdot} & { } & { } \\ {y2 = \text{conv}(y,y)} & {1 \times (2m + 1)} & {\text{Coefficients of } g_Y^2} \\ {y3 = \text{conv}(y,y2)} & {1 \times (3m + 1)} & {\text{Coefficients of } g_Y^3} \\ {\ \ \ \ \ \cdot\cdot\cdot} & { } & { } \\ {yn = \text{conv}(y,y(n - 1))} & {1 \times (nm + 1)} & {\text{Coefficients of } g_Y^n}\end{array}\)

    Deseamos generar una matriz\(P\) cuyas filas contengan las probabilidades conjuntas. Las probabilidades en la fila\(i\) th consisten en los coeficientes para la potencia apropiada de\(g_Y\) multiplicado por la probabilidad\(N\) tiene ese valor. Para lograrlo, necesitamos una matriz, cada una de cuyas\(n + 1\) filas tiene\(nm + 1\) elementos, la longitud de\(yn\). Comenzamos por “preasignar” ceros a las filas. Es decir, nos fijamos\(P = \text{zeros}(n + 1, n\ ^*\ m + 1)\). Luego reemplazamos los elementos apropiados de las filas sucesivas. Las probabilidades de reemplazo para la fila\(i\) th se obtienen por la convolución\(g_Y\) y el poder de\(g_Y\) para la fila anterior. Cuando\(P\) se completa la matriz, eliminamos cero filas y columnas, correspondientes a los valores faltantes de\(N\) y\(D\) (es decir, valores con probabilidad cero). Para orientar las probabilidades de articulación como en el plano, giramos\(P\) noventa grados en sentido antihorario. Con la distribución conjunta, entonces podemos calcular las cantidades deseadas.

    Ejemplo\(\PageIndex{5}\) A compound demand

    Es igualmente probable que el número de clientes en una tienda de electrodomésticos importante sea de 1, 2 o 3. Cada cliente compra 0, 1 o 2 artículos con probabilidades respectivas 0.5, 0.4, 0.1. Los clientes compran de forma independiente, independientemente del número de clientes. Primero determinamos las matrices que representan\(g_N\) y\(g_Y\). Los coeficientes son las probabilidades de que se observe cada valor entero. Tenga en cuenta que se deben incluir los coeficientes cero para las potencias faltantes.

    gN = (1/3)*[0 1 1 1];    % Note zero coefficient for missing zero power
    gY = 0.1*[5 4 1];        % All powers 0 thru 2 have positive coefficients
    gend
     Do not forget zero coefficients for missing powers
    Enter the gen fn COEFFICIENTS for gN gN    % Coefficient matrix named gN
    Enter the gen fn COEFFICIENTS for gY gY    % Coefficient matrix named gY
    Results are in N, PN, Y, PY, D, PD, P
    May use jcalc or jcalcf on N, D, P
    To view distribution for D, call for gD
    disp(gD)                  % Optional display of complete distribution
             0    0.2917
        1.0000    0.3667
        2.0000    0.2250
        3.0000    0.0880
        4.0000    0.0243
        5.0000    0.0040
        6.0000    0.0003
    EN = N*PN'
    EN =   2
    EY = Y*PY'
    EY =  0.6000
    ED = D*PD'
    ED =  1.2000                % Agrees with theoretical EN*EY
    P3 = (D>=3)*PD'
    P3  = 0.1167                
    [N,D,t,u,PN,PD,PL] = jcalcf(N,D,P);
    EDn = sum(u.*P)./sum(P);
    disp([N;EDn]')
        1.0000    0.6000        % Agrees with theoretical E[D|N=n] = n*EY
        2.0000    1.2000
        3.0000    1.8000
    VD = (D.^2)*PD' - ED^2
    VD =  1.1200                % Agrees with theoretical EN*VY + VN*EY^2

    Ejemplo\(\PageIndex{6}\) A numerical example

    \(g_N (s) = \dfrac{1}{5} (1 + s + s^2 + s^3 + s^4)\)\(g_Y (s) = 0.1 (5s + 3s^2 + 2s^3\)

    Tenga en cuenta que falta la potencia cero de\(gY\). correspondiente al hecho de que\(P(Y = 0) = 0\).

    gN = 0.2*[1 1 1 1 1];
    gY = 0.1*[0 5 3 2];      % Note the zero coefficient in the zero position
    gend
    Do not forget zero coefficients for missing powers
    Enter the gen fn COEFFICIENTS for gN  gN
    Enter the gen fn COEFFICIENTS for gY  gY
    Results are in N, PN, Y, PY, D, PD, P
    May use jcalc or jcalcf on N, D, P
    To view distribution for D, call for gD
    disp(gD)                 % Optional display of complete distribution
             0    0.2000
        1.0000    0.1000
        2.0000    0.1100
        3.0000    0.1250
        4.0000    0.1155
        5.0000    0.1110
        6.0000    0.0964
        7.0000    0.0696
        8.0000    0.0424
        9.0000    0.0203
       10.0000    0.0075
       11.0000    0.0019
       12.0000    0.0003
    
    p3 = (D == 3)*PD'        % P(D=3)
    P3 =  0.1250
    P4_12 = ((D >= 4)&(D <= 12))*PD'
    P4_12 = 0.4650           % P(4 <= D <= 12)

    Ejemplo\(\PageIndex{7}\) Number of successes for random number \(N\) of trials.

    Nos interesa el número de éxitos en\(N\) ensayos para una variable aleatoria de conteo general. Esto es una generalización del caso Bernoulli en el Ejemplo 15.1.2. Supongamos que, como en el Ejemplo 15.1.2, el número de clientes en una tienda principal de electrodomésticos es igualmente probable que sea 1, 2 o 3, y cada uno compra al menos un artículo con probabilidad\(p = 0.6\). Determinar la distribución para el número\(D\) de clientes compradores.

    Solución

    Utilizamos\(gN\),\(gY\), y gend.

    gN = (1/3)*[0 1 1 1]; % Note zero coefficient for missing zero power
    gY = [0.4 0.6];       % Generating function for the indicator function
    gend
    Do not forget zero coefficients for missing powers
    Enter gen fn COEFFICIENTS for gN  gN
    Enter gen fn COEFFICIENTS for gY  gY
    Results are in N, PN, Y, PY, D, PD, P
    May use jcalc or jcalcf on N, D, P
    To view distribution for D, call for gD
    disp(gD)
             0    0.2080
        1.0000    0.4560
        2.0000    0.2640
        3.0000    0.0720

    El procedimiento gend se limita a simples\(N\) y\(Y_k\), con valores enteros no negativos. A veces, una variable aleatoria con rango no limitado puede ser aproximada por una simple variable aleatoria. La solución en el siguiente ejemplo utiliza dicho procedimiento de aproximación para la variable aleatoria de conteo\(N\).

    Ejemplo\(\PageIndex{8}\) Solution of the shop time Example 15.1.1

    El número\(N\) de trabajos traídos a una tienda de servicios en un día es Poisson (8). Los cargos individuales por hora de tienda\(Y_k\) tienen la distribución común\(Y =\) [0 1 2] con probabilidades\(PY =\) [1/4 1/2 1/4].

    Bajo los supuestos básicos de nuestro modelo, determinar\(P(D \le 4)\).

    Solución

    Dado que Poisson\(N\) no tiene límites, necesitamos verificar un número suficiente de términos en una simple aproximación. Entonces procedemos como en el caso sencillo.

    pa = cpoisson(8,10:5:30)     % Check for sufficient number of terms
    pa =   0.2834    0.0173    0.0003    0.0000    0.0000
    p25 = cpoisson(8,25)         % Check on choice of n = 25
    p25 =  1.1722e-06
    gN = ipoisson(8,0:25);       % Approximate gN
    gY = 0.25*[1 2 1];
    gend
    Do not forget zero coefficients for missing powers
    Enter gen fn COEFFICIENTS for gN  gN
    Enter gen fn COEFFICIENTS for gY  gY
    Results are in N, PN, Y, PY, D, PD, P
    May use jcalc or jcalcf on N, D, P
    To view distribution for D, call for gD
    disp(gD(D<=20,:))            % Calculated values to D = 50
             0    0.0025         % Display for D <= 20
        1.0000    0.0099
        2.0000    0.0248
        3.0000    0.0463
        4.0000    0.0711
        5.0000    0.0939
        6.0000    0.1099
        7.0000    0.1165
        8.0000    0.1132
        9.0000    0.1021
       10.0000    0.0861
       11.0000    0.0684
       12.0000    0.0515
       13.0000    0.0369
       14.0000    0.0253
       15.0000    0.0166
       16.0000    0.0105
       17.0000    0.0064
       18.0000    0.0037
       19.0000    0.0021
       20.0000    0.0012
    sum(PD)                       % Check on sufficiency of approximation
    ans =  1.0000
    P4 = (D<=4)*PD'
    P4 =   0.1545                 % Theoretical value (4  places) = 0.1545
    ED = D*PD'
    ED =   8.0000                 % Theoretical = 8  (Example 15.1.4)
    VD = (D.^2)*PD' - ED^2
    VD =  11.9999                 % Theoretical = 12 (Example 15.1.4)

    Los m-procedimientos mgd y jmgd

    El siguiente ejemplo muestra una limitación fundamental del procedimiento gend. Los valores para las demandas individuales no se limitan a números enteros, y existen brechas considerables entre los valores. En este caso, necesitamos implementar la función de generación de momento\(M_D\) en lugar de la función generadora\(g_D\).

    En el caso de la función generadora, es tan fácil desarrollar la distribución conjunta para\(\{N, D\}\) como desarrollar la distribución marginal para\(D\). Por el momento generando función, la distribución conjunta requiere considerablemente más cómputos. Como consecuencia, nos parece conveniente tener dos m-procedimientos: mgd para la distribución marginal y jmgd para la distribución conjunta.

    En lugar del procedimiento de convolución utilizado en gend para determinar la distribución de las sumas de las demandas individuales, el procedimiento m mgd utiliza la función m mgsum para obtener estas distribuciones. Las distribuciones para las distintas sumas se concatenan en dos vectores de fila, a los que se aplica csort para obtener la distribución para la demanda compuesta. El procedimiento requiere como entrada la función generadora para\(N\) y la distribución real,\(Y\) y\(PY\), para las demandas individuales. Para\(gN\), es necesario tratar los coeficientes como en gend. Sin embargo, los valores reales y las probabilidades en la distribución para Y se ponen en un par de matrices de filas. Si\(Y\) es un valor entero, no hay ceros en la matriz de probabilidad para los valores faltantes.

    Ejemplo\(\PageIndex{9}\) Noninteger values

    Una tienda de servicios tiene tres cargos estándar por una determinada clase de servicios de garantía que realiza: $10, $12.50 y $15. El número de trabajos recibidos en una jornada laboral normal puede considerarse una variable aleatoria\(N\) que toma valores 0, 1, 2, 3, 4 con probabilidades iguales 0.2. Los tipos de trabajo para llegadas pueden estar representados por una clase iid\(\{Y_i: 1 \le i \le 4\}\), independiente del proceso de llegada. La\(Y_i\) toma de valores 10, 12.5, 15 con probabilidades respectivas 0.5, 0.3, 0.2. Dejar\(C\) ser la cantidad total de servicios prestados en un día. Determinar la distribución para\(C\).

    Solución

    gN = 0.2*[1 1 1 1 1];         % Enter data
    Y = [10 12.5 15];
    PY = 0.1*[5 3 2];
    mgd                           % Call for procedure
    Enter gen fn COEFFICIENTS for gN  gN
    Enter VALUES for Y  Y
    Enter PROBABILITIES for Y  PY
    Values are in row matrix D; probabilities are in PD.
    To view the distribution, call for mD.
    disp(mD)                      % Optional display of distribution
             0    0.2000
       10.0000    0.1000
       12.5000    0.0600
       15.0000    0.0400
       20.0000    0.0500
       22.5000    0.0600
       25.0000    0.0580
       27.5000    0.0240
       30.0000    0.0330
       32.5000    0.0450
       35.0000    0.0570
       37.5000    0.0414
       40.0000    0.0353
       42.5000    0.0372
       45.0000    0.0486
       47.5000    0.0468
       50.0000    0.0352
       52.5000    0.0187
       55.0000    0.0075
       57.5000    0.0019
       60.0000    0.0003

    A continuación recalculamos el Ejemplo 15.1.6, anterior, usando mgd en lugar de gend.

    Ejemplo\(\PageIndex{10}\) Recalculation of Example 15.1.6

    En el Ejemplo 15.1.6, tenemos

    \(g_N (s) = \dfrac{1}{5} (1 + s + s^2 + s^3 + s^4)\)\(g_Y (s) = 0.1 (5s + 3s^2 + 2s^3)\)

    El significa que la distribución para\(Y\) es\(Y =\) [1 2 3] y\(PY =\) 0.1 * [5 3 2].

    Usamos la misma expresión para\(gN\) que en el Ejemplo 15.1.6.

    gN = 0.2*ones(1,5);
    Y = 1:3;
    PY = 0.1*[5 3 2];
    mgd
    Enter gen fn COEFFICIENTS for gN  gN
    Enter VALUES for Y  Y
    Enter PROBABILITIES for Y  PY
    Values are in row matrix D; probabilities are in PD.
    To view the distribution, call for mD.
    disp(mD)
             0    0.2000
        1.0000    0.1000
        2.0000    0.1100
        3.0000    0.1250
        4.0000    0.1155
        5.0000    0.1110
        6.0000    0.0964
        7.0000    0.0696
        8.0000    0.0424
        9.0000    0.0203
       10.0000    0.0075
       11.0000    0.0019
       12.0000    0.0003
    P3 = (D==3)*PD'
    P3 =   0.1250
    ED = D*PD'
    ED =   3.4000
    P_4_12 = ((D>=4)&(D<=12))*PD'
    P_4_12 =  0.4650
    P7 = (D>=7)*PD'
    P7 =   0.1421
    

    Como era de esperar, los resultados son los mismos que los obtenidos con gend.

    Si se desea obtener la distribución conjunta para\(\{N, D\}\), utilizamos una modificación de mgd llamada jmgd. Las complicaciones vienen al colocar las probabilidades en la\(P\) matriz en las posiciones deseadas. Esto requiere algunos cálculos para determinar el tamaño apropiado de las matrices utilizadas así como un procedimiento para poner cada probabilidad en la posición correspondiente a su\(D\) valor. La operación real es bastante similar a la operación de mgd, y requiere el mismo formato de datos.

    Un uso principal de la distribución conjunta es demostrar características del modelo, tales como\(E[D|N = n] = nE[Y]\), etc. Esto, por supuesto, se utiliza para obtener las expresiones para\(M_D (s)\) en términos de\(g_N (s)\) y\(M_Y (s)\). Este resultado orienta el desarrollo de los procedimientos computacionales, pero estos no dependen de este resultado. Sin embargo, suele ser útil demostrar la validez de los supuestos en ejemplos típicos.

    Observación. En general, si el uso de gend es apropiado, es más rápido y eficiente que mgd (o jmgd). Y manejará problemas algo mayores. Pero ambos procedimientos m funcionan bastante bien para problemas de tamaño moderado, y son herramientas convenientes para resolver diversos problemas de tipo “demanda compuesta”.


    This page titled 15.1: Selección aleatoria is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform.