Saltar al contenido principal

# 15.1: Selección aleatoria

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$

## Introducción

Los tratamientos habituales tratan con una sola variable aleatoria o un número fijo y finito de variables aleatorias, consideradas conjuntamente. Sin embargo, existen muchas aplicaciones comunes en las que seleccionamos al azar un miembro de una clase de variables aleatorias y observamos su valor, o bien seleccionamos un número aleatorio de variables aleatorias y obtenemos alguna función de las seleccionadas. Esto se formula con la ayuda de una variable aleatoria de conteo o selección$$N$$, que no es egativa, con valor entero. Puede ser independiente de la clase seleccionada, o puede estar relacionada de alguna manera secuencial con los miembros de la clase. Consideramos solo el caso independiente. Muchos problemas importantes requieren variables aleatorias opcionales, a veces llamadas tiempos de Markov. Estos implican más teoría de la que desarrollamos en este tratamiento.

Algunos ejemplos comunes:

Demanda total de$$N$$ clientes,$$N$$ independiente de las demandas individuales.
Tiempo total de servicio para$$N$$ las unidades—$$N$$ independiente de los tiempos de servicio individuales.
Ganancia neta en las$$N$$ jugadas de un juego,$$N$$ independientemente de las ganancias individuales.
Valores extremos de variables$$N$$ aleatorias—$$N$$ independientes de los valores individuales.
Muestra aleatoria de tamaño$$N$$ — generalmente$$N$$ se determina por las propiedades de la muestra observada.
Decidir cuándo jugar sobre la base de resultados pasados,$$N$$ dependiendo del pasado

## Un modelo útil: sumas aleatorias

Como modelo básico, consideramos la suma de un número aleatorio de miembros de una clase iid. Para tener una interpretación concreta que ayude a visualizar los patrones formales, pensamos en la demanda de un número aleatorio de clientes. Suponemos que el número de clientes N es independiente de las demandas individuales. Formulamos un modelo para ser utilizado para una variedad de aplicaciones.

Una secuencia básica$$\{X_n: 0 \le n\}$$ [Demanda de$$n$$ clientes]
Una secuencia incremental$$\{Y_n:0 \le n\}$$ [Demandas individuales]
Estas se relacionan de la siguiente manera:

$$X_n = \sum_{k = 0}^{n} Y_k$$para$$n \ge 0$$ y$$X_n = 0$$$$n < 0$$$$Y_n = X_n - X_{n - 1}$$ para todos$$n$$

Una variable aleatoria de conteo$$N$$. Si$$N = n$$ entonces$$n$$ de la$$Y_k$$ se agregan para dar la demanda compuesta$$D$$ (la suma aleatoria)

$$D = \sum_{k = 0}^{N} Y_k = \sum_{k = 0}^{\infty} I_{[N = k]} X_k = \sum_{k = 0}^{\infty} I_{\{k\}} (N) X_k$$

Nota. En algunas aplicaciones la variable aleatoria de conteo puede tomar el valor idealizado$$\infty$$. Por ejemplo, en un juego que se juega hasta que se produce algún resultado especificado, esto puede que nunca suceda, por lo que no se le puede asignar ningún valor finito$$N$$. En tal caso, es necesario decidir qué valor$$X_{\infty}$$ se va a asignar. Para$$N$$ independiente de la$$Y_n$$ (por lo tanto de la$$X_n$$), rara vez necesitamos considerar esta posibilidad.

Selección independiente de una secuencia incremental iid

Asumimos en todo momento, a menos que se indique específicamente lo contrario, que:
$$X_0 = Y_0 = 0$$
$$\{Y_k: 1 \le k\}$$ is iid
$$\{N, Y_k: 0 \le k\}$$ es una clase independiente

Utilizamos repetidamente dos proposiciones importantes:
$$E[h(D)|N = n] = E[h(X_n)]$$,$$n \ge 0$$
$$M_D (s) = g_N [M_Y (s)]$$. $$Y_n$$Si el valor entero no negativo es, entonces así es$$D$$ y$$g_D (s) = g_N[g_Y (s)]$$

DERIVACIÓN

Utilizamos propiedades de generación de funciones, funciones de generación de momentos y expectativa condicional.
$$E[I_{\{n\}} (N) h(D)] = E[h(D)|N = n] P(N = n)$$por definición de expectativa condicional, dado un evento, Ahora,
$$I_{\{n\}} (N) h(D) = I_{\{n\}} (N) h(X_n)$$ y$$E[I_{\{n\}} (N) h(X_n)] = P(N = n) E[h(X_n)]$$. De ahí
$$E[h(D) |N = n] P(N = n) = P(N = n) E[h(X_n)]$$. División por$$P(N = n)$$ da el resultado deseado.
Por la ley de probabilidad total (CE1b),$$M_D(s)= E[e^{sD}] = E\{E[e^{sD} |N]\}$$. Por la proposición 1 y la regla del producto para las funciones de generación de momento,

$$E[e^{sD}|N = n] = E[e^{sX_n}] = \prod_{k = 1}^{n} E[e^{sY_k}] = M_Y^n (s)$$

De ahí

$$M_D(s) = \sum_{n = 0}^{\infty} M_Y^n (s) P(N = n) = g_N[M_Y (s)]$$

Un argumento paralelo se mantiene para$$g_D$$

— □

Observación. El resultado sobre$$M_D$$ y$$g_D$$ puede ser desarrollado sin uso de expectativa condicional.

en el caso de valor total.

$$M_D(s) = E[e^{sD}] = \sum_{k = 0}^{\infty} E[I_{\{N = n\}} e^{sX_n}] = \sum_{k = 0}^{\infty} P(N = n) E[e^{sX_n}]$$

$$= \sum_{k = 0}^{\infty} P(N = n) M_Y^n (s) = g_N [M_Y (s)]$$

— □

Ejemplo$$\PageIndex{1}$$ A service shop

Supongamos que el número$$N$$ de trabajos traídos a una tienda de servicios en un día es Poisson (8). Una cuarta parte de estos son artículos en garantía por los que no se realiza ningún cargo. Otros caen en una de dos categorías. La mitad de los trabajos que llegan se cobran por una hora de tiempo de tienda; la cuarta parte restante se cobra por dos horas de tiempo de tienda. Así, los cargos individuales por hora de tienda$$Y_k$$ tienen la distribución común

$$Y =$$[0 1 2] con probabilidades$$PY =$$ [1/4 1/2 1/4]

Hacer los supuestos básicos de nuestro modelo. Determinar$$P(D \le 4)$$.

Solución

$$g_N(s) = e^{8(s - 1)} g_Y (s) = \dfrac{1}{4} (1 + 2s + s^2)$$

$$g_D (s) = g_N [g_Y (s)] = \text{exp} ((8/4) (1 + 2s + s^2) - 8) = e^{4s} e^{2s^2} e^{-6}$$

Ampliar los exponenciales en series de poder sobre el origen, multiplicar para obtener suficientes términos. El resultado de cálculos sencillos pero algo tediosos es

$$g_D (s) = e^{-6} ( 1 + 4s + 10s^2 + \dfrac{56}{3} s^3 + \dfrac{86}{3} s^4 + \cdot\cdot\cdot)$$

Tomando los coeficientes de la función generadora, obtenemos

$$P(D \le 4) \approx e^{-6} (1 + 4 + 10 + \dfrac{56}{3} + \dfrac{86}{3}) = e^{-6} \dfrac{187}{3} \approx 0.1545$$

Ejemplo$$\PageIndex{2}$$ A result on Bernoulli trials

Supongamos la variable aleatoria de conteo$$N$$ ~ binomio$$(n, p)$$ y$$Y_i = I_{E_i}$$, con$$P(E_i) = p_0$$. Entonces

$$g_N = (q + ps)^n$$y$$g_Y (s) = q_0 + p_0 s$$

Por el resultado básico en la selección aleatoria, tenemos

$$g_D (s) = g_N [g_Y(s)] = [q + p(q_0 + p_0 s)]^n = [(1 - pp_0) + pp_0 s]^n$$

así que$$D$$ ~ binomio$$(n, pp_0)$$.

En la siguiente sección establecemos m-procedimientos útiles para determinar la función generadora g D y la función generadora de momento$$M_D$$ para la demanda compuesta de variables aleatorias simples, de ahí para determinar la distribución completa. Obviamente, estos no funcionarán para todos los problemas. Puede ser útil, si no del todo suficiente, en tales casos poder determinar el valor medio$$E[D]$$ y la varianza$$\text{Var} [D]$$. Para ello, establecemos las siguientes expresiones para la media y varianza.

Ejemplo$$\PageIndex{3}$$ Mean and variance of the compound demand

$$E[D] = E[N]E[Y]$$y$$\text{Var} [D] = E[N] \text{Var} [Y] + \text{Var} [N] E^2 [Y]$$

DERIVACIÓN

$$E[D] = E[\sum_{n = 0}^{\infty} I_{\{N = n\}} X_n] = \sum_{n = 0}^{\infty} P(N = n) E[X_n]$$

$$= E[Y] \sum_{n = 0}^{\infty} n P(N = n) = E[Y] E[N]$$

$$E[D^2] = \sum_{n = 0}^{\infty} P(N = n) E[X_n^2] = \sum_{n = 0}^{\infty} P(N = n) \{\text{Var} [X_n] + E^2 [X_n]\}$$

$$= \sum_{n = 0}^{\infty} P(N = n) \{n \text{Var} [Y] = n^2 E^2 [Y]\} = E[N] \text{Var} [Y] + E[N^2] E^2[Y]$$

De ahí

$$\text{Var} [D] = E[N] \text{Var} [Y] + E[N^2] E^2 [Y] - E[N]^2 E^2[Y] = E[N] \text{Var} [Y] + \text{Var} [N] E^2[Y]$$

Ejemplo$$\PageIndex{4}$$ Mean and variance for Example 15.1.1

$$E[N] = \text{Var} [N] = 9$$. Por simetría$$E[Y] = 1$$. $$\text{Var} [Y] = 0.25(0 + 2 + 4) - 1 = 0.5$$. Por lo tanto,

$$E[D] = 8 \cdot 1 = 8$$,$$\text{Var} [D] = 8 \cdot 0.5 + 8 \cdot 1 = 12$$

## Cálculos para la demanda compuesta

Contamos con m-procedimientos para realizar los cálculos necesarios para determinar la distribución de una demanda compuesta$$D$$ cuando la variable aleatoria de conteo$$N$$ y las demandas individuales$$Y_k$$ son variables aleatorias simples con no demasiados valores. En algunos casos, como para una variable aleatoria de conteo de Poisson, podemos aproximarnos por una simple variable aleatoria.

El procedimiento gend

Si los no$$Y_i$$ son negativos, valor entero, entonces así es$$D$$, y hay una función generadora. Se examina una estrategia de cálculo que se implementa en el procedimiento m gend. Supongamos

$$g_N (s) = p_0 + p_1 s + p_2 s^2 + \cdot\cdot\cdot p_n s^n$$

$$g_Y (s) = \pi_0 + \pi_1 s + \pi_2 s^2 + \cdot\cdot\cdot \pi_m s^m$$

Los coeficientes de$$g_N$$ y$$g_Y$$ son las probabilidades de los valores de$$N$$ y$$Y$$, respectivamente. Ingresamos estos y calculamos los coeficientes para potencias de$$g_Y$$:

$$\begin{array} {lcr} {gN = [p_0\ p_1\ \cdot\cdot\cdot\ p_n]} & {1 \times (n + 1)} & {\text{Coefficients of } g_N} \\ {y = [\pi_0\ \pi_1\ \cdot\cdot\cdot\ \pi_n]} & {1 \times (m + 1)} & {\text{Coefficients of } g_Y} \\ {\ \ \ \ \ \cdot\cdot\cdot} & { } & { } \\ {y2 = \text{conv}(y,y)} & {1 \times (2m + 1)} & {\text{Coefficients of } g_Y^2} \\ {y3 = \text{conv}(y,y2)} & {1 \times (3m + 1)} & {\text{Coefficients of } g_Y^3} \\ {\ \ \ \ \ \cdot\cdot\cdot} & { } & { } \\ {yn = \text{conv}(y,y(n - 1))} & {1 \times (nm + 1)} & {\text{Coefficients of } g_Y^n}\end{array}$$

Deseamos generar una matriz$$P$$ cuyas filas contengan las probabilidades conjuntas. Las probabilidades en la fila$$i$$ th consisten en los coeficientes para la potencia apropiada de$$g_Y$$ multiplicado por la probabilidad$$N$$ tiene ese valor. Para lograrlo, necesitamos una matriz, cada una de cuyas$$n + 1$$ filas tiene$$nm + 1$$ elementos, la longitud de$$yn$$. Comenzamos por “preasignar” ceros a las filas. Es decir, nos fijamos$$P = \text{zeros}(n + 1, n\ ^*\ m + 1)$$. Luego reemplazamos los elementos apropiados de las filas sucesivas. Las probabilidades de reemplazo para la fila$$i$$ th se obtienen por la convolución$$g_Y$$ y el poder de$$g_Y$$ para la fila anterior. Cuando$$P$$ se completa la matriz, eliminamos cero filas y columnas, correspondientes a los valores faltantes de$$N$$ y$$D$$ (es decir, valores con probabilidad cero). Para orientar las probabilidades de articulación como en el plano, giramos$$P$$ noventa grados en sentido antihorario. Con la distribución conjunta, entonces podemos calcular las cantidades deseadas.

Ejemplo$$\PageIndex{5}$$ A compound demand

Es igualmente probable que el número de clientes en una tienda de electrodomésticos importante sea de 1, 2 o 3. Cada cliente compra 0, 1 o 2 artículos con probabilidades respectivas 0.5, 0.4, 0.1. Los clientes compran de forma independiente, independientemente del número de clientes. Primero determinamos las matrices que representan$$g_N$$ y$$g_Y$$. Los coeficientes son las probabilidades de que se observe cada valor entero. Tenga en cuenta que se deben incluir los coeficientes cero para las potencias faltantes.

gN = (1/3)*[0 1 1 1];    % Note zero coefficient for missing zero power
gY = 0.1*[5 4 1];        % All powers 0 thru 2 have positive coefficients
gend
Do not forget zero coefficients for missing powers
Enter the gen fn COEFFICIENTS for gN gN    % Coefficient matrix named gN
Enter the gen fn COEFFICIENTS for gY gY    % Coefficient matrix named gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD)                  % Optional display of complete distribution
0    0.2917
1.0000    0.3667
2.0000    0.2250
3.0000    0.0880
4.0000    0.0243
5.0000    0.0040
6.0000    0.0003
EN = N*PN'
EN =   2
EY = Y*PY'
EY =  0.6000
ED = D*PD'
ED =  1.2000                % Agrees with theoretical EN*EY
P3 = (D>=3)*PD'
P3  = 0.1167
[N,D,t,u,PN,PD,PL] = jcalcf(N,D,P);
EDn = sum(u.*P)./sum(P);
disp([N;EDn]')
1.0000    0.6000        % Agrees with theoretical E[D|N=n] = n*EY
2.0000    1.2000
3.0000    1.8000
VD = (D.^2)*PD' - ED^2
VD =  1.1200                % Agrees with theoretical EN*VY + VN*EY^2

Ejemplo$$\PageIndex{6}$$ A numerical example

$$g_N (s) = \dfrac{1}{5} (1 + s + s^2 + s^3 + s^4)$$$$g_Y (s) = 0.1 (5s + 3s^2 + 2s^3$$

Tenga en cuenta que falta la potencia cero de$$gY$$. correspondiente al hecho de que$$P(Y = 0) = 0$$.

gN = 0.2*[1 1 1 1 1];
gY = 0.1*[0 5 3 2];      % Note the zero coefficient in the zero position
gend
Do not forget zero coefficients for missing powers
Enter the gen fn COEFFICIENTS for gN  gN
Enter the gen fn COEFFICIENTS for gY  gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD)                 % Optional display of complete distribution
0    0.2000
1.0000    0.1000
2.0000    0.1100
3.0000    0.1250
4.0000    0.1155
5.0000    0.1110
6.0000    0.0964
7.0000    0.0696
8.0000    0.0424
9.0000    0.0203
10.0000    0.0075
11.0000    0.0019
12.0000    0.0003

p3 = (D == 3)*PD'        % P(D=3)
P3 =  0.1250
P4_12 = ((D >= 4)&(D <= 12))*PD'
P4_12 = 0.4650           % P(4 <= D <= 12)

Ejemplo$$\PageIndex{7}$$ Number of successes for random number $$N$$ of trials.

Nos interesa el número de éxitos en$$N$$ ensayos para una variable aleatoria de conteo general. Esto es una generalización del caso Bernoulli en el Ejemplo 15.1.2. Supongamos que, como en el Ejemplo 15.1.2, el número de clientes en una tienda principal de electrodomésticos es igualmente probable que sea 1, 2 o 3, y cada uno compra al menos un artículo con probabilidad$$p = 0.6$$. Determinar la distribución para el número$$D$$ de clientes compradores.

Solución

Utilizamos$$gN$$,$$gY$$, y gend.

gN = (1/3)*[0 1 1 1]; % Note zero coefficient for missing zero power
gY = [0.4 0.6];       % Generating function for the indicator function
gend
Do not forget zero coefficients for missing powers
Enter gen fn COEFFICIENTS for gN  gN
Enter gen fn COEFFICIENTS for gY  gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD)
0    0.2080
1.0000    0.4560
2.0000    0.2640
3.0000    0.0720

El procedimiento gend se limita a simples$$N$$ y$$Y_k$$, con valores enteros no negativos. A veces, una variable aleatoria con rango no limitado puede ser aproximada por una simple variable aleatoria. La solución en el siguiente ejemplo utiliza dicho procedimiento de aproximación para la variable aleatoria de conteo$$N$$.

Ejemplo$$\PageIndex{8}$$ Solution of the shop time Example 15.1.1

El número$$N$$ de trabajos traídos a una tienda de servicios en un día es Poisson (8). Los cargos individuales por hora de tienda$$Y_k$$ tienen la distribución común$$Y =$$ [0 1 2] con probabilidades$$PY =$$ [1/4 1/2 1/4].

Bajo los supuestos básicos de nuestro modelo, determinar$$P(D \le 4)$$.

Solución

Dado que Poisson$$N$$ no tiene límites, necesitamos verificar un número suficiente de términos en una simple aproximación. Entonces procedemos como en el caso sencillo.

pa = cpoisson(8,10:5:30)     % Check for sufficient number of terms
pa =   0.2834    0.0173    0.0003    0.0000    0.0000
p25 = cpoisson(8,25)         % Check on choice of n = 25
p25 =  1.1722e-06
gN = ipoisson(8,0:25);       % Approximate gN
gY = 0.25*[1 2 1];
gend
Do not forget zero coefficients for missing powers
Enter gen fn COEFFICIENTS for gN  gN
Enter gen fn COEFFICIENTS for gY  gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD(D<=20,:))            % Calculated values to D = 50
0    0.0025         % Display for D <= 20
1.0000    0.0099
2.0000    0.0248
3.0000    0.0463
4.0000    0.0711
5.0000    0.0939
6.0000    0.1099
7.0000    0.1165
8.0000    0.1132
9.0000    0.1021
10.0000    0.0861
11.0000    0.0684
12.0000    0.0515
13.0000    0.0369
14.0000    0.0253
15.0000    0.0166
16.0000    0.0105
17.0000    0.0064
18.0000    0.0037
19.0000    0.0021
20.0000    0.0012
sum(PD)                       % Check on sufficiency of approximation
ans =  1.0000
P4 = (D<=4)*PD'
P4 =   0.1545                 % Theoretical value (4  places) = 0.1545
ED = D*PD'
ED =   8.0000                 % Theoretical = 8  (Example 15.1.4)
VD = (D.^2)*PD' - ED^2
VD =  11.9999                 % Theoretical = 12 (Example 15.1.4)

Los m-procedimientos mgd y jmgd

El siguiente ejemplo muestra una limitación fundamental del procedimiento gend. Los valores para las demandas individuales no se limitan a números enteros, y existen brechas considerables entre los valores. En este caso, necesitamos implementar la función de generación de momento$$M_D$$ en lugar de la función generadora$$g_D$$.

En el caso de la función generadora, es tan fácil desarrollar la distribución conjunta para$$\{N, D\}$$ como desarrollar la distribución marginal para$$D$$. Por el momento generando función, la distribución conjunta requiere considerablemente más cómputos. Como consecuencia, nos parece conveniente tener dos m-procedimientos: mgd para la distribución marginal y jmgd para la distribución conjunta.

En lugar del procedimiento de convolución utilizado en gend para determinar la distribución de las sumas de las demandas individuales, el procedimiento m mgd utiliza la función m mgsum para obtener estas distribuciones. Las distribuciones para las distintas sumas se concatenan en dos vectores de fila, a los que se aplica csort para obtener la distribución para la demanda compuesta. El procedimiento requiere como entrada la función generadora para$$N$$ y la distribución real,$$Y$$ y$$PY$$, para las demandas individuales. Para$$gN$$, es necesario tratar los coeficientes como en gend. Sin embargo, los valores reales y las probabilidades en la distribución para Y se ponen en un par de matrices de filas. Si$$Y$$ es un valor entero, no hay ceros en la matriz de probabilidad para los valores faltantes.

Ejemplo$$\PageIndex{9}$$ Noninteger values

Una tienda de servicios tiene tres cargos estándar por una determinada clase de servicios de garantía que realiza: $10,$12.50 y \$15. El número de trabajos recibidos en una jornada laboral normal puede considerarse una variable aleatoria$$N$$ que toma valores 0, 1, 2, 3, 4 con probabilidades iguales 0.2. Los tipos de trabajo para llegadas pueden estar representados por una clase iid$$\{Y_i: 1 \le i \le 4\}$$, independiente del proceso de llegada. La$$Y_i$$ toma de valores 10, 12.5, 15 con probabilidades respectivas 0.5, 0.3, 0.2. Dejar$$C$$ ser la cantidad total de servicios prestados en un día. Determinar la distribución para$$C$$.

Solución

gN = 0.2*[1 1 1 1 1];         % Enter data
Y = [10 12.5 15];
PY = 0.1*[5 3 2];
mgd                           % Call for procedure
Enter gen fn COEFFICIENTS for gN  gN
Enter VALUES for Y  Y
Enter PROBABILITIES for Y  PY
Values are in row matrix D; probabilities are in PD.
To view the distribution, call for mD.
disp(mD)                      % Optional display of distribution
0    0.2000
10.0000    0.1000
12.5000    0.0600
15.0000    0.0400
20.0000    0.0500
22.5000    0.0600
25.0000    0.0580
27.5000    0.0240
30.0000    0.0330
32.5000    0.0450
35.0000    0.0570
37.5000    0.0414
40.0000    0.0353
42.5000    0.0372
45.0000    0.0486
47.5000    0.0468
50.0000    0.0352
52.5000    0.0187
55.0000    0.0075
57.5000    0.0019
60.0000    0.0003

A continuación recalculamos el Ejemplo 15.1.6, anterior, usando mgd en lugar de gend.

Ejemplo$$\PageIndex{10}$$ Recalculation of Example 15.1.6

En el Ejemplo 15.1.6, tenemos

$$g_N (s) = \dfrac{1}{5} (1 + s + s^2 + s^3 + s^4)$$$$g_Y (s) = 0.1 (5s + 3s^2 + 2s^3)$$

El significa que la distribución para$$Y$$ es$$Y =$$ [1 2 3] y$$PY =$$ 0.1 * [5 3 2].

Usamos la misma expresión para$$gN$$ que en el Ejemplo 15.1.6.

gN = 0.2*ones(1,5);
Y = 1:3;
PY = 0.1*[5 3 2];
mgd
Enter gen fn COEFFICIENTS for gN  gN
Enter VALUES for Y  Y
Enter PROBABILITIES for Y  PY
Values are in row matrix D; probabilities are in PD.
To view the distribution, call for mD.
disp(mD)
0    0.2000
1.0000    0.1000
2.0000    0.1100
3.0000    0.1250
4.0000    0.1155
5.0000    0.1110
6.0000    0.0964
7.0000    0.0696
8.0000    0.0424
9.0000    0.0203
10.0000    0.0075
11.0000    0.0019
12.0000    0.0003
P3 = (D==3)*PD'
P3 =   0.1250
ED = D*PD'
ED =   3.4000
P_4_12 = ((D>=4)&(D<=12))*PD'
P_4_12 =  0.4650
P7 = (D>=7)*PD'
P7 =   0.1421


Como era de esperar, los resultados son los mismos que los obtenidos con gend.

Si se desea obtener la distribución conjunta para$$\{N, D\}$$, utilizamos una modificación de mgd llamada jmgd. Las complicaciones vienen al colocar las probabilidades en la$$P$$ matriz en las posiciones deseadas. Esto requiere algunos cálculos para determinar el tamaño apropiado de las matrices utilizadas así como un procedimiento para poner cada probabilidad en la posición correspondiente a su$$D$$ valor. La operación real es bastante similar a la operación de mgd, y requiere el mismo formato de datos.

Un uso principal de la distribución conjunta es demostrar características del modelo, tales como$$E[D|N = n] = nE[Y]$$, etc. Esto, por supuesto, se utiliza para obtener las expresiones para$$M_D (s)$$ en términos de$$g_N (s)$$ y$$M_Y (s)$$. Este resultado orienta el desarrollo de los procedimientos computacionales, pero estos no dependen de este resultado. Sin embargo, suele ser útil demostrar la validez de los supuestos en ejemplos típicos.

Observación. En general, si el uso de gend es apropiado, es más rápido y eficiente que mgd (o jmgd). Y manejará problemas algo mayores. Pero ambos procedimientos m funcionan bastante bien para problemas de tamaño moderado, y son herramientas convenientes para resolver diversos problemas de tipo “demanda compuesta”.

This page titled 15.1: Selección aleatoria is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform.