Saltar al contenido principal

9.1: Clases independientes de variables aleatorias

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$

El concepto de independencia para clases de eventos se desarrolla en términos de una regla de producto. En esta unidad, extendemos el concepto a clases de variables aleatorias.

Pares independientes

Recordemos que para una variable aleatoria$$X$$, la imagen inversa$$X^{-1} (M)$$ (es decir, el conjunto de todos los resultados$$\omega \in \Omega$$ que se mapean$$M$$ por$$X$$) es un evento para cada subconjunto razonable$$M$$ en la línea real. De manera similar, la imagen inversa$$Y^{-1}(N)$$ es un evento determinado por variable aleatoria$$Y$$ para cada conjunto razonable$$N$$. Extendemos la noción de independencia a un par de variables aleatorias requiriendo independencia de los eventos que determinan. Más precisamente,

Definición

Un par$$\{X, Y\}$$ de variables aleatorias es (estocásticamente) independiente si cada par de eventos$$\{X^{-1} (M), Y^{-1} (N)\}$$ es independiente.

Esta condición puede ser indicada en términos de la regla del producto

$$P(X \in M, Y \le N) = P(X \in M) P(Y \in N)$$para todos (Borel) conjuntos$$M, N$$

Independencia implica

\begin{align*} F_{XY} (t, u) &= P(X \in (-\infty, t], Y \in (-\infty, u]) \\[4pt] &= P(X \in (-\infty, t]) P(Y \in (-\infty, u]) \\[4pt] &= F_X (t) F_Y (u) \quad \forall t, u \end{align*}

Tenga en cuenta que la regla de producto en la función de distribución es equivalente a la condición que tiene la regla de producto para las imágenes inversas de una clase especial de conjuntos$$\{M, N\}$$ de la forma$$M = (-\infty, t]$$ y$$N = (-\infty, u]$$. Un teorema importante de la teoría de medidas asegura que si la regla del producto se mantiene para esta clase especial, se mantiene para la clase general de$$\{M, N\}$$. Así podemos afirmar

El par$$\{X, Y\}$$ es independiente si se mantiene la siguiente regla de producto

$F_{XY} (t, u) = F_X (t) F_Y (u) \quad \forall t, u$

Ejemplo 9.1.1: un par independiente

Supongamos$$F_{XY} (t, u) = (1 - e^{-\infty} ) (1 - e^{-\beta u})$$$$0 \le t$$,$$0 \le u$$. Tomando límites muestra

$F_X (t) = \lim_{u \to \infty} F_{XY} (t, u) = 1 - e^{-\alpha t} \nonumber$

y

$F_Y(u) = \lim_{t \to \infty} F_{XY} (t, u) = 1- e^{-\beta u} \nonumber$

para que se$$F_{XY} (t, u) = F_X(t) F_Y(u)$$ mantenga la regla del producto. Por lo tanto,$$\{X, Y\}$$ el par es independiente.

Si hay una función de densidad conjunta, entonces la relación con la función de distribución conjunta deja claro que el par es independiente si la regla del producto se mantiene para la densidad. Es decir, el par es independiente iff

$$f_{XY} (t, u) = f_X (t) f_Y (u)$$$$\forall t, u$$

ejemplo 9.1.2: distribución uniforme conjunta en un rectángulo

supongamos que las distribuciones de masa de probabilidad conjunta inducidas por el par$$\{X, Y\}$$ es uniforme en un rectángulo con lados$$I_1 = [a, b]$$ y$$I_2 = [c, d]$$. Ya que el área es$$(b - a) (d - c)$$, el valor constante de$$f_{XY}$$ es$$1/(b - a) (d - c)$$. La integración simple da

$f_X(t) = \dfrac{1}{(b - a) (d - c)} \int_{c}^{d} du = \dfrac{1}{b - a} \quad a \le t \le b \nonumber$

y

$f_Y(u) = \dfrac{1}{(b - a)(d - c)} \int_{a}^{b} dt = \dfrac{1}{d - c} \quad c \le u \le d \nonumber$

Así se deduce que$$X$$ es uniforme en$$[a, b]$$. $$Y$$es uniforme encendido$$[c, d]$$, y$$f_{XY} (t, u) = f_X(t) f_Y(u)$$ para todos$$t, u$$, para que el par$$\{X, Y\}$$ sea independiente. Lo contrario también es cierto: si el par es independiente con$$X$$ uniforme encendido$$[a, b]$$ y$$Y$$ es uniforme encendido$$[c, d]$$, el par tiene una distribución conjunta uniforme encendida$$I_1 \times I_2$$.

La Distribución Masiva Conjunta

Debe ser evidente que la condición de independencia impone restricciones al carácter de la distribución masiva conjunta en el plano. Para describirlo de manera más sucinta, empleamos la siguiente terminología.

Definición

Si$$M$$ es un subconjunto del eje horizontal y$$N$$ es un subconjunto del eje vertical, entonces el producto cartesiano$$M \times N$$ es el rectángulo (generalizado) que consiste en aquellos puntos$$(t, u)$$ en el plano tal que$$t \in M$$ y$$u \in N$$.

ejemplo 9.1.3: Rectángulo con lados de intervalo

El rectángulo en el Ejemplo 9.1.2 es el producto artesiano$$I_1 \times I_2$$, que consiste en todos aquellos puntos$$(t, u)$$ tales que$$a \le t \le b$$ y$$c \le u \le d$$ (es decir,$$t \in I_1$$ y$$u \in I_2$$).

Figura 9.1.1. Distribución conjunta para un par independiente de variables aleatorias.

Reafirmamos la regla del producto para la independencia en términos de conjuntos de productos cartesianos.

$P(X \in M, Y \in N) = P((X, Y) \in M \times N) = P(X \in M) P(Y \in N)$

La referencia a la Figura 9.1.1 ilustra el patrón básico. Si$$M, N$$ hay intervalos en los ejes horizontal y vertical, respectivamente, entonces el rectángulo$$M \times N$$ es la intersección de la tira vertical que se encuentra con el eje horizontal$$M$$ con la tira horizontal que se encuentra con el eje vertical en$$N$$. La probabilidad$$X \in M$$ es la porción de la masa de probabilidad conjunta en la franja vertical; la probabilidad$$Y \in N$$ es la parte de la probabilidad conjunta en la franja horizontal. La probabilidad en el rectángulo es el producto de estas probabilidades marginales.

Esto sugiere una prueba útil para la no independencia que llamamos prueba de rectángulo. Ilustramos con un ejemplo sencillo.

Figura 9.1.2. Prueba de rectángulo para no independencia de un par de variables aleatorias.

Ejemplo 9.1.4: La prueba de rectángulo para la no independencia

Supongamos que la masa de probabilidad se distribuye uniformemente sobre el cuadrado con vértices en (1,0), (2,1), (1,2), (0,1). Es evidente a partir de la Figura 9.1.2 que un valor de$$X$$ determina los posibles valores de$$Y$$ y viceversa, de manera que no esperaríamos independencia del par. Para establecer esto, considere el pequeño rectángulo que$$M \times N$$ se muestra en la figura. No hay masa de probabilidad en la región. Sin embargo$$P(X \in M) > 0$$ y$$P(Y \in N) > 0$$, para que

$$P(X \in M) P(Y \in N) > 0$$, pero$$P((X, Y) \in M \times N) = 0$$. La regla del producto falla; de ahí que el par no pueda ser estocásticamente independiente.

Obración. Hay casos no independientes para los que esta prueba no funciona. Y no proporciona una prueba de independencia. A pesar de estas limitaciones, frecuentemente es útil. Debido a la información contenida en la condición de independencia, en muchos casos se pueden obtener las distribuciones completas conjuntas y marginales con información parcial apropiada. El siguiente es un ejemplo sencillo.

Ejemplo 9.1.5: Probabilidades conjuntas y marginales a partir de información parcial

Supongamos que el par$$\{X, Y\}$$ es independiente y cada uno tiene tres valores posibles. Los siguientes cuatro elementos de información están disponibles.

$$P(X = t_1) = 0.2$$,$$P(Y = u_1) = 0.3$$,$$P(X = t_1, Y = u_2) = 0.08$$

$$P(X = t_2, Y = u_1) = 0.15$$

Estos valores se muestran en negrita en la Figura 9.1.3. Se utiliza una combinación de la regla del producto y el hecho de que la masa de probabilidad total es uno para calcular cada una de las probabilidades marginales y conjuntas. Por ejemplo$$P(X = t_1) = 0.2$$ e$$P(X = t_1, Y = u_2) = P(X = t_1) P(Y = u_2) = 0.8$$ implica$$P(Y = u_2) = 0.4$$. Entonces P (Y = u_3) = 1 - P (Y = u_1) - P (Y = u_2) = 0.3\). Otros se calculan de manera similar. No existe un procedimiento único para la solución. Y no ha parecido útil desarrollar procedimientos de MATLAB para lograrlo.

Figura 9.1.3. Probabilidades conjuntas y marginales a partir de información parcial.

Ejemplo 9.1.6: La distribución normal conjunta

Un par$$\{X, Y\}$$ tiene la distribución normal de la junta si la densidad de la junta es

$$f_{XY} (t, u) = \dfrac{1}{2\pi \sigma_{X} \sigma_{Y} (1 - \rho^2)^{1/2}} e^{-Q(t,u)/2}$$

donde

$$Q(t, u) = \dfrac{1}{1 - \rho^2} [(\dfrac{t - \mu_X}{\sigma_X})^2 - 2 \rho (\dfrac{t - \mu_X}{\sigma_X}) (\dfrac{t - \mu_Y}{\sigma_Y}) + (\dfrac{t - \mu_Y}{\sigma_Y})^2]$$

Las densidades marginales se obtienen con la ayuda de algunos trucos algebraicos para integrar la densidad articular. El resultado es que$$X ~ N(\mu_X, \sigma_X^2)$$ y$$Y ~ N(\mu_Y, \sigma_Y^2)$$. Si el parámetro$$\rho$$ se establece en cero, el resultado es

$$f_{XY} (t, u) = f_X (t) f_Y(u)$$

para que el par sea independiente iff$$\rho = 0$$. Los detalles se dejan como ejercicio para el lector interesado.

Obración. Si bien es cierto que cada par independiente de variables aleatorias normalmente distribuidas es normal conjunta, no todos los pares de variables aleatorias normalmente distribuidas tienen la distribución normal conjunta.

Ejemplo 9.1.7: un par normal no articular normalmente distribuido

Comenzamos con la distribución para un par normal de articulación y derivamos una distribución conjunta para un par normal que no es normal de articulación. La función

$$\varphi (t, u) = \dfrac{1}{2\pi} \text{exp } (-\dfrac{t^2}{2} - \dfrac{u^2}{2})$$

es la densidad normal conjunta para un par independiente ($$\rho = 0$$) de variables aleatorias normales estandarizadas. Ahora defina la densidad de juntas para un par$$\{X, Y\}$$ por

$$f_{XY} (t, u) = 2 \varphi (t, u)$$en los cuadrantes primero y tercero, y cero en otros

Tanto$$X$$ ~$$N(0,1)$$ como$$Y$$ ~$$N(0,1)$$. Sin embargo, no pueden ser normales en las articulaciones, ya que la distribución normal de la articulación es positiva para all ($$t, u$$).

Clases independientes

Dado que la independencia de las variables aleatorias es la independencia de los eventos determinados por las variables aleatorias, la extensión a clases generales es simple e inmediata.

Definición

Una clase$$\{X_i: i \in J\}$$ de variables aleatorias es (estocásticamente) independiente si la regla del producto tiene para cada subclase finita de dos o más.

Obración. El conjunto de índices$$J$$ en la definición puede ser finito o infinito.

Para una clase finita$$\{X_i: 1 \le i \le n\}$$, la independencia es equivalente a la regla del producto

$$F_{X_1 X_2 \cdot\cdot\cdot X_n} (t_1, t_2, \cdot\cdot\cdot, t_n) = \prod_{i = 1}^{n} F_{X_i} (t_i)$$para todos$$(t_1, t_2, \cdot\cdot\cdot, t_n)$$

Dado que podemos obtener la función de distribución conjunta para cualquier subclase finita dejando que los argumentos para las otras sean (es decir, tomando los límites como el$$t_i$$ aumento apropiado sin límite), la regla de producto único es suficiente para dar cuenta de todas las subclases finitas.

Variables aleatorias absolutamente continuas

Si una clase$$\{X_i: i \in J\}$$ es independiente y las variables individuales son absolutamente continuas (es decir, tienen densidades), entonces cualquier subclase finita es conjuntamente absolutamente continua y la regla de producto se mantiene para las densidades de tales subclases

$$f_{X_{i1}X_{i2} \cdot\cdot\cdot X_{im}} (t_{i1}, t_{i2}, \cdot\cdot\cdot, t_{im}) = \prod_{k = 1}^{m} f_{X_{ik}} (t_{ik})$$para todos$$(t_1, t_2, \cdot\cdot\cdot, t_n)$$

Del mismo modo, si cada subclase finita es conjuntamente absolutamente continua, entonces cada variable individual es absolutamente continua y la regla del producto se mantiene para las densidades. Frecuentemente tratamos con clases independientes en las que cada variable aleatoria tiene la misma distribución marginal. Dichas clases se denominan clases iid (un acrónimo de i ndependiente, i denticamente d istributed). Los ejemplos son muestras aleatorias simples de una población determinada, o los resultados de ensayos repetitivos con la misma distribución sobre el resultado de cada ensayo componente. Una secuencia de Bernoulli es un ejemplo sencillo.

Variables aleatorias simples

Considere un par$$\{X, Y\}$$ de variables aleatorias simples en forma canónica

$$X = \sum_{i = 1}^{n}t_i I_{A_i}$$$$Y = \sum_{j = 1}^{m} u_j I_{B_j}$$

Dado que$$A_i = \{X = t_i\}$$ y$$B_j = \{Y = u_j\}$$ el par$$\{X, Y\}$$ es independiente si cada uno de los pares$$\{A_i, B_j\}$$ es independiente. La distribución conjunta tiene masa de probabilidad en cada punto$$(t_i, u_j)$$ en el rango de$$W = (X, Y)$$. Por lo tanto, en cada punto de la cuadrícula,

$$P(X = t_i, Y = u_j) = P(X = t_i) P(Y = u_j)$$

De acuerdo con la prueba de rectángulo, ningún punto de cuadrícula que tenga uno de los$$t_i$$ o$$u_j$$ como coordenada tiene masa de probabilidad cero. Las distribuciones marginales determinan las distribuciones conjuntas. Si$$X$$ tiene valores$$n$$ distintos y$$Y$$ tiene valores$$m$$ distintos, entonces las probabilidades marginales n + m son suficientes para determinar las probabilidades conjuntas m · n. Dado que las probabilidades marginales para cada variable deben sumar a una, solo se necesitan$$n - 1) + (m - 1) = m + n - 2$$ valores.

Supongamos$$X$$ y$$Y$$ están en forma afín. Es decir,

$$X =a_0 + \sum_{i = 1}^{n} a_i I_{E_i}$$$$Y = b_0 + \sum_{j = 1}^{m} b_j I_{E_j}$$

Dado que$$A_r = \{X = t_r\}$$ es la unión de minterms generada por el$$E_i$$ y$$B_j = \{Y = u_s\}$$ es la unión de minterms generados por el$$F_j$$, el par$$\{X, Y\}$$ es independiente si cada par de minterms$$\{M_a, N_b\}$$ generados por las dos clases, respectivamente, es independiente. La independencia de los pares minterm está implicada por la independencia de la clase combinada

$$\{E_i, F_j: 1 \le i \le n, 1 \le j \le m\}$$

Los cálculos en el caso simple conjunto se manejan fácilmente mediante funciones m y procedimientos m apropiados.

MATLAB y variables aleatorias simples independientes

En el caso general de pares de variables aleatorias simples conjuntas tenemos el procedimiento m jcalc, que utiliza información en matrices$$X, Y$$ y$$P$$ para determinar las probabilidades marginales y las matrices de cálculo$$t$$ y$$u$$. En el caso independiente, solo necesitamos las distribuciones marginales en matrices$$X$$,$$PX$$,$$Y$$ y$$PY$$ para determinar la matriz de probabilidad conjunta (de ahí la distribución conjunta) y las matrices de cálculo$$t$$ y$$u$$. Si las variables aleatorias se dan en forma canónica, tenemos las distribuciones marginales. Si están en forma afín, podemos usar canónicos (o la forma de función canonicf) para obtener las distribuciones marginales.

Una vez que tenemos ambas distribuciones marginales, utilizamos un procedimiento m que llamamos icalc. La formación de la matriz de probabilidad conjunta es simplemente una cuestión de determinar todas las probabilidades conjuntas

$$p(i, j) = P(X = t_i, Y = u_j) = P(X = t_i) P(Y = u_j)$$

Una vez calculados estos, la formación de las matrices de cálculo$$t$$ y$$u$$ se logra exactamente como en jcalc.

Ejemplo 9.1.8: Uso de icalc para configurar cálculos conjuntos

X = [-4 -2 0 1 3];
Y = [0 1 2 4];
PX = 0.01*[12 18 27 19 24];
PY = 0.01*[15 43 31 11];
icalc
Enter row matrix of X-values  X
Enter row matrix of Y-values  Y
Enter X probabilities  PX
Enter Y probabilities  PY
Use array operations on matrices X, Y, PX, PY, t, u, and P
disp(P)                        % Optional display of the joint matrix
0.0132    0.0198    0.0297    0.0209    0.0264
0.0372    0.0558    0.0837    0.0589    0.0744
0.0516    0.0774    0.1161    0.0817    0.1032
0.0180    0.0270    0.0405    0.0285    0.0360
disp(t)                        % Calculation matrix t
-4    -2     0     1     3
-4    -2     0     1     3
-4    -2     0     1     3
-4    -2     0     1     3
disp(u)                        % Calculation matrix u
4     4     4     4     4
2     2     2     2     2
1     1     1     1     1
0     0     0     0     0
M = (t>=-3)&(t<=2);            % M = [-3, 2]
PM = total(M.*P)               % P(X in M)
PM =   0.6400
N = (u>0)&(u.^2<=15);          % N = {u: u > 0, u^2 <= 15}
PN = total(N.*P)               % P(Y in N)
PN =   0.7400
Q = M&N;                       % Rectangle MxN
PQ = total(Q.*P)               % P((X,Y) in MxN)
PQ =   0.4736
p = PM*PN
p  =   0.4736                  % P((X,Y) in MxN) = P(X in M)P(Y in N)

Como ejemplo, considere nuevamente el problema de los ensayos conjuntos de Bernoulli descritos en el tratamiento de 4.3 Ensayos compuestos.

Ejemplo 9.1.9: El ensayo conjunto de Bernoulli del Ejemplo 4.9

1 Bill y Mary se llevan diez tiros libres de basquetbol cada uno. Suponemos que las dos secuencias de ensayos son independientes entre sí, y cada una es una secuencia de Bernoulli.

¿Cuál es la probabilidad de que Mary realice más tiros libres que Bill?

Solución

$$X$$Sea el número de goles que hace Mary y$$Y$$ sea el número que haga Bill. Entonces$$X$$ ~ binomio (10, 0.8) y$$Y$$ ~ binomio (10, 0.85).

X = 0:10;
Y = 0:10;
PX = ibinom(10,0.8,X);
PY = ibinom(10,0.85,Y);
icalc
Enter row matrix of X-values  X  % Could enter 0:10
Enter row matrix of Y-values  Y  % Could enter 0:10
Enter X probabilities  PX        % Could enter ibinom(10,0.8,X)
Enter Y probabilities  PY        % Could enter ibinom(10,0.85,Y)
Use array operations on matrices X, Y, PX, PY, t, u, and P
PM = total((t>u).*P)
PM =  0.2738                     % Agrees with solution in Example 9 from "Composite Trials".
Pe = total((u==t).*P)            % Additional information is more easily
Pe =  0.2276                     % obtained than in the event formulation
Pm = total((t>=u).*P)            % of Example 9 from "Composite Trials".
Pm =  0.5014

Ejemplo 9.1.10: Pruebas contrarreloj Sprinters

Doce velocistas de clase mundial en un encuentro corren en dos series de seis personas cada una. Cada corredor tiene una probabilidad razonable de romper el récord de la pista. Suponemos que los resultados para los individuos son independientes.

Probabilidades de primer calor: 0.61 0.73 0.55 0.81 0.66 0.43

Probabilidades de segundo calor: 0.75 0.48 0.62 0.58 0.77 0.51

Compara las dos series para números que rompen el récord de la pista.

Solución

$$X$$Sea el número de éxitos en la primera serie y$$Y$$ sea el número que tenga éxito en la segunda serie. Entonces el par$$\{X, Y\}$$ es independiente. Utilizamos la función m canonicf para determinar las distribuciones para$$X$$ y para$$Y$$, luego icalc para obtener la distribución conjunta.

c1 = [ones(1,6) 0];
c2 = [ones(1,6) 0];
P1 = [0.61 0.73 0.55 0.81 0.66 0.43];
P2 = [0.75 0.48 0.62 0.58 0.77 0.51];
[X,PX] = canonicf(c1,minprob(P1));
[Y,PY] = canonicf(c2,minprob(P2));
icalc
Enter row matrix of X-values  X
Enter row matrix of Y-values  Y
Enter X probabilities  PX
Enter Y probabilities  PY
Use array operations on matrices X, Y, PX, PY, t, u, and P
Pm1 = total((t>u).*P)   % Prob first heat has most
Pm1 =  0.3986
Pm2 = total((u>t).*P)   % Prob second heat has most
Pm2 =  0.3606
Peq = total((t==u).*P)  % Prob both have the same
Peq =  0.2408
Px3 = (X>=3)*PX'        % Prob first has 3 or more
Px3 =  0.8708
Py3 = (Y>=3)*PY'        % Prob second has 3 or more
Py3 =  0.8525

Como en el caso de jcalc, tenemos una versión m-function icalcf

[x, y, t, u, px, py, p] = icalcf (X, Y, PX, PY)\)

Tenemos una función m relacionada idbn para obtener la matriz de probabilidad conjunta a partir de las probabilidades marginales. Su formación de la matriz conjunta utiliza las mismas operaciones que icalc.

Ejemplo 9.1.11: Un ejemplo numérico

PX = 0.1*[3 5 2];
PY = 0.01*[20 15 40 25];
P  = idbn(PX,PY)
P =
0.0750    0.1250    0.0500
0.1200    0.2000    0.0800
0.0450    0.0750    0.0300
0.0600    0.1000    0.0400


Un m- procedimiento itest verifica una distribución conjunta para la independencia. Esto lo hace calculando los marginales, formando luego una matriz de prueba conjunta independiente, la cual se compara con la original. Normalmente no se exhibe la matriz$$P$$ a ensayar. No obstante, este es un caso en el que la regla del producto se mantiene para la mayoría de los minterms, y sería muy difícil escoger aquellos para los que falla. El procedimiento m simplemente verifica todos ellos.

idemo1                           % Joint matrix in datafile idemo1
P =  0.0091  0.0147  0.0035  0.0049  0.0105  0.0161  0.0112
0.0117  0.0189  0.0045  0.0063  0.0135  0.0207  0.0144
0.0104  0.0168  0.0040  0.0056  0.0120  0.0184  0.0128
0.0169  0.0273  0.0065  0.0091  0.0095  0.0299  0.0208
0.0052  0.0084  0.0020  0.0028  0.0060  0.0092  0.0064
0.0169  0.0273  0.0065  0.0091  0.0195  0.0299  0.0208
0.0104  0.0168  0.0040  0.0056  0.0120  0.0184  0.0128
0.0078  0.0126  0.0030  0.0042  0.0190  0.0138  0.0096
0.0117  0.0189  0.0045  0.0063  0.0135  0.0207  0.0144
0.0091  0.0147  0.0035  0.0049  0.0105  0.0161  0.0112
0.0065  0.0105  0.0025  0.0035  0.0075  0.0115  0.0080
0.0143  0.0231  0.0055  0.0077  0.0165  0.0253  0.0176
itest
Enter matrix of joint probabilities  P
The pair {X,Y} is NOT independent   % Result of test

To see where the product rule fails, call for D
disp(D)                          % Optional call for D
0     0     0     0     0     0     0
0     0     0     0     0     0     0
0     0     0     0     0     0     0
1     1     1     1     1     1     1
0     0     0     0     0     0     0
0     0     0     0     0     0     0
0     0     0     0     0     0     0
1     1     1     1     1     1     1
0     0     0     0     0     0     0
0     0     0     0     0     0     0
0     0     0     0     0     0     0
0     0     0     0     0     0     0


A continuación, consideramos un ejemplo en el que se sabe que la pareja es independiente.

jdemo3      % call for data in m-file
disp(P)     % call to display P
0.0132    0.0198    0.0297    0.0209    0.0264
0.0372    0.0558    0.0837    0.0589    0.0744
0.0516    0.0774    0.1161    0.0817    0.1032
0.0180    0.0270    0.0405    0.0285    0.0360

itest
Enter matrix of joint probabilities  P
The pair {X,Y} is independent       % Result of test


El procedimiento icalc se puede extender para tratar con una clase independiente de tres variables aleatorias. Llamamos al procedimiento m icalc3. El siguiente es un ejemplo sencillo de su uso.

Ejemplo 9.1.14: Cálculos para tres variables aleatorias independientes

X = 0:4;
Y = 1:2:7;
Z = 0:3:12;
PX = 0.1*[1 3 2 3 1];
PY = 0.1*[2 2 3 3];
PZ = 0.1*[2 2 1 3 2];
icalc3
Enter row matrix of X-values  X
Enter row matrix of Y-values  Y
Enter row matrix of Z-values  Z
Enter X probabilities  PX
Enter Y probabilities  PY
Enter Z probabilities  PZ
Use array operations on matrices X, Y, Z,
PX, PY, PZ, t, u, v, and P
G = 3*t + 2*u - 4*v;        % W = 3X + 2Y -4Z
[W,PW] = csort(G,P);        % Distribution for W
PG = total((G>0).*P)        % P(g(X,Y,Z) > 0)
PG =  0.3370
Pg = (W>0)*PW'            % P(Z > 0)
Pg =  0.3370

También está disponible un procedimiento m icalc4 para manejar una clase independiente de cuatro variables. También se utilizan varias variaciones de la función m mgsum y la función m diidsum para obtener distribuciones para sumas de variables aleatorias independientes. Los consideramos en diversos contextos en otras unidades.

Aproximación para el caso absolutamente continuo

En el estudio de funciones de variables aleatorias, mostramos que una variable aleatoria simple aproximada$$X_s$$ del tipo que usamos es una función de la variable aleatoria$$X$$ que se aproxima. Además, demostramos que si$$\{X, Y\}$$ es un par independiente, también lo es$$\{g(X), h(Y)\}$$ para cualquier función razonable$$g$$ y$$h$$. Así si$$\{X, Y\}$$ es un par independiente, también lo es cualquier par de aproximar funciones simples$$\{X_s, Y_s\}$$ del tipo considerado. Ahora es teóricamente posible que el par aproximado$$\{X_s, Y_s\}$$ sea independiente, pero que el par aproximado$$\{X, Y\}$$ no sea independiente. Pero esto es muy poco probable. Para todos los fines prácticos, podemos$$\{X, Y\}$$ considerar independientes si$$\{X_s, Y_s\}$$ es independiente. En caso de duda, considere un segundo par de funciones simples aproximadas con más puntos de subdivisión. Esto disminuye aún más la probabilidad de una falsa indicación de independencia por las variables aleatorias aproximadas.

Ejemplo 9.1.15: Un par independiente

Supongamos$$X$$ ~ exponencial (3) y$$Y$$ ~ exponencial (2) con

$$f_{XY} (t, u) = 6e^{-3t} e^{-2u} = 6e^{-(3t+2u)}$$$$t \ge 0, u \ge 0$$

Ya que$$e^{-12} \approx 6 \times 10^{-6}$$, aproximamos$$X$$ para valores hasta 4 y$$Y$$ para valores hasta 6.

tuappr
Enter matrix [a b] of X-range endpoints  [0 4]
Enter matrix [c d] of Y-range endpoints  [0 6]
Enter number of X approximation points  200
Enter number of Y approximation points  300
Enter expression for joint density  6*exp(-(3*t + 2*u))
Use array operations on X, Y, PX, PY, t, u, and P
itest
Enter matrix of joint probabilities  P
The pair {X,Y} is independent


Ejemplo 9.1.16: Prueba de independencia

El par$$\{X, Y\}$$ tiene densidad de juntas$$f_{XY} (t, u) = 4tu$$$$0 \le t \le 1$$,$$0 \le u \le 1$$. Es bastante fácil determinar los marginales en este caso. Por simetría, son lo mismo.

$$f_X(t) = 4t \int_{0}^{1} udu = 2t$$,$$0 \le t \le 1$$

de manera$$f_{XY} = f_X f_Y$$ que lo que asegura que el par sea independiente. Considera la solución usando tuappr e itest.

tuappr
Enter matrix [a b] of X-range endpoints  [0 1]
Enter matrix [c d] of Y-range endpoints  [0 1]
Enter number of X approximation points  100
Enter number of Y approximation points  100
Enter expression for joint density  4*t.*u
Use array operations on X, Y, PX, PY, t, u, and P
itest
Enter matrix of joint probabilities  P
The pair {X,Y} is independent

This page titled 9.1: Clases independientes de variables aleatorias is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform.