Saltar al contenido principal
LibreTexts Español

8.1: Vectores Aleatorios y Distribuciones Conjuntas

  • Page ID
    150930
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Una única variable aleatoria de valor real es una función (mapeo) desde el espacio básico\(\Omega\) hasta la línea real. Es decir, a cada posible resultado\(\omega\) de un experimento le corresponde un valor real\(t = X(\omega)\). El mapeo induce una distribución de masa de probabilidad en la línea real, lo que proporciona un medio para realizar cálculos de probabilidad. La distribución es descrita por una función de distribución\(F_X\). En el caso absolutamente continuo, sin concentraciones puntuales de masa, la distribución también puede ser descrita por una función de densidad de probabilidad\(f_X\). La densidad de probabilidad es la densidad lineal de la masa de probabilidad a lo largo de la línea real (es decir, masa por unidad de longitud). La densidad es así la derivada de la función de distribución. Para una variable aleatoria simple, la distribución de probabilidad consiste en una masa puntual\(p_i\) en cada valor posible\(t_i\) de la variable aleatoria. Diversos procedimientos m y funciones m ayudan a los cálculos para distribuciones simples. En el caso absolutamente continuo, se puede establecer una aproximación simple, de manera que los cálculos para la variable aleatoria se aproximen mediante cálculos sobre esta distribución simple.

    Muchas veces tenemos más de una variable aleatoria. Cada uno puede considerarse por separado, pero generalmente tienen algunos vínculos probabilísticos que deben tenerse en cuenta cuando se consideran conjuntamente. Tratamos el caso conjunto considerando las variables aleatorias individuales como coordenadas de un vector aleatorio. Extendemos las técnicas para una sola variable aleatoria al caso multidimensional. Para simplificar la exposición y mantener los cálculos manejables, consideramos un par de variables aleatorias como coordenadas de un vector aleatorio bidimensional. Los conceptos y resultados se extienden directamente a cualquier número finito de variables aleatorias consideradas conjuntamente.

    Variables aleatorias consideradas conjuntamente; vectores aleatorios

    Como punto de partida, consideremos un ejemplo sencillo en el que es evidente la interacción probabilística entre dos cantidades aleatorias.

    Ejemplo 8.1.1: Un problema de selección

    Dos empleos del campus están abiertos. Aplican dos juniors y tres seniors. Parecen igualmente calificados, por lo que se decide seleccionarlos por casualidad. Cada combinación de dos es igualmente probable. \(X\)Sea el número de juniors seleccionados (valores posibles 0, 1, 2) y\(Y\) ser el número de adultos mayores seleccionados (valores posibles 0, 1, 2). Sin embargo, solo hay tres pares posibles de valores para\((X, Y)\): (0, 2), (1, 1) o (2, 0). Otros tienen probabilidad cero, ya que son imposibles. Determinar la probabilidad para cada uno de los pares posibles.

    Solución

    Hay pares\(C(5, 2) = 10\) igualmente probables. Sólo un par puede ser ambos juniors. Seis pares pueden ser uno de cada uno. Hay\(C(3, 2) = 3\) formas de seleccionar parejas de adultos mayores. Así

    \(P(X = 0, Y = 2) = 3/10\),\(P(X = 1, Y = 1) = 6/10\),\(P(X = 2, Y = 0) = 1/10\)

    Estas probabilidades se suman a una, como deben, ya que esto agota las posibilidades mutuamente excluyentes. La probabilidad de cualquier otra combinación debe ser cero. También tenemos las distribuciones para las variables aleatorias conisidered individualmente.

    \(X =\)[0 1 2]\(PX =\) [3/10 6/10 1/10]\(Y =\) [0 1 2]\(PY =\) [1/10 6/10 3/10]

    Así, tenemos una distribución conjunta y dos distribuciones individuales o marginales.

    Formalizamos de la siguiente manera:

    Un par\(\{X, Y\}\) de variables aleatorias consideradas conjuntamente se trata como el par de funciones de coordenadas para un vector aleatorio bidimensional\(W = (X, Y)\). A cada uno\(\omega \in \Omega\),\(W\) asigna el par de números reales\((t, u)\), dónde\(X(\omega) = t\) y\(Y(\omega) = u\). Si representamos el par de valores\(\{t, u\}\) como el punto\((t, u)\) en el plano, entonces\(W(\omega) = (t, u)\), para que

    \(W = (X, Y): \Omega \to\)R\(^2\)

    es un mapeo desde el espacio básico\(\Omega\) hasta el plano\(R^2\). Ya que\(W\) es una función, todas las ideas de mapeo se extienden. El mapeo inverso\(W^{-1}\) juega un papel análogo al del mapeo inverso\(X^{-1}\) para una variable aleatoria real. Un vector bidimensional W es un vector aleatorio iff\(W^{-1}(Q)\) es un evento para cada conjunto razonable (técnicamente, cada conjunto de Borel) en el plano.

    Un resultado fundamental de la teoría de medidas asegura

    \(W = (X, Y)\)es un vector aleatorio iff cada una de las funciones de coordenadas\(X\) y\(Y\) es una variable aleatoria.

    En el ejemplo de selección anterior, modelamos\(X\) (el número de juniors seleccionados) y\(Y\) (el número de adultos mayores seleccionados) como variables aleatorias. De ahí la función valorada por vector

    Distribución inducida y función de distribución conjunta

    De manera paralela a la del caso de una sola variable, obtenemos un mapeo de la masa de probabilidad desde el espacio básico al plano. Dado que\(W^{-1}(Q)\) es un evento para cada conjunto razonable\(Q\) en el plano, podemos asignar a\(Q\) la masa de probabilidad

    \(P_{XY} (Q) = P[W^{-1}(Q)] = P[(X, Y)^{-1} (Q)]\)

    Debido a la preservación de las operaciones de conjunto mediante asignaciones inversas como en el caso de una sola variable, la asignación de masa determina\(P_{XY}\) como una medida de probabilidad en los subconjuntos del plano\(R^2\). El argumento es paralelo al del caso de una sola variable. El resultado es la distribución de probabilidad inducida por\(W = (X, Y)\). Para determinar la probabilidad de que la función vectorizada\(W = (X, Y)\) tome un valor (vector) en la región\(Q\), simplemente determinamos cuánta masa de probabilidad inducida hay en esa región.

    Ejemplo 8.1.2: Distribución inducida y cálculos de probabilidad

    Para determinar\(P(1 \le X \le , Y > 0)\), determinamos la región para la cual el primer valor de coordenada (que llamamos\(t\)) está entre uno y tres y el segundo valor de coordenadas (que llamamos\(u\)) es mayor que cero. Esto corresponde al conjunto\(Q\) de puntos en el plano con\(1 \le t \le 3\) y\(u > 0\). Geométricamente, esta es la tira en el plano delimitada por (pero sin incluir) el eje horizontal y por las líneas verticales\(t = 1\) y\(t = 3\) (incluidas). El problema es determinar cuánta masa de probabilidad yace en esa franja. La forma en que se logre esto depende de la naturaleza de la distribución y de cómo se describa.

    Como en el caso de una sola variable, tenemos una función de distribución.

    Definición: Función de distribución conjunta

    La función de distribución conjunta \(F_{XY}\)para\(W = (X, Y)\) viene dada por

    \[F_{XY} (t, u) = P(X \le t, Y \le u) \quad \forall (t, u) \in R^2\]

    Esto significa que\(F_{XY} (t, u)\) es igual a la masa de probabilidad en la región\(Q_{tu}\) en el plano de tal manera que la primera coordenada es menor o igual a\(t\) y la segunda coordenada es menor o igual a\(u\). Formalmente, podemos escribir

    \(F_{XY} (t, u) = P[(X, Y) \in Q_{tu}]\), donde\ Q_ {tu} =\ {(r, s): r\ le t, s\ le u\}\)

    Ahora, para un punto dado (\(a, b\)), la región\(Q_{ab}\) es el conjunto de puntos (\(t, u\)) en el plano que están en o a la izquierda de la línea vertical a través de (\(t\), 0) y sobre o por debajo de la línea horizontal a través de (0,\(u\)) (ver Figura 1 para punto específico\(t = a, u = b\)). Nos referimos a regiones como intervalos semiinfinitos en el plano.

    El resultado teórico citado en el caso de la variable real se extiende para asegurar que una distribución en el plano se determina de manera única por asignaciones consistentes a los intervalos semiinfinitos\(Q_{tu}\). Así, la distribución inducida está determinada completamente por la función de distribución conjunta.

    Figura 8.1.1. La región\(Q_{ab}\) para el valor\(F_{XY} (a, b)\).

    Función de distribución para un vector aleatorio discreto

    La distribución inducida consiste en masas puntuales. En el punto (\(t_i, u_j)\)en el rango de\(W =(X, Y)\) hay probabilidad de masa\(P_{ij} = P[W = (t, u_j)] = P(X = t_i, Y = u_j)\). Como en el caso general, para determinar\([P(X, Y) \in Q]\) determinamos cuánta masa de probabilidad hay en la región. En el caso discreto (o en cualquier caso donde haya concentraciones másicas puntuales) se debe tener cuidado de anotar si los límites están o no incluidos en la región, en caso de que haya concentraciones de masa en el límite.

    Figura 8.1.2. La distribución conjunta para el Ejemplo 8.1.3.

    Ejemplo 8.1.3: función de distribución para el problema de selección en el Ejemplo 8.1.1

    La distribución de probabilidad es bastante simple. Masa 3/10 en (0,2), 6/10 en (1,1) y 1/10 en (2,0). Esta distribución se grafica en la Figura 8.2. Para determinar (y visualizar) la función de distribución conjunta, piense en mover el punto\((t, u)\) en el plano. La región\ Q_ {tu}\) es una “hoja” gigante con esquina en\(t, u)\). El valor de\(F_{XY} (t, u)\) es la cantidad de probabilidad cubierta por la hoja. Este valor es constante sobre cualquier celda de la cuadrícula, incluidos los límites izquierdo e inferior, y es el valor tomado en la esquina inferior izquierda de la celda. Así, si\((t, u)\) está en alguno de los tres cuadrados de la parte inferior izquierda del diagrama, no se cubre ninguna masa de probabilidad por la hoja con esquina en la celda. Si\((t, u)\) está en o en el cuadrado teniendo probabilidad 6/10 en la esquina inferior izquierda, entonces la hoja cubre esa probabilidad, y el valor de\(F_{XY} (t, u) = 6/10\). La situación en las otras celdas podrá ser comprobada por este procedimiento.

    Función de distribución para una distribución mixta

    Ejemplo 8.1.4: Una distribución mixta

    El par\(\{X, Y\}\) produce una distribución mixta de la siguiente manera (ver Figura 8.3)

    Masas puntuales 1/10 en puntos (0,0), (1,0), (1,1), (0,1)

    Masa 6/10 repartidas uniformemente sobre el cuadrado unitario con estos vértices

    La función de distribución conjunta es cero en el segundo, tercer y cuarto cuadrantes.

    • Si el punto\((t, u)\) está en el cuadrado o en los límites izquierdo e inferior, la hoja cubre la masa puntual en (0,0) más 0.6 veces el área cubierta dentro del cuadrado. Así, en esta región

      \(F_{XY} (t, u) = \dfrac{1}{10} (1 + 6tu)\)

    • Si el puente\((t, u)\) está por encima del cuadrado (incluyendo su límite superior) pero a la izquierda de la línea\(t = 1\), la hoja cubre dos masas puntuales más la porción de la masa en el cuadrado a la izquierda de la línea vertical pasante\((t, u)\). En este caso

      \(F_{XY} (t, u) = \dfrac{1}{10} (2 + 6t)\)

    • Si el punto\((t, u)\) está a la derecha del cuadrado (incluyendo su límite) con\(0 \le u < 1\), la hoja cubre dos masas puntuales y la porción de la masa en el cuadrado debajo de la línea horizontal a través\((t, u)\), para dar

      F_ {XY} (t, u) =\ dfrac {1} {10} (2 + 6u)\)

    • Si\((t, u)\) está arriba y a la derecha del cuadrado (es decir, ambos\(1 \le t\) y\(1 \le u\)). entonces se cubre toda la masa de probabilidad y\(F_{XY} (t, u) = 1\) en esta región.
    Figura 8.3. Distribución conjunta mixta para Ejemplo 8.4.

     

    Distribuciones Marginales

    Si se conoce la distribución conjunta para un vector aleatorio, entonces se puede determinar la distribución para cada una de las variables aleatorias componentes. Estas se conocen como distribuciones marginales. En general, lo contrario no es cierto. Sin embargo, si las variables aleatorias componentes forman un par independiente, el tratamiento en ese caso muestra que los marginales determinan la distribución conjunta.

    Para iniciar la investigación, tenga en cuenta que

    \(F_X (t) = P(X \le t) = P(X \le t, Y < \infty)\)es decir,\(Y\) puede tomar cualquiera de sus posibles valores.

    Así

    \(F_X(t) = F_{XY}(t, \infty) = \text{lim}_{u \to \infty} F_{XY} (t, u)\)

    Esto puede interpretarse con la ayuda de la Figura 8.1.4. Considera la hoja por punto\((t, u)\).

    Figura 8.1.4. Construcción para la obtención de la distribución marginal para\(X\).

    Si empujamos el punto verticalmente, el límite superior de\(Q_{tu}\) se empuja hacia arriba hasta que finalmente se incluye toda la masa de probabilidad en o a la izquierda de la línea vertical a través\((t, u)\). Esta es la probabilidad total de que\(X \le t\). Ahora\(F_X(t)\) describe la masa de probabilidad en la línea. La masa de probabilidad descrita por\(F_X(t)\) es la misma que la masa de probabilidad conjunta total en o a la izquierda de la línea vertical pasante\((t, u)\). Podemos pensar en la masa en el medio plano que se proyecta sobre la línea horizontal para dar la distribución marginal para\(X\). Un argumento paralelo se sostiene para el marginal para\(Y\).

    \(F_{Y} (u) = P(Y \le u) = F_{XY} (\infty, u) =\)masa en o por debajo de la línea horizontal a través de (\(t, u\))

    Esta masa se proyecta sobre el eje vertical para dar la distribución marginal para\(Y\).

    Marginales para una distribución discreta conjunta

    Considera una distribución conjunta simple.

    \(P(X = t_i) = \sum_{j = 1}^{m} P(X = t_i, Y = u_j) \)y\(P(Y = u_j) = \sum_{i = 1}^{n} P(X = t_i, Y = u_j)\)

    Así, toda la masa de probabilidad en la línea vertical through (\(t_i, 0\)) se proyecta sobre el punto\(t_i\) en una línea horizontal para dar\(P(X = t_i)\). De igual manera, toda la masa de probabilidad en una línea horizontal a través\((0, u_j)\) se proyecta sobre el punto\(u_j\) en una línea vertical para dar\(P(Y = u_j)\).

    Ejemplo 8.1.5: Marginales para una distribución discreta

    El par\(\{X, Y\}\) produce una distribución conjunta que coloca la masa 2/10 en cada uno de los cinco puntos

    (0, 0), (1, 1), (2, 0), (2, 2), (3, 1) (Ver Figura 8.1.5)

    La distribución marginal para\(X\) tiene masas 2/10, 2/10, 4/10, 2/10 en los puntos\(t = \) 0, 1, 2, 3, respectivamente. De igual manera, la distribución marginal para Y tiene masas 4/10, 4/10, 2/10 en los puntos\(u =\) 0, 1, 2, respectivamente.

    Figura 8.1.5. Distribución marginal para el Ejemplo 8.1.1.

    Consideremos nuevamente la distribución conjunta en el Ejemplo 8.4. El par\(\{X, Y\}\) produce una distribución mixta de la siguiente manera:

    Masas puntuales 1/10 en puntos (0,0), (1,0), (1,1), (0,1)

    Masa 6/10 repartidas uniformemente sobre el cuadrado unitario con estos vértices

    La construcción en la Figura 8.1.6 muestra la gráfica de la función de distribución marginal\(F_X\). Hay un salto en la cantidad de 0.2 at\(t = 0\), correspondiente a las dos masas puntuales en la línea vertical. Entonces la masa aumenta linealmente con\(t\), pendiente 0.6, hasta un salto final\(t = 1\) en la cantidad de 0.2 producida por las dos masas puntuales en la línea vertical. At\(t = 1\), la masa total está “cubierta” y\(F_X(t)\) es constante en uno para\(t \ge 1\). Por simetría, la distribución marginal para\(Y\) es la misma.

    Figura 8.1.6. Distribución marginal para el Ejemplo 8.1.6

    This page titled 8.1: Vectores Aleatorios y Distribuciones Conjuntas is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.