Saltar al contenido principal
LibreTexts Español

9.5: Vectores aleatorios continuos

  • Page ID
    87487
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Siguiendo la plantilla utilizada para extender variables aleatorias discretas a vectores aleatorios discretos, ahora introducimos el concepto de vectores aleatorios continuos. Dejar\(X=\left(X_{1}, X_{2}\right)\) ser una variable aleatoria con\[\begin{aligned} &a_{1} \leq X_{1} \leq b_{1} \\ &a_{2} \leq X_{2} \leq b_{2} . \end{aligned}\] La función de densidad de probabilidad (pdf) es ahora una función sobre el rectángulo\[R \equiv\left[a_{1}, b_{1}\right] \times\left[a_{2}, b_{2}\right]\] y se denota por\[\left.f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right) \quad \text { (or, more concisely, } f_{X}\left(x_{1}, x_{2}\right)\right) .\] El pdf debe cumplir las siguientes condiciones:\[\begin{aligned} f_{X}\left(x_{1}, x_{2}\right) & \geq 0, \quad \forall\left(x_{1}, x_{2}\right) \in R \\ \int_{a_{1}}^{b_{1}} \int_{a_{2}}^{b_{2}} f_{X}\left(x_{1}, x_{2}\right) &=1 . \end{aligned}\] El valor del pdf puede interpretarse como una probabilidad por unidad de área, en el sentido de que\[P\left(x_{1} \leq X_{1} \leq x_{1}+d x_{1}, x_{2} \leq X_{2} \leq x_{2}+d x_{2}\right)=f_{X}\left(x_{1}, x_{2}\right) d x_{1} d x_{2},\] y\[P(X \in D)=\iint_{D} f_{X}\left(x_{1}, x_{2}\right) d x_{1} d x_{2},\] donde\(\iint_{D}\) se refiere a la integral sobre\(D \subset R\) (un subconjunto de\(R\)).

    Revisemos ahora los conceptos clave utilizados para caracterizar las distribuciones de juntas discretas en el entorno continuo. Primero, la función de densidad marginal de\(X_{1}\) viene dada por\[f_{X_{1}}\left(x_{1}\right)=\int_{a_{2}}^{b_{2}} f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right) d x_{2} .\] Recordemos que la densidad marginal de\(X_{1}\) describe la distribución de probabilidad de\(X_{1}\) desconocer el estado de\(X_{2}\). De igual manera, la función de densidad marginal de\(X_{2}\) es\[f_{X_{2}}\left(x_{2}\right)=\int_{a_{1}}^{b_{1}} f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right) d x_{1} .\] As en el caso discreto, las densidades marginales también son distribuciones de probabilidad válidas.

    La función de densidad de probabilidad condicional de\(X_{1}\) dado\(X_{2}\) es\[f_{X_{1} \mid X_{2}}\left(x_{1} \mid x_{2}\right)=\frac{f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)}{f_{X_{2}}\left(x_{2}\right)} .\] Similar al caso discreto, las probabilidades marginales y condicionales están relacionadas por\[f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)=f_{X_{1} \mid X_{2}}\left(x_{1} \mid x_{2}\right) \cdot f_{X_{2}}\left(x_{2}\right),\] o\[f_{X_{1}}\left(x_{1}\right)=\int_{a_{2}}^{b_{2}} f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right) d x_{2}=\int_{a_{2}}^{b_{2}} f_{X_{1} \mid X_{2}}\left(x_{1} \mid x_{2}\right) \cdot f_{X_{2}}\left(x_{2}\right) d x_{2}\] En palabras, la función de densidad de probabilidad marginal de\(X_{1}\) es igual a la integración de la densidad de probabilidad condicional de\(f_{X_{1}, X_{2}}\) ponderado por la densidad de probabilidad de\(X_{2}\).

    Se dice que dos variables aleatorias continuas son independientes si su función conjunta de densidad de probabilidad satisface\[f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)=f_{X_{1}}\left(x_{1}\right) \cdot f_{X_{2}}\left(x_{2}\right)\] En términos de probabilidad condicional, la independencia significa que\[f_{X_{1} \mid X_{2}}\left(x_{1}, x_{2}\right)=\frac{f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)}{f_{X_{2}}\left(x_{2}\right)}=\frac{f_{X_{1}}\left(x_{1}\right) \cdot f_{X_{2}}\left(x_{2}\right)}{f_{X_{2}}\left(x_{2}\right)}=f_{X_{1}}\left(x_{1}\right)\] En palabras, conocer el resultado de\(X_{2}\) no agrega ningún conocimiento nuevo sobre la probabilidad distribución de\(X_{1}\).

    La covarianza de\(X_{1}\) y\(X_{2}\) en el caso continuo se define como\[\operatorname{Cov}\left(X_{1}, X_{2}\right)=E\left[\left(X_{1}-\mu_{1}\right)\left(X_{2}-\mu_{2}\right)\right]\] y la correlación viene dada por\[\rho_{X_{1} X_{2}}=\frac{\operatorname{Cov}\left(X_{1}, X_{2}\right)}{\sigma_{X_{1}} \sigma_{X_{2}}}\] Recordemos que la correlación adquiere un valor entre - 1 y 1 e indica qué tan fuertemente se relacionan el resultado de dos eventos aleatorios. En particular, si las variables aleatorias son independientes, entonces su correlación se evalúa a cero. Esto se ve fácilmente desde\[\begin{aligned} \operatorname{Cov}\left(X_{1}, X_{2}\right) &=E\left[\left(X_{1}-\mu_{1}\right)\left(X_{2}-\mu_{2}\right)\right]=\int_{a_{2}}^{b_{2}} \int_{a_{1}}^{b_{1}}\left(x_{1}-\mu_{1}\right)\left(x_{2}-\mu_{2}\right) f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right) d x_{1} d x_{2} \\ &=\int_{a_{2}}^{b_{2}} \int_{a_{1}}^{b_{1}}\left(x_{1}-\mu_{1}\right)\left(x_{2}-\mu_{2}\right) f_{X_{1}}\left(x_{1}\right) f_{X_{2}}\left(x_{2}\right) d x_{1} d x_{2} \\ &=\left[\int_{a_{2}}^{b_{2}}\left(x_{2}-\mu_{2}\right) f_{X_{2}}\left(x_{2}\right) d x_{2}\right] \cdot\left[\int_{a_{1}}^{b_{1}}\left(x_{1}-\mu_{1}\right) f_{X_{1}}\left(x_{1}\right) d x_{1}\right] \\ &=0 \end{aligned}\] Nota el último paso se desprende de la definición de la media.

    Ejemplo 9.5.1 Distribución uniforme bivariada

    Una distribución uniforme bivariada se define por dos conjuntos de parámetros\(\left[a_{1}, b_{1}\right]\) y\(\left[a_{2}, b_{2}\right]\) que especifican el rango que\(X_{1}\) y\(X_{2}\) toman, respectivamente. La función de densidad de probabilidad de\(\left(X_{1}, X_{2}\right)\) es\[f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)=\frac{1}{\left(b_{1}-a_{1}\right)\left(b_{2}-a_{2}\right)}\] Note aquí\(X_{1}\) y\(X_{2}\) son independientes, entonces\[f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)=f_{X_{1}}\left(x_{1}\right) \cdot f_{X_{2}}\left(x_{2}\right)\] donde En\[f_{X_{1}}\left(x_{1}\right)=\frac{1}{b_{1}-a_{1}} \quad \text { and } \quad f_{X_{2}}\left(x_{2}\right)=\frac{1}{b_{2}-a_{2}} .\] cuanto al caso univariado, tenemos\[P(X \in D)=\frac{A_{D}}{A_{R}},\] donde\(A_{D}\) está el área de alguna región arbitraria \(D\)y\(A_{R}\) es el área del rectángulo. En palabras, la probabilidad de que un vector aleatorio uniforme - un “dardo” aleatorio aterrice en\(D\) - es simplemente la relación de\(A_{D}\) al área total de la diana\(\left(A_{R}\right) \cdot{ }^{1}\) Esta relación -junto con nuestra distribución binomial- serán los ingredientes clave para nuestros métodos de Monte Carlo para el cálculo del área.

    Tenga en cuenta también que si\(A_{D}\) es en sí mismo un rectángulo alineado con las direcciones de coordenadas\(A_{D} \equiv c_{1} \leq\)\(x_{1} \leq d_{1}, c_{2} \leq x_{2} \leq d_{2}\),, luego\(P(X \in D)\) simplifica al producto de la longitud de\(D\) in\(x_{1},\left(d_{1}-c_{1}\right)\), dividido por \(b_{1}-a_{1}\), y la longitud de\(D\) in\(x_{2},\left(d_{2}-c_{2}\right)\), dividido por\(b_{2}-a_{2}\). La independencia se manifiesta como un producto normalizado de longitudes, o equivalentemente como la Y o intersección (no OR o unión) de los dos rectángulos de “evento”\(c_{1} \leq x_{1} \leq d_{1}, a_{2} \leq x_{2} \leq b_{2}\) y\(a_{1} \leq x_{1} \leq b_{1}, c_{2} \leq x_{2} \leq d_{2}\).

    Para generar una realización de\(X=\left(X_{1}, X_{2}\right)\), expresamos el vector en función de dos distribuciones uniformes independientes (escalares). A saber, consideremos\(U_{1} \sim \mathcal{U}(0,1)\) y\(U_{2} \sim \mathcal{U}(0,1)\). Entonces, podemos expresar el vector aleatorio como\[\begin{aligned} X_{1} &=a_{1}+\left(b_{1}-a_{1}\right) U_{1} \\ X_{2} &=a_{2}+\left(b_{2}-a_{2}\right) U_{2} \\ X &=\left(X_{1}, X_{2}\right) . \end{aligned}\] Hacemos hincapié en eso\(U_{1}\) y\(U_{2}\) debe ser independiente para que\(X_{1}\) y\(X_{2}\) sea independiente.

    Material Avanzado

    Ejemplo 9.5.2 Distribución normal bivariada

    Let\(\left(X_{1}, X_{2}\right)\) Ser un vector aleatorio normal bivariado. La función de densidad de probabilidad de\(\left(X_{1}, X_{2}\right)\) es de la forma\[\begin{aligned} &f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)=f^{\text {bi-normal }}\left(x_{1}, x_{2} ; \mu_{1}, \mu_{2}, \sigma_{1}, \sigma_{2}, \rho\right) \\ &\equiv \frac{1}{2 \pi \sigma_{1} \sigma_{2} \sqrt{1-\rho^{2}}} \exp \left\{-\frac{1}{2\left(1-\rho^{2}\right)}\left[\frac{\left(x_{1}-\mu_{1}\right)^{2}}{\sigma_{1}^{2}}+\frac{\left(x_{2}-\mu_{2}\right)^{2}}{\sigma_{2}^{2}}-\frac{2 \rho\left(x_{1}-\mu_{1}\right)\left(x_{2}-\mu_{2}\right)}{\sigma_{1} \sigma_{2}}\right]\right\}, \end{aligned}\] donde\(\left(\mu_{1}, \mu_{2}\right)\) están las medias,\(\left(\sigma_{1}^{2}, \sigma_{2}^{2}\right)\) son las varianzas, y\(\rho\) es la correlación. Los pares\(\left\{\mu_{1}, \sigma_{1}^{2}\right\}\) y\(\left\{\mu_{2}, \sigma_{2}^{2}\right\}\) describen las distribuciones marginales de\(X_{1}\) y\(X_{2}\), respectivamente. El coeficiente de correlación debe satisfacer\[-1<\rho<1\] y, si\(\rho=0\), entonces\(X_{1}\) y no\(X_{2}\) están correlacionados. Para una distribución normal conjunta, la falta de correlación implica independencia (esto no es cierto para una distribución general).

    Captura de pantalla 2022-03-27 a las 8.41.49 PM.png
    Figura 9.15: Una distribución normal bivariada con\(\mu_{1}=\mu_{2}=0, \sigma_{1}=3, \sigma_{2}=2\), y\(\rho=1 / 2\).

    La función de densidad de probabilidad para la distribución normal bivariada con\(\mu_{1}=\mu_{2}=0\)\(\sigma_{1}=3, \sigma_{2}=2\), y\(\rho=1 / 2\) se muestra en la Figura 9.15. Las líneas mostradas son las líneas de igual densidad. En particular, la línea continua corresponde a la\(1 \sigma\) línea, y las líneas discontinuas son para\(\sigma / 2\) y\(2 \sigma\) como se indica. 500 realizaciones de la distribución también se muestran en puntos rojos. Para una distribución bivariada, las posibilidades son\(11.8 \%, 39.4 \%\), y\(86.5 \%\) eso\(\left(X_{1}, X_{2}\right)\) toma el valor dentro\(\sigma / 2\),\(1 \sigma\), y\(2 \sigma\), respectivamente. Las realizaciones mostradas confirman esta tendencia, ya que solo una pequeña fracción de los puntos rojos caen fuera del\(2 \sigma\) contorno. Esta distribución normal bivariada particular tiene una correlación positiva débil, es decir, dado que\(X_{2}\) es mayor que su media\(\mu_{X_{2}}\), hay una probabilidad mayor que también\(X_{1}\) es mayor que su media,\(\mu_{X_{1}}\).

    Para comprender con más detalle el comportamiento de las distribuciones normales bivariadas, consideremos las distribuciones marginales de\(X_{1}\) y\(X_{2}\). La distribución marginal\(X_{1}\) de una distribución normal bivariada caracterizada por\(\left\{\mu_{1}, \mu_{2}, \sigma_{1}^{2}, \sigma_{2}^{2}, \rho\right\}\) es una distribución normal univariada con la media\(\mu_{1}\) y la varianza\(\sigma_{1}^{2}\), es decir,\[f_{X_{1}}\left(x_{1}\right) \equiv \int_{x_{2}=-\infty}^{\infty} f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right) d x_{2}=f^{\text {normal }}\left(x_{1} ; \mu_{1}, \sigma_{1}\right) .\] en palabras, si observamos las muestras del binormal variable aleatoria\(\left(X_{1}, X_{2}\right)\) y enfocarnos en el comportamiento de\(X_{1}\) solo (es decir, desprecio\(X_{2}\)), entonces observaremos que normalmente\(X_{1}\) se distribuye. De igual manera, la densidad marginal de\(X_{2}\) es\[f_{X_{2}}\left(x_{2}\right) \equiv \int_{x_{1}=-\infty}^{\infty} f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right) d x_{1}=f^{\mathrm{normal}}\left(x_{2} ; \mu_{2}, \sigma_{2}\right) .\] Este resultado bastante sorprendente es una de las propiedades de la distribución binormal, que de hecho se extiende a distribuciones normales multivariadas de dimensiones superiores.

    Comprobante. Por conveniencia, primero reescribiremos la función de densidad de probabilidad como\[f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)=\frac{1}{2 \pi \sigma_{1} \sigma_{2} \sqrt{1-\rho^{2}}} \exp \left(-\frac{1}{2} q\left(x_{1}, x_{2}\right)\right)\] donde está el término cuadrático\[q\left(x_{1}, x_{2}\right)=\frac{1}{1-\rho^{2}}\left[\frac{\left(x_{1}-\mu_{1}\right)^{2}}{\sigma_{1}^{2}}+\frac{\left(x_{2}-\mu_{2}\right)^{2}}{\sigma_{2}^{2}}-\frac{2 \rho\left(x_{1}-\mu_{1}\right)\left(x_{2}-\mu_{2}\right)}{\sigma_{1} \sigma_{2}}\right] .\] Podemos manipular el término cuadrático para producir\[\begin{aligned} q\left(x_{1}, x_{2}\right) &=\frac{\left(x_{1}-\mu_{1}\right)^{2}}{\sigma_{1}^{2}}+\frac{1}{1-\rho^{2}}\left[\frac{\rho^{2}\left(x_{1}-\mu_{1}\right)^{2}}{\sigma_{1}^{2}}+\frac{\left(x_{2}-\mu_{2}\right)^{2}}{\sigma_{2}^{2}}-\frac{2 \rho\left(x_{1}-\mu_{1}\right)\left(x_{2}-\mu_{2}\right)}{\sigma_{1} \sigma_{2}}\right] \\ &=\frac{\left(x_{1}-\mu_{1}\right)^{2}}{\sigma_{1}^{2}}+\frac{1}{1-\rho^{2}}\left[\frac{\rho\left(x_{1}-\mu_{1}\right)}{\sigma_{1}}-\frac{x_{2}-\mu_{2}}{\sigma_{2}}\right]^{2} \\ &=\frac{\left(x_{1}-\mu_{1}\right)^{2}}{\sigma_{1}^{2}}+\frac{1}{\sigma_{2}^{2}\left(1-\rho^{2}\right)}\left[x_{2}-\left(\mu_{2}+\rho \frac{\sigma_{2}}{\sigma_{1}}\left(x_{1}-\mu_{1}\right)\right)\right]^{2} \end{aligned}\] Sustitución de la expresión en los rendimientos de la función de densidad de probabilidad\[\begin{aligned} f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)=& \frac{1}{2 \pi \sigma_{1} \sigma_{2} \sqrt{1-\rho^{2}}} \exp \left(-\frac{1}{2} q\left(x_{1}, x_{2}\right)\right) \\ =& \frac{1}{\sqrt{2 \pi} \sigma_{1}} \exp \left(-\frac{1}{2} \frac{\left(x_{1}-\mu_{1}\right)^{2}}{\sigma_{1}^{2}}\right) \\ & \times \frac{1}{\sqrt{2 \pi} \sigma_{2} \sqrt{1-\rho^{2}}} \exp \left(-\frac{1}{2} \frac{\left(x_{2}-\left(\mu_{2}+\rho\left(\sigma_{2} / \sigma_{1}\right)\left(x_{1}-\mu_{1}\right)\right)\right)^{2}}{\sigma_{2}^{2}\left(1-\rho^{2}\right)}\right) \\ =& f^{\mathrm{normal}}\left(x_{1} ; \mu_{1}, \sigma_{1}^{2}\right) \cdot f^{\text {normal }}\left(x_{2} ; \mu_{2}+\rho \frac{\sigma_{2}}{\sigma_{1}}\left(x_{1}-\mu_{1}\right), \sigma_{2}^{2}\left(1-\rho^{2}\right)\right) \end{aligned}\] Tenga en cuenta que hemos expresado el probabilidad conjunta como producto de dos funciones gaussianas univariadas. Advertimos que esto no implica independencia, porque la media de la segunda distribución depende del valor de\(x_{1}\). Aplicando la definición de densidad marginal de\(X_{1}\) e integrando el\(x_{2}\) término, obtenemos\[\begin{aligned} f_{X_{1}}\left(x_{1}\right) &=\int_{x_{2}=-\infty}^{\infty} f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right) d x_{2} \\ &=\int_{x_{2}=-\infty}^{\infty} f^{\mathrm{normal}}\left(x_{1} ; \mu_{1}, \sigma_{1}^{2}\right) \cdot f^{\mathrm{normal}}\left(x_{2} ; \mu_{2}+\rho \frac{\sigma_{2}}{\sigma_{1}}\left(x_{1}-\mu_{1}\right), \sigma_{2}^{2}\left(1-\rho^{2}\right)\right) d x_{2} \\ &=f^{\mathrm{normal}}\left(x_{1} ; \mu_{1}, \sigma_{1}^{2}\right) \cdot \int_{x_{2}=-\infty}^{\infty} f^{\mathrm{normal}}\left(x_{2} ; \mu_{2}+\rho \frac{\sigma_{2}}{\sigma_{1}}\left(x_{1}-\mu_{1}\right), \sigma_{2}^{2}\left(1-\rho^{2}\right)\right) d x_{2} \\ &=f^{\mathrm{normal}}\left(x_{1} ; \mu_{1}, \sigma_{1}^{2}\right) . \end{aligned}\] La integral de la segunda función evalúa a unidad porque es una función de densidad de probabilidad. Así, la densidad marginal de\(X_{1}\) es simplemente la distribución normal univariada con parámetros\(\mu_{1}\) y\(\sigma_{1}\). La prueba para la densidad marginal de\(X_{2}\) es idéntica debido a la simetría de la función de densidad de probabilidad conjunta.

    La figura\(9.16\) muestra las densidades marginales\(f_{X_{1}}\) y\(f_{X_{2}}\) junto con los\(\sigma=2\) contornos\(\sigma=1\) - y -de la densidad de probabilidad conjunta. Los puntos superpuestos a la densidad de la articulación son 500 realizaciones de\(\left(X_{1}, X_{2}\right)\). El histograma en la parte superior resume la frecuencia relativa de\(X_{1}\) tomar un valor dentro de los bins para las 500 realizaciones. De igual manera, el histograma de la derecha resume la frecuencia relativa de los valores que\(X_{2}\) toma. Los histogramas coinciden estrechamente con las distribuciones marginales teóricas para\(\mathcal{N}\left(\mu_{1}, \sigma_{1}^{2}\right)\) y\(\mathcal{N}\left(\mu_{2}, \sigma_{2}^{2}\right)\). En particular, observamos que las densidades marginales son independientes del coeficiente de correlación\(\rho\).

    Captura de pantalla 2022-03-27 a las 8.43.27 PM.png
    Figura 9.16: Ilustración de densidades marginales para una distribución normal bivariada (\(\mu_{1}=\mu_{2}=0\),\(\left.\sigma_{1}=3, \sigma_{2}=2, \rho=3 / 4\right)\).

    Habiendo estudiado las densidades marginales de la distribución normal bivariada, consideremos ahora las probabilidades condicionales. Combinando la definición de densidad condicional y la expresión para las densidades articulares y marginales, obtenemos\[\begin{aligned} f_{X_{1} \mid X_{2}}\left(x_{1} \mid x_{2}\right) &=\frac{f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)}{f_{X_{2}}\left(x_{2}\right)}=f^{\text {normal }}\left(x_{1} ; \mu_{1}+\rho \frac{\sigma_{1}}{\sigma_{2}}\left(x_{2}-\mu_{2}\right),\left(1-\rho^{2}\right) \sigma_{1}^{2}\right) \\ &=\frac{1}{\sqrt{2 \pi} \sigma_{1} \sqrt{1-\rho^{2}}} \exp \left(-\frac{1}{2} \frac{\left(x_{1}-\left(\mu_{1}+\rho\left(\sigma_{1} / \sigma_{2}\right) x_{2}\right)\right)^{2}}{\sigma_{1}^{2}\left(1-\rho^{2}\right)}\right) . \end{aligned}\] De manera similar, la densidad condicional de\(X_{2}\) dada\(X_{1}\) es\[f_{X_{2} \mid X_{1}}\left(x_{2}, x_{1}\right)=\frac{f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)}{f_{X_{1}}\left(x_{1}\right)}=f^{\text {normal }}\left(x_{2} ; \mu_{2}+\rho \frac{\sigma_{2}}{\sigma_{1}}\left(x_{1}-\mu_{1}\right),\left(1-\rho^{2}\right) \sigma_{2}^{2}\right) .\] Tenga en cuenta que a diferencia de las probabilidades marginales, las probabilidades condicionales son función del coeficiente de correlación\(\rho\). En particular, la desviación estándar de la distribución condicional (es decir, su propagación sobre su media) disminuye con\(|\rho|\) y desaparece como\(\rho \rightarrow \pm 1\). En palabras, si la correlación es alta, entonces podemos deducir con una alta probabilidad el estado de\(X_{1}\) dado el valor que\(X_{2}\) toma. También observamos que la correlación positiva\((\rho>0)\) da como resultado la media de la probabilidad condicional\(X_{1} \mid X_{2}\) desplazada en la dirección de\(X_{2}\). Es decir, si\(X_{2}\) adquiere un valor superior a su media, entonces es más probable que no que\(X_{1}\) tome un valor superior a su media.

    Comprobante. Comenzando con la definición de probabilidad condicional y sustituyendo las funciones de densidad de probabilidad conjunta y marginal,\[\begin{aligned} f_{X_{1} \mid X_{2}}\left(x_{1} \mid x_{2}\right)=& \frac{f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)}{f_{X_{2}}\left(x_{2}\right)} \\ =& \frac{1}{2 \pi \sigma_{1} \sigma_{2} \sqrt{1-\rho^{2}}} \exp \left\{-\frac{1}{2\left(1-\rho^{2}\right)}\left[\frac{\left(x_{1}-\mu_{1}\right)^{2}}{\sigma_{1}^{2}}+\frac{\left(x_{2}-\mu_{2}\right)^{2}}{\sigma_{2}^{2}}-\frac{2 \rho\left(x_{1}-\mu_{1}\right)\left(x_{2}-\mu_{2}\right)}{\sigma_{1} \sigma_{2}}\right]\right\} \\ & \times \frac{\sqrt{2 \pi} \sigma_{2}}{1} \exp \left(\frac{1}{2} \frac{\left(x_{2}-\mu_{2}\right)^{2}}{\sigma_{2}^{2}}\right) \\ =& \frac{1}{\sqrt{2 \pi} \sigma_{1} \sqrt{1-\rho^{2}}} \exp \left\{-\frac{1}{2} s\left(x_{1}, x_{2}\right)\right\} \end{aligned}\] donde\[s\left(x_{1}, x_{2}\right)=\frac{1}{1-\rho^{2}}\left[\frac{\left(x_{1}-\mu_{1}\right)^{2}}{\sigma_{1}^{2}}+\frac{\left(x_{2}-\mu_{2}\right)^{2}}{\sigma_{2}^{2}}-\frac{2 \rho\left(x_{1}-\mu_{1}\right)\left(x_{2}-\mu_{2}\right)}{\sigma_{1} \sigma_{2}}-\left(1-\rho^{2}\right) \frac{\left(x_{2}-\mu_{2}\right)^{2}}{\sigma_{2}^{2}}\right] .\] Reordenamiento del término cuadrático\(s\left(x_{1}, x_{2}\right)\) rinde\[\begin{aligned} s\left(x_{1}, x_{2}\right) &=\frac{1}{1-\rho^{2}}\left[\frac{\left(x_{1}-\mu_{1}\right)^{2}}{\sigma_{1}^{2}}-\frac{2 \rho\left(x_{1}-\mu_{1}\right)\left(x_{2}-\mu_{2}\right)}{\sigma_{1} \sigma_{2}}+\frac{\rho^{2}\left(x_{2}-\mu_{2}\right)^{2}}{\sigma_{2}^{2}}\right] \\ &=\frac{1}{1-\rho^{2}}\left[\frac{x_{1}-\mu_{1}}{\sigma_{1}}-\frac{\rho\left(x_{2}-\mu_{2}\right)}{\sigma_{2}}\right]^{2} \\ &=\frac{1}{\sigma_{1}^{2}\left(1-\rho^{2}\right)}\left[x_{1}-\left(\mu_{1}+\rho \frac{\sigma_{1}}{\sigma_{2}}\left(x_{2}-\mu_{2}\right)\right)\right]^{2} . \end{aligned}\] Sustitución del término cuadrático en la probabilidad condicional la función de densidad produce\[\begin{aligned} f_{X_{1} \mid X_{2}}\left(x_{1} \mid x_{2}\right) &=\frac{1}{\sqrt{2 \pi} \sigma_{1} \sqrt{1-\rho^{2}}} \exp \left\{-\frac{1}{2} \frac{1}{\sigma_{1}^{2}\left(1-\rho^{2}\right)}\left[x_{1}-\left(\mu_{1}+\rho \frac{\sigma_{1}}{\sigma_{2}}\left(x_{2}-\mu_{2}\right)\right)\right]^{2}\right\} \\ &=f^{\text {normal }}\left(x_{1} ; \mu_{1}+\rho \frac{\sigma_{1}}{\sigma_{2}}\left(x_{2}-\mu_{2}\right),\left(1-\rho^{2}\right) \sigma_{1}^{2}\right) \end{aligned}\] donde la última igualdad se desprende del reconocimiento de la función de distribución de probabilidad normal univariada.

    La figura\(9.17\) muestra las densidades condicionales\(f_{X_{1} \mid X_{2}}\left(x_{1} \mid x_{2}=-2\right)\) y\(f_{X_{2} \mid X_{1}}\left(x_{2} \mid x_{1}=3\right)\) para una distribución normal bivariada\(\left(\mu_{1}=\mu_{2}=0, \sigma_{1}=3, \sigma_{2}=2, \rho=3 / 4\right)\). Los histogramas se construyen contando la frecuencia relativa de ocurrencia para aquellas realizaciones que se acercan al valor condicional de\(x_{2}=-2\) y\(x_{1}=3\), respectivamente. Claramente, la media de las densidades de probabilidad condicional se desplaza en relación con las densidades marginales respectivas. Como\(\rho=3 / 4>0\) y\(x_{2}-\mu_{2}=-2<0\), la media para\(X_{1} \mid X_{2}\) se desplaza en la dirección negativa. Por el contrario,\(\rho>0\) y\(x_{1}-\mu_{1}=3>0\) desplaza la media para\(X_{2} \mid X_{1}\) en la dirección positiva. También observamos que las densidades de probabilidad condicional son más estrechas que las densidades marginales respectivas; debido a la correlación relativamente fuerte de\(\rho=3 / 4\), tenemos un mejor conocimiento de un estado cuando conocemos el valor del otro estado.

    Finalmente, para solidificar la idea de correlación, consideremos el\(1 \sigma\) -contorno para distribuciones normales bivariadas con varios valores diferentes de\(\rho\), mostrados en la Figura 9.18. Una correlación más fuerte (positiva) implica que existe una alta probabilidad de que un valor positivo\(\frac{\overline{o f} x_{2}}{}\)

    Captura de pantalla 2022-03-27 a las 8.44.48 PM.png
    Figura 9.17: Ilustración de densidades condicionales\(f_{X_{1} \mid X_{2}}\left(x_{1} \mid x_{2}=-2\right)\) y\(f_{X_{2} \mid X_{1}}\left(x_{2} \mid x_{1}=3\right)\) para una distribución normal bivariada (\(\mu_{1}=\mu_{2}=0, \sigma_{1}=3, \sigma_{2}=2, \rho=3 / 4\)).

    \(x_{1}\). Por el contrario, una fuerte correlación negativa implica que existe una alta probabilidad de que un valor positivo\(x_{2}\) implique un valor negativo de\(x_{1}\). Correlación cero -lo que implica independencia para distribuciones normales- significa que no obtenemos información adicional sobre el valor que\(X_{1}\) adquiere al conocer el valor de\(X_{2}\); así, el contorno de igual densidad de probabilidad no se inclina.

    Captura de pantalla 2022-03-27 a las 8.45.58 PM.png
    Figura 9.18: Distribuciones normales bivariadas con\(\mu_{1}=\mu_{2}=0, \sigma_{1}=3, \sigma_{2}=2\), y varios valores de\(\rho\).

    Material Avanzado


    9.5: Vectores aleatorios continuos is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts.