Saltar al contenido principal
LibreTexts Español

4.2: Probabilidad Condicional Continua

  • Page ID
    150153
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En situaciones en las que el espacio muestral sea continuo seguiremos el mismo procedimiento que en el apartado anterior. Así, por ejemplo, si\(X\) es una variable aleatoria continua con función de densidad\(f(x)\), y si\(E\) es un evento con probabilidad positiva, definimos una función de densidad condicional por la fórmula\[f(x|E) = \left \{ \matrix{ f(x)/P(E), & \mbox{if} \,\,x \in E, \cr 0, & \mbox{if}\,\,x \not \in E. \cr}\right.\] Entonces para cualquier evento\(F\), tenemos\[P(F|E) = \int_F f(x|E)\,dx\ .\] La expresión\(P(F|E)\) es llamado la probabilidad condicional de\(F\) dado\(E\). Al igual que en el apartado anterior, es fácil obtener una expresión alternativa para esta probabilidad:\[P(F|E) = \int_F f(x|E)\,dx = \int_{E\cap F} \frac {f(x)}{P(E)}\,dx = \frac {P(E\cap F)}{P(E)}\ .\]

    Podemos pensar en la función de densidad condicional como 0 excepto on\(E\), y normalizada para tener integral 1 over\(E\). Tenga en cuenta que si la densidad original es una densidad uniforme correspondiente a un experimento en el que todos los eventos de igual tamaño son entonces lo mismo será cierto para la densidad condicional.

    Ejemplo\(\PageIndex{1}\):

    En el experimento spinner (cf. Ejemplo [examen 2.1.1]), supongamos que sabemos que el spinner se ha detenido con la cabeza en la mitad superior del círculo,\(0 \leq x \leq 1/2\). ¿Cuál es la probabilidad de que\(1/6 \leq x \leq 1/3\)?

    Solución

    Aquí\(E = [0,1/2]\),\(F = [1/6,1/3]\), y\(F \cap E = F\). De ahí\[\begin{aligned} P(F|E) &=& \frac {P(F \cap E)}{P(E)} \\ &=& \frac {1/6}{1/2} \\ &=& \frac 13\ ,\end{aligned}\] que sea razonable, ya que\(F\) es 1/3 del tamaño de\(E\). La función de densidad condicional aquí viene dada por

    \[f(x|E) = \left \{ \matrix{ 2, & \mbox{if}\,\,\, 0 \leq x < 1/2, \cr 0, & \mbox{if}\,\,\, 1/2 \leq x < 1.\cr}\right.\]Por lo tanto, la función de densidad condicional es distinta de cero solo encendida\([0,1/2]\), y es uniforme allí.

    Ejemplo\(\PageIndex{2}\):

    En el juego de dardos (cf. Ejemplo [examen 2.2.2]), supongamos que sabemos que el dardo aterriza en la mitad superior del objetivo. ¿Cuál es la probabilidad de que su distancia desde el centro sea inferior a 1/2?

    Solución

    Aquí\(E = \{\,(x,y) : y \geq 0\,\}\), y\(F = \{\,(x,y) : x^2 + y^2 < (1/2)^2\,\}\). De ahí,\[\begin{aligned} P(F|E) & = & \frac {P(F \cap E)}{P(E)} = \frac {(1/\pi)[(1/2)(\pi/4)]} {(1/\pi)(\pi/2)} \\ & = & 1/4\ .\end{aligned}\] aquí de nuevo, el tamaño de\(F \cap E\) es 1/4 el tamaño de\(E\). La función de densidad condicional es\[f((x,y)|E) = \left \{ \matrix{ f(x,y)/P(E) = 2/\pi, &\mbox{if}\,\,\,(x,y) \in E, \cr 0, &\mbox{if}\,\,\,(x,y) \not \in E.\cr}\right.\]

    Ejemplo\(\PageIndex{3}\):

    Volvemos a la densidad exponencial (cf. Ejemplo [examen 2.2.7.5]). Suponemos que estamos observando un bulto de plutonio-239. Nuestro experimento consiste en esperar una emisión, luego iniciar un reloj, y registrar el tiempo\(X\) que pasa hasta la siguiente emisión. La experiencia ha demostrado que\(X\) tiene una densidad exponencial con algún parámetro\(\lambda\), que depende del tamaño del bulto. Supongamos que cuando realizamos este experimento, notamos que el reloj lee\(r\) segundos, y sigue funcionando. ¿Cuál es la probabilidad de que no haya emisión en\(s\) segundos más?

    Solución

    \(G(t)\)Sea la probabilidad de que la siguiente partícula se emita después del tiempo\(t\). Entonces\[\begin{aligned} G(t) & = & \int_t^\infty \lambda e^{-\lambda x}\,dx \\ & = & \left.-e^{-\lambda x}\right|_t^\infty = e^{-\lambda t}\ .\end{aligned}\]

    \(E\)Sea el evento “la siguiente partícula se emite después del tiempo\(r\)" y\(F\) el evento “la siguiente partícula se emite después del tiempo”\(r + s\). Entonces\[\begin{aligned} P(F|E) & = & \frac {P(F \cap E)}{P(E)} \\ & = & \frac {G(r + s)}{G(r)} \\ & = & \frac {e^{-\lambda(r + s)}}{e^{-\lambda r}} \\ & = & e^{-\lambda s}\ .\end{aligned}\]

    Esto nos dice el hecho bastante sorprendente de que la probabilidad de que tengamos que esperar\(s\) segundos más para una emisión, dado que no ha habido emisión en\(r\) segundos, es de la época\(r\). Esta propiedad (llamada propiedad sin memoria) se introdujo en el Ejemplo 2.17. Al tratar de modelar diversos fenómenos, esta propiedad es útil para decidir si la densidad exponencial es apropiada.

    El hecho de que la densidad exponencial no tenga memoria significa que es razonable suponer que si uno se encuentra con un bulto de un isótopo radiactivo en algún momento aleatorio, entonces la cantidad de tiempo hasta la siguiente emisión tiene una densidad exponencial con el mismo parámetro que el tiempo entre emisiones. Un ejemplo bien conocido, conocido como la “paradoja de los autobuses”, reemplaza las emisiones por los autobuses. La aparente paradoja surge de los siguientes dos hechos: 1) Si sabes que, en promedio, los autobuses pasan cada 30 minutos, entonces si llegas a la parada de autobús en un momento aleatorio, solo debes tener que esperar, en promedio, 15 minutos para un autobús, y 2) Dado que los horarios de llegada de los autobuses están siendo modelados por la densidad exponencial, entonces no importa cuando llegues, tendrás que esperar, en promedio, 30 minutos para un autobús.

    El lector puede ver ahora que en los Ejercicios 2.2.9, 2.2.10 y 2.2.11, estábamos pidiendo simulaciones de probabilidades condicionales, bajo diversos supuestos sobre la distribución de los tiempos interllegados. Si uno hace una suposición razonable sobre esta distribución, como la del Ejercicio 2.2.10, entonces el tiempo promedio de espera es más de casi la mitad del tiempo promedio entre llegadas.

    Eventos Independientes

    Si\(E\) y\(F\) son dos eventos con probabilidad positiva en un espacio muestral continuo, entonces, como en el caso de los espacios muestrales discretos, definimos\(E\) y\(F\) ser independientes si\(P(E|F) = P(E)\) y\(P(F|E) = P(F)\). Como antes, cada una de las ecuaciones anteriores implica la otra, de manera que para ver si dos eventos son independientes, sólo se debe verificar una de estas ecuaciones. También se da el caso de que, si\(E\) y\(F\) son independientes, entonces\(P(E \cap F) = P(E)P(F)\).

    Ejemplo\(\PageIndex{1}\):

    En el juego de dardos (ver Ejemplo 4.12, deja\(E\) ser el evento de que el dardo aterrice en la mitad superior del objetivo (\(y \geq 0\)) y\(F\) el evento de que el dardo aterrice en la mitad derecha del objetivo (\(x \geq 0\)). Entonces\(P(E \cap F)\) es la probabilidad de que el dardo se encuentre en el primer cuadrante del objetivo, y

    \[\begin{aligned} P(E \cap F) & = & \frac 1\pi \int_{E \cap F} 1\,dxdy \\ & = & \mbox{Area}\,(E\cap F) \\ & = & \mbox{Area}\,(E)\,\mbox{Area}\,(F) \\ & = & \left(\frac 1\pi \int_E 1\,dxdy\right) \left(\frac 1\pi \int_F 1\,dxdy\right) \\ & = & P(E)P(F)\end{aligned}\]

    para que\(E\) y\(F\) sean independientes. Lo que hace que este trabajo sea que los eventos\(E\) y\(F\) sean descritos restringiendo diferentes coordenadas. Esta idea se hace más precisa a continuación.

    Densidad conjunta y funciones de distribución acumulativa

    De manera análoga a las variables aleatorias discretas, podemos definir funciones de densidad conjunta y funciones de distribución acumulativa para variables aleatorias continuas multidimensionales.

    Definición\(\PageIndex{5}\)

    Dejar\(X_1,~X_2, \ldots,~X_n\) ser variables aleatorias continuas asociadas a un experimento, y dejar\({\bar X} = (X_1,~X_2, \ldots,~X_n)\). Entonces la función de distribución acumulativa conjunta de\({\bar X}\) se define por\[F(x_1, x_2, \ldots, x_n) = P(X_1 \le x_1, X_2 \le x_2, \ldots, X_n \le x_n)\ .\] La función de densidad conjunta de\({\bar X}\) satisface la siguiente ecuación:\[F(x_1, x_2, \ldots, x_n) = \int_{-\infty}^{x_1} \int_{-\infty}^{x_2} \cdots \int_{-\infty}^{x_n} f(t_1, t_2, \ldots t_n)\,dt_ndt_{n-1}\ldots dt_1.\]

    Es sencillo demostrar que, en la notación anterior,

    \[ f(x_1, x_2, \dots \dots , x_n) = \frac{\partial^nF(x_1,x_2, \dots \dots, x_n)}{\partial x_1\partial x_2 \cdots \partial x_n)}\]

    Variables Aleatorias Independientes

    Al igual que con las variables aleatorias discretas, podemos definir la independencia mutua de las variables aleatorias continuas.

    Definición\(\PageIndex{6}\)

    Dejar\(X_1\),\(X_2\),...,\(X_n\) ser variables aleatorias continuas con funciones de distribución acumulativa\(F_1(x),~F_2(x), \ldots,~F_n(x)\). Entonces estas variables aleatorias son si\[F(x_1, x_2, \ldots, x_n) = F_1(x_1)F_2(x_2) \cdots F_n(x_n)\] para alguna elección de\(x_1, x_2, \ldots, x_n\).

    Por lo tanto, si\(X_1,~X_2, \ldots,~X_n\) son mutuamente independientes, entonces la función de distribución acumulativa conjunta de la variable aleatoria\({\bar X} = (X_1, X_2, \ldots, X_n)\) es solo el producto de las funciones de distribución acumulativas individuales. Cuando dos variables aleatorias son mutuamente independientes, diremos más brevemente que son

    Usando la Ecuación 4.4, el siguiente teorema puede mostrarse fácilmente para mantener variables aleatorias continuas mutuamente independientes.

    Teorema\(\PageIndex{2}\)

    Dejar\(X_1\),\(X_2\),...,\(X_n\) ser variables aleatorias continuas con funciones de densidad\(f_1(x),~f_2(x), \ldots,~f_n(x)\). Entonces estas variables aleatorias son mutuamente independientes si y solo si\[f(x_1, x_2, \ldots, x_n) = f_1(x_1)f_2(x_2) \cdots f_n(x_n)\] para cualquier elección de\(x_1, x_2, \ldots, x_n\)

    Veamos algunos ejemplos.

    Ejemplo\(\PageIndex{5}\):

    En este ejemplo, definimos tres variables aleatorias,\(X_1,\ X_2\), y\(X_3\). Eso lo demostraremos\(X_1\) y\(X_2\) somos independientes, y eso\(X_1\) y no\(X_3\) somos independientes. Elija un punto\(\omega = (\omega_1,\omega_2)\) al azar de la unidad cuadrada. Establecer\(X_1 = \omega_1^2\),\(X_2 = \omega_2^2\), y\(X_3 = \omega_1 + \omega_2\). Encuentre las distribuciones conjuntas\(F_{12}(r_1,r_2)\) y\(F_{23}(r_2,r_3)\).

    Ya hemos visto (ver Ejemplo 2.13 eso\[\begin{aligned} F_1(r_1) & = & P(-\infty < X_1 \leq r_1) \\ & = & \sqrt{r_1}, \qquad \mbox{if} \,\,0 \leq r_1 \leq 1\ ,\end{aligned}\] y de manera similar,\[F_2(r_2) = \sqrt{r_2}\ ,\] si\(0 \leq r_2 \leq 1\). Ahora tenemos (ver Figura 4.7)\[\begin{aligned} F_{12}(r_1,r_2) & = & P(X_1 \leq r_1 \,\, \mbox{and}\,\, X_2 \leq r_2) \\ & = & P(\omega_1 \leq \sqrt{r_1} \,\,\mbox{and}\,\, \omega_2 \leq \sqrt{r_2}) \\ & = & \mbox{Area}\,(E_1)\\ & = & \sqrt{r_1} \sqrt{r_2} \\ & = &F_1(r_1)F_2(r_2)\ .\end{aligned}\] En este caso\(F_{12}(r_1,r_2) = F_1(r_1)F_2(r_2)\) para que\(X_1\) y\(X_2\) sean independientes. Por otro lado, si\(r_1 = 1/4\) y\(r_3 = 1\), entonces (ver Figura 4.8)\[\begin{aligned} F_{13}(1/4,1) & = & P(X_1 \leq 1/4,\ X_3 \leq 1) \\ & = & P(\omega_1 \leq 1/2,\ \omega_1 + \omega_2 \leq 1) \\ & = & \mbox{Area}\,(E_2) \\ & = & \frac 12 - \frac 18 = \frac 38\ .\end{aligned}\] Ahora recordando que

    \[F_3(r_3) = \left \{ \matrix{ 0, & \mbox{if} \,\,r_3 < 0, \cr (1/2)r_3^2, & \mbox{if} \,\,0 \leq r_3 \leq 1, \cr 1-(1/2)(2-r_3)^2, & \mbox{if} \,\,1 \leq r_3 \leq 2, \cr 1, & \mbox{if} \,\,2 < r_3,\cr}\right.\]

    (ver Ejemplo 2.14, tenemos\(F_1(1/4)F_3(1) = (1/2)(1/2) = 1/4\). Por lo tanto,\(X_1\) y no\(X_3\) son variables aleatorias independientes. Un cálculo similar lo demuestra\(X_2\) y tampoco\(X_3\) son independientes.

    Aunque no lo probaremos aquí, el siguiente teorema es útil. La declaración también se mantiene para variables aleatorias discretas mutuamente independientes. Se puede encontrar una prueba en Rényi. 17

    Teorema\(\PageIndex{1}\)

    Dejar\(X_1, X_2, \ldots, X_n\) ser variables aleatorias continuas mutuamente independientes y dejar\(\phi_1(x), \phi_2(x), \ldots, \phi_n(x)\) ser funciones continuas. Entonces\(\phi_1(X_1),\)\(\phi_2(X_2), \ldots, \phi_n(X_n)\) son mutuamente independientes.

    Juicios Independientes

    Utilizando la noción de independencia, ahora podemos formular para espacios muestrales continuos la noción de ensayos independientes (ver Definición 4.5).

    Definición

    Una secuencia\(X_1\),\(X_2\),...,\(X_n\) de variables aleatorias\(X_i\) que son mutuamente independientes y tienen la misma densidad se denomina proceso de ensayos independientes

    Al igual que en el caso de las variables aleatorias discretas, estos procesos de ensayos independientes surgen de forma natural en situaciones en las que un experimento descrito por una sola variable aleatoria se repite\(n\) veces.

    Densidad Beta

    Consideramos a continuación un ejemplo que involucra un espacio muestral con coordenadas discretas y continuas. Para este ejemplo necesitaremos una nueva función de densidad llamada densidad beta. Esta densidad tiene dos parámetros\(\alpha\),\(\beta\) y está definida por

    \[B(\alpha,\beta,x) = \left \{ \matrix{ (1/B(\alpha,\beta))x^{\alpha - 1}(1 - x)^{\beta - 1}, & {\mbox{if}}\,\, 0 \leq x \leq 1, \cr 0, & {\mbox{otherwise}}.\cr}\right.\]

    Aquí\(\alpha\) ya\(\beta\) están los números positivos, y la función beta\(B(\alpha,\beta)\) viene dada por el área bajo la gráfica de\(x^{\alpha - 1}(1 - x)^{\beta - 1}\) entre 0 y 1:\[B(\alpha,\beta) = \int_0^1 x^{\alpha - 1}(1 - x)^{\beta - 1}\,dx\ .\] Tenga en cuenta que cuando\(\alpha = \beta = 1\) la densidad beta si la densidad uniforme. Cuando\(\alpha\) y\(\beta\) son mayores que 1 la densidad es en forma de campana, pero cuando son menores de 1 es en forma de U como sugieren los ejemplos en la Figura 4.9.

    Necesitaremos los valores de la función beta solo para los valores enteros de\(\alpha\) y\(\beta\), y en este caso\[B(\alpha,\beta) = \frac{(\alpha - 1)!\,(\beta - 1)!}{(\alpha + \beta - 1)!}\ .\]

    Ejemplo\(\PageIndex{23}\)

    En problemas médicos a menudo se asume que un medicamento es efectivo con una probabilidad\(x\) cada vez que se usa y los diversos ensayos son independientes, de manera que uno está, en efecto, lanzando una moneda sesgada con probabilidad\(x\) para cabezas. Antes de continuar la experimentación, no se conoce el valor\(x\) pero la experiencia pasada podría dar alguna información sobre sus posibles valores. Es natural representar esta información dibujando una función de densidad para determinar una distribución para\(x\). Así, estamos considerando\(x\) ser una variable aleatoria continua, que toma valores entre 0 y 1. Si no tienes ningún conocimiento, dibujarías la densidad uniforme. Si la experiencia pasada sugiere que\(x\) es muy probable que esté cerca de 2/3 se dibujaría una densidad con máximo en 2/3 y un spread reflejando su incertidumbre en la estimación de 2/3. Entonces querrás encontrar una función de densidad que se ajuste razonablemente a tu boceto. Las densidades beta proporcionan una clase de densidades que se pueden ajustar a la mayoría de los bocetos que pueda hacer. Por ejemplo, para\(\alpha > 1\) y\(\beta > 1\) tiene forma de campana con los parámetros\(\alpha\) y\(\beta\) determinando su pico y su propagación.

    Supongamos que el experimentador ha elegido una densidad beta para describir el estado de sus conocimientos\(x\) antes del experimento. Después le da la droga a\(n\) sujetos y registra el número\(i\) de éxitos. El número\(i\) es una variable aleatoria discreta, por lo que podemos describir convenientemente el conjunto de posibles resultados de este experimento haciendo referencia al par ordenado\((x, i)\).

    Dejamos\(m(i|x)\) denotar la probabilidad de que observemos\(i\) éxitos dado el valor de\(x\). Por nuestros supuestos,\(m(i|x)\) es la distribución binomial con probabilidad\(x\) de éxito:

    \[m(i|x) = b(n,x,i) = {n \choose i} x^i(1 - x)^j\ ,\]donde\(j = n - i\).

    Si\(x\) se elige al azar de\([0,1]\) con una densidad beta\(B(\alpha,\beta,x)\), entonces la función de densidad para el resultado del par\((x,i)\) es

    \[\begin{aligned} f(x,i) & = & m(i|x)B(\alpha,\beta,x) \\ & = & {n \choose i} x^i(1 - x)^j \frac 1{B(\alpha,\beta)} x^{\alpha - 1}(1 - x)^{\beta - 1} \\ & = & {n \choose i} \frac 1{B(\alpha,\beta)} x^{\alpha + i - 1}(1 - x)^{\beta + j - 1}\ .\end{aligned}\]

    Ahora deja\(m(i)\) ser la probabilidad de que observemos\(i\) éxitos conociendo el valor de\(x\). Entonces

    \[\begin{aligned} m(i) & = & \int_0^1 m(i|x) B(\alpha,\beta,x)\,dx \\ & = & {n \choose i} \frac 1{B(\alpha,\beta)} \int_0^1 x^{\alpha + i - 1}(1 - x)^{\beta + j - 1}\,dx \\ & = & {n \choose i} \frac {B(\alpha + i,\beta + j)}{B(\alpha,\beta)}\ .\end{aligned}\]

    De ahí que la densidad de probabilidad\(f(x|i)\) para\(x\), dado que se observaron\(i\) éxitos, es

    \[f(x|i) = \frac {f(x,i)}{m(i)}\]

    \[\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ = \frac {x^{\alpha + i - 1}(1 - x)^{\beta + j - 1}}{B(\alpha + i,\beta + j)}\ ,\label{eq 4.5}\]

    es decir,\(f(x|i)\) es otra densidad beta. Esto dice que si observamos\(i\) éxitos y\(j\) fracasos en\(n\) sujetos, entonces la nueva densidad para la probabilidad de que el fármaco sea efectivo vuelve a ser una densidad beta pero con parámetros\(\alpha + i\),\(\beta + j\).

    Ahora asumimos que antes del experimento elegimos una densidad beta con parámetros\(\alpha\) y\(\beta\), y que en el experimento obtenemos\(i\) éxitos en\(n\) ensayos. Acabamos de ver que en este caso, la nueva densidad para\(x\) es una densidad beta con parámetros\(\alpha + i\) y\(\beta + j\).

    Ahora deseamos calcular la probabilidad de que el medicamento sea efectivo en el siguiente tema. Para cualquier número real particular\(t\) entre 0 y 1, la probabilidad que\(x\) tiene el valor\(t\) viene dada por la expresión en la Ecuación 4.5. Dado que\(x\) tiene el valor\(t\), la probabilidad de que el medicamento sea efectivo en el siguiente tema es justa\(t\). Así, para obtener la probabilidad de que el fármaco sea efectivo en el siguiente tema, integramos el producto de la expresión en la Ecuación 4.5 y\(t\) sobre todos los valores posibles de\(t\). Obtenemos:

    \[\begin{align} & \frac{1}{B(\alpha + i, \beta + j)}\int_0^1t \cdot d^{\alpha+i-1}(1-t)^{\beta+j-1}dt \\ = & \frac{B(\alpha + i +1, \beta + j)}{B(\alpha + i, \beta + j)} \\ = & \frac{(\alpha + i)!(\beta +j-1)!}{(\alpha + \beta + i + j)!}\cdot \frac{(\alpha+\beta+i+j-1)!}{(\alpha+i-1)!(\beta+j-1)!} \\ = & \frac{\alpha+i}{\alpha+\beta+n}\end{align}\]

    Si\(n\) es grande, entonces nuestra estimación de la probabilidad de éxito después del experimento es aproximadamente la proporción de éxitos observados en el experimento, lo que sin duda es una conclusión razonable.

    El siguiente ejemplo es otro en el que las verdaderas probabilidades son desconocidas y deben estimarse con base en datos experimentales.

    Ejemplo\(\PageIndex{7}\): (Two-armed bandit problem)

    Estás en un casino y te enfrentes a dos máquinas tragamonedas. Cada máquina paga ya sea 1 dólar o nada. La probabilidad de que la primera máquina pague un dólar es\(x\) y que la segunda máquina pague un dólar es\(y\). Suponemos que\(x\) y\(y\) son números aleatorios elegidos independientemente del intervalo\([0,1]\) y desconocidos para usted. Se le permite hacer una serie de diez jugadas, cada vez eligiendo una máquina u otra. ¿Cómo debes elegir para maximizar el número de veces que ganas?

    Una estrategia que suena razonable es calcular, en cada etapa, la probabilidad de que cada máquina dé sus frutos y elija la máquina con mayor probabilidad. Deja que win (\(i\)), para\(i = 1\) o 2, sea el número de veces que hayas ganado en la máquina\(i\) th. De igual manera, let lose (\(i\)) sea el número de veces que has perdido en la máquina\(i\) th. Entonces, del Ejemplo 4.16 la probabilidad de\(p(i)\) que ganes si eliges la máquina\(i\) th es\[p(i) = \frac {{\mbox{win}}(i) + 1} {{\mbox{win}}(i) + {\mbox{lose}}(i) + 2}\ .\] Así, si\(p(1) > p(2)\) jugarías a la máquina 1 y de lo contrario jugarías a la máquina 2. Hemos escrito un programa TwoArm para simular este experimento. En el programa, el usuario especifica los valores iniciales para\(x\) y\(y\) (pero estos son desconocidos para el experimentador). El programa calcula en cada etapa las dos densidades condicionales para\(x\) y\(y\), dados los resultados de los ensayos previos, y luego calcula\(p(i)\), para\(i = 1\), 2. Luego elige la máquina con el valor más alto para la probabilidad de ganar para la siguiente jugada. El programa imprime la máquina elegida en cada jugada y el resultado de esta obra. También traza las nuevas densidades para\(x\) (línea continua) y\(y\) (línea punteada), mostrando solo las densidades de corriente. Hemos corrido el programa para diez jugadas para el caso\(x = .6\) y\(y = .7\). El resultado se muestra en la Figura 4.7

    La ejecución del programa muestra la debilidad de esta estrategia. Nuestra probabilidad inicial de ganar en la mejor de las dos máquinas es .7. Empezamos con la máquina más pobre y nuestros resultados son tales que siempre tenemos una probabilidad mayor a .6 de ganar y así simplemente seguimos jugando a esta máquina aunque la otra máquina sea mejor. Si hubiéramos perdido en la primera jugada habríamos cambiado de máquina. Nuestra densidad final para\(y\) es la misma que nuestra densidad inicial, es decir, la densidad uniforme. Nuestra densidad final para\(x\) es diferente y refleja un conocimiento mucho más preciso sobre\(x\). A la computadora le fue bastante bien con esta estrategia, ganando siete de los diez juicios, pero diez juicios no son suficientes para juzgar si esta es una buena estrategia a la larga.

    Otra estrategia popular es la estrategia de jugar al ganador. Como su nombre indica, para esta estrategia elegimos la misma máquina cuando ganamos y cambiamos de máquina cuando perdemos. El programa TwoArm simulará esta estrategia también. En la Figura 4.11, mostramos los resultados de ejecutar este programa con la estrategia de jugar al ganador y las mismas probabilidades verdaderas de .6 y .7 para las dos máquinas. Después de diez jugadas nuestras densidades por las probabilidades desconocidas de ganar nos sugieren que la segunda máquina es efectivamente la mejor de las dos. De nuevo ganamos siete de los diez juicios.

    Ninguna de las estrategias que simulamos es la mejor en términos de maximizar nuestras ganancias promedio. Esta mejor estrategia es muy complicada pero se aproxima razonablemente por la estrategia de jugar al ganador. Las variaciones en este ejemplo han jugado un papel importante en el problema de las pruebas clínicas de fármacos donde los experimentadores enfrentan una situación similar.

    Ejercicios

    Ejercicio\(\PageIndex{1}\)

    Elija un punto\(x\) al azar (con densidad uniforme) en el intervalo\([0,1]\). Encuentra la probabilidad de que\(x > 1/2\), dado que

    1. \(x > 1/4\).
    2. \(x < 3/4\).
    3. \(|x - 1/2| < 1/4\).
    4. \(x^2 - x + 2/9 < 0\).

    Ejercicio\(\PageIndex{2}\)

    Un material radiactivo emite\(\alpha\) -partículas a una velocidad descrita por la función de densidad\[f(t) = .1e^{-.1t}\ .\] Encuentra la probabilidad de que una partícula se emita en los primeros 10 segundos, dado que

    1. no se emite ninguna partícula en el primer segundo.
    2. no se emite ninguna partícula en los primeros 5 segundos.
    3. se emite una partícula en los primeros 3 segundos.
    4. se emite una partícula en los primeros 20 segundos.

    Ejercicio\(\PageIndex{3}\)

    Se sabe que la bombilla Acme Super tiene una vida útil descrita por la función de densidad\[f(t) = .01e^{-.01t}\ ,\] donde el tiempo\(t\) se mide en horas.

    1. Encuentra el índice de fallas de esta bombilla (ver Ejercicio 2.2.6)
    2. Encuentra la fiabilidad de esta bombilla después de 20 horas.
    3. Dado que dura 20 horas, encuentra la probabilidad de que la bombilla dure otras 20 horas.
    4. Encuentra la probabilidad de que la bombilla se queme en la cuadragésima primera hora, dado que dura 40 horas.

    Ejercicio\(\PageIndex{4}\)

    Supongamos que arroja un dardo a un objetivo circular de radio de 10 pulgadas. Dado que el dardo aterriza en la mitad superior del objetivo, encuentra la probabilidad de que

    1. aterriza en la mitad derecha del objetivo.
    2. su distancia desde el centro es de menos de 5 pulgadas.
    3. su distancia desde el centro es mayor a 5 pulgadas.
    4. aterriza dentro de 5 pulgadas de la punta\((0,5)\).

    Ejercicio\(\PageIndex{5}\)

    Supongamos que eliges dos números\(x\) y\(y\), independientemente al azar del intervalo\([0,1]\). Dado que su suma se encuentra en el intervalo\([0,1]\), encuentra la probabilidad de que

    1. \(|x - y| < 1\).
    2. \(xy < 1/2\).
    3. \(\max\{x,y\} < 1/2\).
    4. \(x^2 + y^2 < 1/4\).
    5. \(x > y\).

    Ejercicio\(\PageIndex{6}\)

    Encuentre las funciones de densidad condicional para los siguientes experimentos.

    1. \(x\)Se elige un número al azar en el intervalo\([0,1]\), dado que\(x > 1/4\).
    2. \(t\)Se elige un número al azar en el intervalo\([0,\infty)\) con densidad exponencial\(e^{-t}\), dado eso\(1 < t < 10\).
    3. Se lanza un dardo a un objetivo circular de radio 10 pulgadas, dado que cae en la mitad superior del objetivo.
    4. Dos números\(x\) y\(y\) se eligen al azar en el intervalo\([0,1]\), dado que\(x > y\).

    Ejercicio\(\PageIndex{7}\)

    Dejar\(x\) y\(y\) ser elegido al azar a partir del intervalo\([0,1]\). Demostrar que los eventos\(x > 1/3\) y\(y > 2/3\) son eventos independientes.

    Ejercicio\(\PageIndex{8}\)

    Dejar\(x\) y\(y\) ser elegido al azar a partir del intervalo\([0,1]\). ¿Qué pares de los siguientes eventos son independientes?

    1. \(x > 1/3\).
    2. \(y > 2/3\).
    3. \(x > y\).
    4. \(x + y < 1\).

    Ejercicio\(\PageIndex{9}\)

    Supongamos que\(X\) y\(Y\) son variables aleatorias continuas con funciones de densidad\(f_X(x)\) y\(f_Y(y)\), respectivamente. Dejar\(f(x, y)\) denotar la función de densidad articular de\((X, Y)\). Demuestre eso\[\int_{-\infty}^\infty f(x, y)\, dy = f_X(x)\ ,\] y\[\int_{-\infty}^\infty f(x, y)\, dx = f_Y(y)\ .\]

    Ejercicio *\(\PageIndex{10}\)

    En el Ejercicio 2.2.12 probaste lo siguiente: Si tomas un palo de longitud unitaria y lo rompes en tres pedazos, eligiendo los descansos al azar (es decir, elegir dos números reales de manera independiente y uniforme de [0, 1]), entonces la probabilidad de que las tres piezas formen un triángulo es 1/4. Considera ahora un experimento similar: Primero rompe el palo al azar, luego rompe la pieza más larga al azar. Demostrar que los dos experimentos son en realidad bastante diferentes, de la siguiente manera:

    1. Escribir un programa que simule ambos casos para una serie de 1000 ensayos, imprima la proporción de éxitos por cada ejecución y repita este proceso diez veces. (Llamar a un juicio un éxito si las tres piezas sí forman un triángulo.) Haga que su programa elija\((x,y)\) al azar en el cuadrado de la unidad, y en cada caso use\(x\) y\(y\) para encontrar los dos descansos. Para cada experimento, hazlo trazar\((x,y)\) si\((x,y)\) da un éxito.
    2. Demostrar que en el segundo experimento la probabilidad teórica de éxito es en realidad\(2\log 2 - 1\).

    Ejercicio\(\PageIndex{11}\)

    Una moneda tiene un sesgo desconocido\(p\) que se supone que se distribuye uniformemente entre 0 y 1. La moneda se lanza\(n\) veces y las cabezas se vuelven\(j\) tiempos y las colas se vuelven\(k\) tiempos. Hemos visto que la probabilidad de que aparezcan cabezas la próxima vez es\[\frac {j + 1}{n + 2}\ .\] Mostrar que esto es lo mismo que la probabilidad de que la siguiente bola sea negra para el modelo de urna Polya del Ejercicio 4.1.20 Usa este resultado para explicar por qué, en el modelo de urna Polya, la proporción de bolas negras no tiende a 0 o 1 como una podría esperar sino más bien a una distribución uniforme en el intervalo\([0,1]\).

    Ejercicio\(\PageIndex{12}\)

    La experiencia previa con un medicamento sugiere que la probabilidad de\(p\) que el fármaco sea efectivo es una cantidad aleatoria que tiene una densidad beta con parámetros\(\alpha = 2\) y\(\beta = 3\). El medicamento se usa en diez sujetos y se encontró que tuvo éxito en cuatro de cada diez pacientes. ¿Qué densidad debemos asignar ahora a la probabilidad\(p\)? ¿Cuál es la probabilidad de que el medicamento tenga éxito la próxima vez que se use?

    Ejercicio\(\PageIndex{13}\)

    Escribe un programa que te permita comparar las estrategias play-the-winner y play-the-best-machine para el problema del bandido de dos brazos del Ejemplo 4.17. Haga que su programa determine las probabilidades de pago iniciales para cada máquina eligiendo un par de números aleatorios entre 0 y 1. Haga que su programa realice 20 jugadas y realice un seguimiento del número de victorias para cada una de las dos estrategias. Por último, haz que tu programa haga 1000 repeticiones de las 20 jugadas y compute la ganancia promedio por cada 20 jugadas. ¿Cuál estrategia parece ser la mejor? Repita estas simulaciones con 20 reemplazadas por 100. ¿Cambia tu respuesta a la pregunta anterior?

    Ejercicio\(\PageIndex{14}\)

    Consideremos el problema del bandido de dos brazos del Ejemplo 4.24 Bruce Barnes propuso la siguiente estrategia, que es una variación de la estrategia de jugar a la mejor máquina. La máquina con mayor probabilidad de ganar se juega las dos condiciones siguientes: (a) la diferencia en las probabilidades de ganar es menor que .08, y (b) la relación entre el número de veces que se juega en la máquina jugada con más frecuencia y el número de veces que se juega en la máquina menos jugada es mayor a 1.4. Si las dos condiciones anteriores se mantienen, entonces se juega la máquina con menor probabilidad de ganar. Escribe un programa para simular esta estrategia. Haga que su programa elija las probabilidades de pago iniciales al azar del intervalo de unidades\([0,1]\), realice 20 jugadas y realice un seguimiento del número de victorias. Repite este experimento 1000 veces y obtén el promedio de victorias por 20 jugadas. Implemente una segunda estrategia, por ejemplo, juegue a la mejor máquina o una de su elección, y vea cómo esta segunda estrategia se compara con las victorias promedio de Bruce.


    This page titled 4.2: Probabilidad Condicional Continua is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.