Saltar al contenido principal
LibreTexts Español

4.1: Probabilidad condicional discreta

  • Page ID
    150161
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Probabilidad Condicional

    En esta sección preguntamos y respondemos la siguiente pregunta. Supongamos que asignamos una función de distribución a un espacio de muestra y luego aprendemos que se\(E\) ha producido un evento. ¿Cómo debemos cambiar las probabilidades de los eventos restantes? Llamaremos a la nueva probabilidad para un evento\(F\) el y lo denotaremos por\(P(F|E)\).

    Ejemplo\(\PageIndex{1}\)

    Un experimento consiste en enrollar una matriz una vez. Que\(X\) sea el resultado. Deja\(F\) ser el evento\(\{X = 6\}\), y deja que\(E\) sea el evento\(\{X > 4\}\). Asignamos la función de distribución\(m(\omega) = 1/6\) para\(\omega = 1, 2, \ldots , 6\). Por lo tanto,\(P(F) = 1/6\). Ahora supongamos que el dado está enrollado y se nos dice que el suceso\(E\) ha ocurrido. Esto deja sólo dos posibles resultados: 5 y 6. A falta de cualquier otra información, seguiríamos considerando que estos resultados son igualmente probables, por lo que la probabilidad de\(F\) se convierte en 1/2, haciendo\(P(F|E) = 1/2\).

    Ejemplo\(\PageIndex{2}\):

    En la Tabla de Vida (ver Apéndice C), se encuentra que en una población de 100, 000 mujeres, 89.835% puede esperar vivir hasta los 60 años, mientras que 57.062% puede esperar vivir hasta los 80 años. Dado que una mujer tiene 60 años, ¿cuál es la probabilidad de que viva hasta los 80 años?

    Solución

    Este es un ejemplo de probabilidad condicional. En este caso, el espacio muestral original se puede considerar como un conjunto de 100, 000 hembras. Los eventos\(E\) y\(F\) son los subconjuntos del espacio muestral formado por todas las mujeres que viven al menos 60 años, y al menos 80 años, respectivamente. Consideramos\(E\) que es el nuevo espacio muestral, y señalar que\(F\) es un subconjunto de\(E\). Así, el tamaño de\(E\) es 89, 835, y el tamaño de\(F\) es 57, 062. Entonces, la probabilidad en cuestión es igual\(57{,}062/89{,}835 = .6352\). Así, una mujer que tiene 60 años tiene una probabilidad de 63.52% de vivir hasta los 80 años.

    Ejemplo\(\PageIndex{3}\)

    Considera nuestro ejemplo de votación de la Sección 1.2: tres candidatos A, B y C se postulan para cargos. Decidimos que A y B tienen las mismas posibilidades de ganar y C es solo 1/2 de probabilidades de ganar que A. Let\(A\) be el evento “A gana”,\(B\) que “B gana”, y\(C\) que “C gana”. De ahí, asignamos probabilidades\(P(A) = 2/5\),\(P(B) = 2/5\), y\(P(C) = 1/5\).

    Supongamos que antes de que se lleve a cabo la elección, se\(A\) retira de la carrera. Al igual que en el Ejemplo 4.1, sería natural asignar nuevas probabilidades a los eventos\(B\) y\(C\) que son proporcionales a las probabilidades originales. Así, tendríamos\(P(B|~A) = 2/3\), y\(P(C|~A) = 1/3\). Es importante señalar que cada vez que asignamos probabilidades a eventos de la vida real, la distribución resultante solo es útil si tomamos en cuenta toda la información relevante. En este ejemplo, podemos tener conocimiento de que la mayoría de los votantes que favorezcan\(A\) votarán por\(C\) si ya no\(A\) está en la carrera. Esto hará claramente que la probabilidad de que\(C\) gane sea mayor que el valor de 1/3 que se asignó anteriormente.

    En estos ejemplos asignamos una función de distribución y luego se nos dio nueva información que determinó un nuevo espacio muestral, consistente en los resultados que aún son posibles, y nos hizo asignar una nueva función de distribución a este espacio.

    Queremos formalizar el procedimiento que se lleva a cabo en estos ejemplos. Dejar\(\Omega = \{\omega_1,\omega_2,\dots,\omega_r\}\) ser el espacio muestral original con función de distribución\(m(\omega_j)\) asignada. Supongamos que aprendemos que el suceso\(E\) ha ocurrido. Queremos asignar una nueva función de distribución\(m(\omega_j|E)\)\(\Omega\) para reflejar este hecho. Claramente, si un punto de muestreo no\(\omega_j\) está adentro\(E\), queremos\(m(\omega_j|E) = 0\). Además, ante la falta de información en contrario, es razonable suponer que las probabilidades para\(\omega_k\) in\(E\) deberían tener las mismas magnitudes relativas que tenían antes de que nos enteráramos de que\(E\) había ocurrido. Para ello requerimos que\[m(\omega_k|E) = cm(\omega_k)\] para todos\(\omega_k\) adentro\(E\), con\(c\) alguna constante positiva. Pero también debemos tener\[\sum_E m(\omega_k|E) = c\sum_E m(\omega_k) = 1\ .\] Así,\[c = \frac 1{\sum_E m(\omega_k)} = \frac 1{P(E)}\ .\] (Tenga en cuenta que esto nos obliga a asumir eso\(P(E) > 0\).) Así, definiremos\[m(\omega_k|E) = \frac {m(\omega_k)}{P(E)}\] for\(\omega_k\) in\(E\). Llamaremos a esta nueva distribución la dada\(E\). Para un evento general\(F\), esto da\[P(F|E) = \sum_{F \cap E} m(\omega_k|E) = \sum_{F \cap E}\frac {m(\omega_k)}{P(E)} = \frac {P(F \cap E)}{P(E)}\ .\]

    Llamamos\(P(F|E)\) al y lo calculamos usando la fórmula\[P(F|E) = \frac {P(F \cap E)}{P(E)}\ .\]

    Ejemplo\(\PageIndex{4}\)

    Volvamos al ejemplo de enrollar un dado. Recordemos que ese\(F\) es el evento\(X = 6\), y\(E\) es el evento\(X > 4\). Tenga en cuenta que\(E \cap F\) es el evento\(F\). Entonces, la fórmula anterior da\[\begin{aligned} P(F|E) & = & \frac {P(F \cap E)}{P(E)} \\ & = & \frac {1/6}{1/3} \\ & = & \frac 12\ ,\\\end{aligned}\] de acuerdo con los cálculos realizados anteriormente.

    Ejemplo\(\PageIndex{5}\)

    Tenemos dos urnas, la I y la II. La urna I contiene 2 bolas negras y 3 bolas blancas. La urna II contiene 1 bola negra y 1 bola blanca. Se dibuja una urna al azar y se elige una bola al azar de ella. Podemos representar el espacio muestral de este experimento como los caminos a través de un árbol como se muestra en la Figura [fig 4.1]. También se muestran las probabilidades asignadas a los caminos.

    Que\(B\) sea el evento “se dibuja una bola negra”, y\(I\) el evento “se elige la urna I”. Entonces el peso de rama 2/5, que se muestra en una rama en la figura, ahora puede interpretarse como la probabilidad condicional\(P(B|I)\).

    Supongamos que deseamos calcular\(P(I|B)\). Usando la fórmula, obtenemos

    \[\begin{array}{rcl} P(I|B) & = & \frac {P(I \cap B)}{P(B)} \\ & = & \frac {P(I \cap B)}{P(B \cap I) + P(B \cap II)} \\ & = & \frac {1/5}{1/5 + 1/4} = \frac 49\ .\end{array}\]

    Probabilidades de Bayes

    Nuestra medida de árbol original nos dio las probabilidades de dibujar una bola de un color dado, dada la urna elegida. Acabamos de calcular el que se eligió una urna en particular, dado el color de la bola. Tal probabilidad inversa se denomina probabilidad de Bayes y se puede obtener por una fórmula que desarrollaremos posteriormente. Las probabilidades de Bayes también se pueden obtener simplemente construyendo la medida de árbol para el experimento de dos etapas realizado en orden inverso. Mostramos este árbol en la Figura 4.2.

    Los caminos a través del árbol inverso están en correspondencia uno a uno con los del árbol hacia adelante, ya que corresponden a los resultados individuales del experimento, por lo que se les asignan las mismas probabilidades. Desde el árbol delantero, encontramos que la probabilidad de una bola negra es\[\frac 12 \cdot \frac 25 + \frac 12 \cdot \frac 12 = \frac 9{20}\ .\]

    Las probabilidades para las sucursales en el segundo nivel se encuentran por división simple. Por ejemplo, si\(x\) es la probabilidad de ser asignado a la rama superior en el segundo nivel, debemos tener\[\frac 9{20} \cdot x = \frac 15\] o\(x = 4/9\). Así,\(P(I|B) = 4/9\), de acuerdo con nuestros cálculos anteriores. El árbol inverso muestra entonces todas las probabilidades inversas, o Bayes.

    Ejemplo\(\PageIndex{6}\)

    Consideramos ahora un problema llamado el problema de Monty Hall. Este ha sido durante mucho tiempo un problema favorito pero fue revivido por una carta de Craig Whitaker a Marilyn vos Savant para su consideración en su columna en la revista Parade. 1 Craig escribió:

    Supongamos que estás en Monty Hall's Se te da la opción de tres puertas, detrás de una puerta hay un auto, las otras, cabras. Escoges una puerta, digamos 1, Monty abre otra puerta, digamos 3, que tiene una cabra. Monty te dice “¿Quieres recoger la puerta 2?” ¿Es para su ventaja cambiar su elección de puertas?

    Marilyn dio una solución concluyendo que debes cambiar, y si lo haces, tu probabilidad de ganar es 2/3. Varios lectores furiosos, algunos de los cuales se identificaron como tener un doctorado en matemáticas, dijeron que esto es absurdo ya que después de que Monty haya descartado una puerta solo hay dos puertas posibles y aún así cada una debería tener la misma probabilidad 1/2 por lo que no hay ventaja en cambiar. Marilyn se apegó a su solución y animó a sus lectores a simular el juego y sacar sus propias conclusiones a partir de esto. También animamos al lector a hacer esto (ver Ejercicio [exer 4.1.9.6]).

    Otros lectores se quejaron de que Marilyn no había descrito completamente el problema. En particular, no se especificó la forma en que se tomaron ciertas decisiones durante una jugada del juego. Este aspecto del problema se discutirá en la Sección 4.3. Supondremos que el auto fue puesto detrás de una puerta rodando un dado de tres lados que hizo que las tres elecciones fueran igualmente probables. Monty sabe dónde está el auto, y siempre abre una puerta con una cabra detrás de él. Por último, asumimos que si Monty tiene opción de puertas (es decir, el concursante ha escogido la puerta con el auto detrás de ella), elige cada puerta con probabilidad 1/2. Marilyn claramente esperaba que sus lectores asuman que el juego se jugó de esta manera.

    Como es el caso de las paradojas más aparentes, esta se puede resolver a través de un análisis cuidadoso. Comenzamos describiendo una pregunta más simple y relacionada. Decimos que un concursante está usando la estrategia de “quedarse” si escoge una puerta, y, si se le ofrece la oportunidad de cambiar a otra puerta, se niega a hacerlo (es decir, se queda con su elección original). De igual manera, decimos que el concursante está utilizando la estrategia de “cambiar” si escoge una puerta, y, si se le ofrece la oportunidad de cambiar a otra puerta, toma la oferta. Ahora supongamos que un concursante decide de antemano jugar la estrategia de “quedarse”. Su única acción en este caso es escoger una puerta (y rechazar una invitación para cambiar, si se ofrece una). ¿Cuál es la probabilidad de que gane un auto? Se puede hacer la misma pregunta sobre la estrategia de “cambiar”.

    Usando la estrategia de “quedarse”, un concursante ganará el auto con probabilidad 1/3, ya que 1/3 de las veces la puerta que escoja tendrá el auto detrás de ella. Por otro lado, si un concursante juega la estrategia de “cambiar”, entonces ganará siempre que la puerta que originalmente escogió no tenga el auto detrás de ella, lo que sucede 2/3 del tiempo.

    Este análisis muy sencillo, aunque correcto, no resuelve del todo el problema que planteaba Craig. Craig pidió la probabilidad condicional de que ganes si cambias, dado que has elegido la puerta 1 y que Monty ha elegido la puerta 3. Para resolver este problema, configuramos el problema antes de obtener esta información y luego computamos la probabilidad condicional dada esta información. Este es un proceso que se lleva a cabo en varias etapas; el auto se pone detrás de una puerta, el concursante escoge una puerta, y finalmente Monty abre una puerta. Por lo tanto, es natural analizar esto usando una medida de árbol. Aquí hacemos una suposición adicional de que si Monty tiene opción de puertas (es decir, el concursante ha escogido la puerta con el auto detrás de ella) entonces escoge cada puerta con probabilidad 1/2. Los supuestos que hemos hecho determinan las probabilidades de ramificación y éstas a su vez determinan la medida del árbol. La medida resultante del árbol y del árbol se muestran en la Figura [fig 4.4]. Es tentador reducir el tamaño del árbol haciendo ciertas suposiciones como: “Sin pérdida de generalidad, asumiremos que el concursante siempre escoge la puerta 1”. Hemos optado por no hacer tales suposiciones, en aras de la claridad.

    Ahora la información dada, es decir, que el concursante eligió la puerta 1 y Monty eligió la puerta 3, significa que solo son posibles dos caminos a través del árbol (ver Figura [fig 4.4.5]). Para uno de estos caminos, el carro está detrás de la puerta 1 y por el otro está detrás de la puerta 2. El camino con el auto detrás de la puerta 2 es el doble de probable que el que tiene el auto detrás de la puerta 1. Así la probabilidad condicional es 2/3 de que el auto esté detrás de la puerta 2 y 1/3 que esté detrás de la puerta 1, así que si te cambias tienes 2/3 de posibilidades de ganar el auto, como afirmó Marilyn.

    En este punto, el lector puede pensar que los dos problemas anteriores son los mismos, ya que tienen las mismas respuestas. Recordemos que asumimos en el problema original si el concursante elige la puerta con el auto, para que Monty tenga la opción de dos puertas, elige cada una de ellas con probabilidad 1/2. Ahora supongamos en cambio que en el caso de que tenga opción, elija la puerta con el número mayor con probabilidad 3/4. En el problema “switch” vs “stay”, la probabilidad de ganar con la estrategia de “switch” sigue siendo 2/3. No obstante, en el problema original, si el concursante cambia, gana con probabilidad 4/7. El lector puede verificar esto señalando que los mismos dos caminos que antes son los únicos dos caminos posibles en el árbol. El camino que lleva a una victoria, si el concursante cambia, tiene probabilidad 1/3, mientras que el camino que lleva a una pérdida, si el concursante cambia, tiene probabilidad 1/4.

    Eventos Independientes

    A menudo sucede que el conocimiento de que\(E\) ha ocurrido un determinado evento no tiene efecto sobre la probabilidad de que\(F\) haya ocurrido algún otro evento, es decir, eso\(P(F|E) = P(F)\). Uno esperaría que en este caso, la ecuación también\(P(E|F) = P(E)\) sería cierta. De hecho (ver Ejercicio [exer 4.1.1]), cada ecuación implica la otra. Si estas ecuaciones son ciertas, podríamos decir la\(F\) es de\(E\). Por ejemplo, no esperarías que el conocimiento del resultado del primer lanzamiento de una moneda cambie la probabilidad de que asignarías a los posibles resultados del segundo lanzamiento, es decir, no esperarías que el segundo lanzamiento dependa del primero. Esta idea se formaliza en la siguiente definición de eventos independientes.

    Definición

    Dejar\(E\) y\(F\) ser dos eventos. Decimos que son si o bien 1) ambos eventos tienen probabilidad positiva y\[P(E|F) = P(E)\ {\rm and}\ P(F|E) = P(F)\ ,\] o 2) al menos uno de los eventos tiene probabilidad 0.

    Como se señaló anteriormente, si ambos\(P(E)\) y\(P(F)\) son positivos, entonces cada una de las ecuaciones anteriores implica la otra, de manera que para ver si dos eventos son independientes, sólo se debe verificar una de estas ecuaciones (ver Ejercicio 1).

    El siguiente teorema proporciona otra forma de verificar la independencia.

    Teorema\(\PageIndex{1}\)

    Dos eventos\(E\) y\(F\) son independientes si y solo si\[P(E\cap F) = P(E)P(F)\ .\]

    Prueba

    Si cualquiera de los eventos tiene probabilidad 0, entonces los dos eventos son independientes y la ecuación anterior es verdadera, por lo que el teorema es cierto en este caso. Así, podemos suponer que ambos eventos tienen probabilidad positiva en lo que sigue. Supongamos que\(E\) y\(F\) son independientes. Entonces\(P(E|F) = P(E)\), y así\[\begin{aligned} P(E\cap F) & = & P(E|F)P(F) \\ & = & P(E)P(F)\ .\end{aligned}\]

    Asumir siguiente eso\(P(E\cap F) = P(E)P(F)\). Entonces\[P(E|F) = \frac {P(E \cap F)}{P(F)} = P(E)\ .\] También,\[P(F|E) = \frac {P(F \cap E)}{P(E)} = P(F)\ .\] Por lo tanto,\(E\) y\(F\) son independientes.

    Ejemplo\(\PageIndex{7}\)

    Supongamos que tenemos una moneda que viene a la cabeza con la probabilidad\(p\), y las colas con la probabilidad\(q\). Ahora supongamos que esta moneda es arrojada dos veces. Usando una interpretación de frecuencia de probabilidad, es razonable asignar al resultado\((H,H)\) la probabilidad\(p^2\), al resultado\((H, T)\) la probabilidad\(pq\), y así sucesivamente. Dejen\(E\) ser el evento que cabezas aparece en el primer lanzamiento y\(F\) el evento que colas aparece en el segundo lanzamiento. Ahora comprobaremos que con las asignaciones de probabilidad anteriores, estos dos eventos son independientes, como se esperaba. Tenemos

    \[\begin{align}P(E) = p^2 + pq = p \\ P(F) = pq + q^2 = q \end{align}\]Por último\(P(E\cap F) = pq\), así\[P(E\cap F) = P(E)P(F)\].

    Ejemplo\(\PageIndex{8}\)

    A menudo, pero no siempre, es intuitivamente claro cuando dos eventos son independientes. En el Ejemplo 4.7, que\(A\) sea el evento “el primer lanzamiento es una cabeza” y\(B\) el evento “los dos resultados son iguales”. Entonces\[P(B|A) = \frac {P(B \cap A)}{P(A)} = \frac {P\{\mbox {HH}\}}{P\{\mbox {HH,HT}\}} = \frac {1/4}{1/2} = \frac 12 = P(B).\] Por lo tanto,\(A\) y\(B\) son independientes, pero el resultado no fue tan obvio.

    Ejemplo\(\PageIndex{9}\)

    Por último, demos un ejemplo de dos hechos que no son independientes. En el Ejemplo 4.7, dejemos\(I\) ser el evento “cabezas en el primer lanzamiento” y\(J\) el evento “aparecen dos cabezas”. Entonces\(P(I) = 1/2\) y\(P(J) = 1/4\). El evento\(I \cap J\) es el evento “cabezas en ambos lanzamientos” y tiene probabilidad\(1/4\). Así,\(I\) y no\(J\) son independientes desde entonces\(P(I)P(J) = 1/8 \ne P(I \cap J)\).

    Podemos extender el concepto de independencia a cualquier conjunto finito de eventos\(A_1\),\(A_2\),...,\(A_n\).

    Definición\(\PageIndex{2}\)

    Se dice que un conjunto de eventos\(\{A_1,\ A_2,\ \ldots,\ A_n\}\) es mutuamente independiente si para cualquier subconjunto\(\{A_i,\ A_j,\ldots,\ A_m\}\) de estos eventos tenemos

    \[P(A_i \cap A_j \cap\cdots\cap A_m) = P(A_i)P(A_j)\cdots P(A_m),\]

    o equivalentemente, si por alguna secuencia\(\bar A_1\),\(\bar A_2\),...,\(\bar A_n\) con\(\bar A_j = A_j\) o\(\tilde A_j\),\[P(\bar A_1 \cap \bar A_2 \cap\cdots\cap \bar A_n) = P(\bar A_1)P(\bar A_2)\cdots P(\bar A_n).\] (Para una prueba de la equivalencia en el caso\(n = 3\), véase Ejercicio 33

    Usando esta terminología, es un hecho que cualquier secuencia\((\mbox S,\mbox S,\mbox F,\mbox F, \mbox S, \dots,\mbox S)\) de posibles resultados de un proceso de ensayos de Bernoulli forma una secuencia de eventos mutuamente independientes.

    Es natural preguntarse: Si todos los pares de un conjunto de eventos son independientes, ¿todo el conjunto es mutuamente independiente? La respuesta no es necesariamente y se da un ejemplo en el Ejercicio 7

    Es importante señalar que el enunciado\[P(A_1 \cap A_2 \cap \cdots \cap A_n) = P(A_1)P(A_2) \cdots P(A_n)\] no implica que los hechos\(A_1\),\(A_2\),...,\(A_n\) sean mutuamente independientes (ver Ejercicio 8).

    Funciones de distribución conjunta e independencia de variables aleatorias

    Con frecuencia se da el caso de que cuando se realiza un experimento, se investigan varias cantidades diferentes en cuanto a los resultados.

    Ejemplo\(\PageIndex{10}\):

    Supongamos que lanzamos una moneda tres veces. La variable aleatoria básica\({\bar X}\) correspondiente a este experimento tiene ocho posibles resultados, los cuales son los triples ordenados que consisten en H's y T's; también podemos definir la variable aleatoria\(X_i\)\(i = 1, 2, 3\), for, como el resultado del\(i\) th lanzamiento. Si la moneda es justa, entonces debemos asignar la probabilidad 1/8 a cada uno de los ocho resultados posibles. Así, las funciones de distribución de\(X_1\)\(X_2\), y\(X_3\) son idénticas; en cada caso se definen por\(m(H) = m(T) = 1/2\).

    Si tenemos varias variables aleatorias\(X_1, X_2, \ldots, X_n\) que corresponden a un experimento dado, entonces podemos considerar la variable aleatoria conjunta\({\bar X} = (X_1, X_2, \ldots, X_n)\) definida tomando un resultado\(\omega\) del experimento, y escribiendo, como una\(n\) -tupla, los\(n\) resultados correspondientes para las variables aleatorias \(X_1, X_2, \ldots, X_n\). Así, si la variable aleatoria\(X_i\) tiene, como su conjunto de posibles resultados el conjunto\(R_i\), entonces el conjunto de posibles resultados de la variable aleatoria conjunta\({\bar X}\) es el producto cartesiano de los\(R_i\)'s, es decir, el conjunto de todas\(n\) -tuplas de posibles resultados de los\(X_i\)'s.

    Ejemplo\(\PageIndex{11}\):

    En el ejemplo de lanzamiento de monedas anterior, vamos a\(X_i\) denotar el resultado del\(i\) th lanzamiento. Entonces la variable aleatoria conjunta\({\bar X} = (X_1, X_2, X_3)\) tiene ocho posibles resultados.

    Supongamos que ahora definimos\(Y_i\)\(i = 1, 2, 3\), para, como el número de cabezas que ocurren en los primeros\(i\) lanzamientos. Entonces\(Y_i\) tiene\(\{0, 1, \ldots, i\}\) como posibles resultados, por lo que a primera vista, el conjunto de posibles resultados de la variable aleatoria conjunta\({\bar Y} = (Y_1, Y_2, Y_3)\) debe ser el conjunto\[\{(a_1, a_2, a_3)\ :\ 0 \le a_1 \le 1, 0 \le a_2 \le 2, 0 \le a_3 \le 3\}\ .\] Sin embargo, el resultado\((1, 0, 1)\) no puede ocurrir, ya que debemos tener\(a_1 \le a_2 \le a_3\). La solución a este problema es definir la probabilidad de que el resultado\((1, 0, 1)\) sea 0. Además, debemos tener\(a_{i+1} - a_i \le 1\) para\(i = 1, 2\).

    Ahora ilustramos la asignación de probabilidades a los diversos resultados para las variables aleatorias conjuntas\({\bar X}\) y\({\bar Y}\). En el primer caso, a cada uno de los ocho resultados se le debe asignar la probabilidad 1/8, ya que estamos asumiendo que tenemos una moneda justa. En el segundo caso, dado que\(Y_i\) tiene\(i+1\) posibles resultados, el conjunto de posibles resultados tiene tamaño 24. Solo ocho de estos 24 resultados pueden ocurrir realmente, es decir, los satisfactorios\(a_1 \le a_2 \le a_3\). Cada uno de estos resultados corresponde exactamente a uno de los resultados de la variable aleatoria\({\bar X}\), por lo que es natural asignar probabilidad 1/8 a cada uno de estos. Asignamos probabilidad 0 a los otros 16 resultados. En cada caso, la función de probabilidad se denomina función de distribución conjunta.

    Recopilamos las ideas anteriores en una definición.

    Definición\(\PageIndex{3}\)

    Dejar\(X_1, X_2, \ldots, X_n\) ser variables aleatorias asociadas a un experimento. Supongamos que el espacio muestral (es decir, el conjunto de posibles resultados) de\(X_i\) es el conjunto\(R_i\). Entonces la variable aleatoria conjunta\({\bar X} = (X_1, X_2, \ldots, X_n)\) se define como la variable aleatoria cuyos resultados consisten en\(n\) -tuplas ordenadas de resultados, con la coordenada\(i\) th en el conjunto\(R_i\). El espacio muestral\(\Omega\) de\({\bar X}\) es el producto cartesiano de los\(R_i\)'s:\[\Omega = R_1 \times R_2 \times \cdots \times R_n\ .\] La función de distribución conjunta de\({\bar X}\) es la función que da la probabilidad de cada uno de los resultados de\({\bar X}\).

    Ejemplo\(\PageIndex{12}\):

    Consideramos ahora la asignación de probabilidades en el ejemplo anterior. En el caso de la variable aleatoria\({\bar X}\), la probabilidad de cualquier resultado\((a_1, a_2, a_3)\) es solo el producto de las probabilidades\(P(X_i = a_i)\), para\(i = 1, 2, 3\). Sin embargo, en el caso de\({\bar Y}\), la probabilidad asignada al resultado no\((1, 1, 0)\) es producto de las probabilidades\(P(Y_1 = 1)\),\(P(Y_2 = 1)\), y\(P(Y_3 = 0)\). La diferencia entre estas dos situaciones es que el valor de no\(X_i\) afecta el valor de\(X_j\), si\(i \ne j\), mientras que los valores de\(Y_i\) y se\(Y_j\) afectan entre sí. Por ejemplo, si\(Y_1 = 1\), entonces\(Y_2\) no puede ser igual a 0. Esto incita a la siguiente definición.

    Definición\(\PageIndex{4}\)

    Las variables aleatorias\(X_1\)\(X_2\),,...,\(X_n\) son si\[\begin{aligned} &&P(X_1 = r_1, X_2 = r_2, \ldots, X_n = r_n) \\ && \;\;\;\;\;\;\;\;\;\;\;\;\;\;\; = P(X_1 = r_1) P(X_2 = r_2) \cdots P(X_n = r_n)\end{aligned}\] para cualquier elección de\(r_1, r_2, \ldots, r_n\). Así, si\(X_1,~X_2, \ldots,~X_n\) son mutuamente independientes, entonces la función de distribución conjunta de la variable aleatoria\[{\bar X} = (X_1, X_2, \ldots, X_n)\] es solo el producto de las funciones de distribución individuales. Cuando dos variables aleatorias son mutuamente independientes, diremos más brevemente que son independientes.

    Ejemplo\(\PageIndex{12}\)

    En un grupo de 60 personas, los números que fuman o no fuman y tienen o no cáncer se reportan como se muestra en la Tabla [tabla 4.1].

    Tabaquismo y cáncer.

    No fumar

    Humo

    Total

    No cáncer 40 10 50
    Cáncer

    7

    3

    10

    Totales 47 13 60

    Deje\(\Omega\) ser el espacio de muestra que consta de estas 60 personas. Se elige al azar a una persona del grupo. Que\(C(\omega) = 1\) si esta persona tiene cáncer y 0 si no, y\(S(\omega) = 1\) si esta persona fuma y 0 si no. Entonces la distribución conjunta de\(\{C,S\}\) se da en la Tabla [tabla 4.2].

    Distribución conjunta.
    S

    0

    1
    0 40/60 10/60
    C
    1

    7/60

    3/60

    Por ejemplo\(P(C = 0, S = 0) = 40/60\),\(P(C = 0, S = 1) = 10/60\), y así sucesivamente. Las distribuciones de las variables aleatorias individuales se denominan Las distribuciones marginales de\(C\) y\(S\) son:\[p_C = \pmatrix{ 0 & 1 \cr 50/60 & 10/60 \cr},\]

    \[p_S = \pmatrix{ 0 & 1 \cr 47/60 & 13/60 \cr}.\]Las variables aleatorias\(S\) y no\(C\) son independientes, ya que\[\begin{aligned} P(C = 1,S = 1) &=& \frac 3{60} = .05\ , \\ P(C = 1)P(S = 1) &=& \frac {10}{60} \cdot \frac {13}{60} = .036\ .\end{aligned}\] Nótese que también veríamos esto por el hecho de que\[\begin{aligned} P(C = 1|S = 1) &=& \frac 3{13} = .23\ , \\ P(C = 1) &=& \frac 16 = .167\ .\end{aligned}\]

    Procesos de Ensayos Independientes

    El estudio de las variables aleatorias procede considerando clases especiales de variables aleatorias. Una de esas clases que estudiaremos es la clase de [def 5.5]

    Definición\(\PageIndex{5}\)

    Una secuencia de variables aleatorias\(X_1\)\(X_2\),,...,\(X_n\) que son mutuamente independientes y que tienen la misma distribución se denomina secuencia de ensayos independientes o

    Los procesos de ensayos independientes surgen naturalmente de la siguiente manera. Tenemos un solo experimento con espacio muestral\(R = \{r_1,r_2,\dots,r_s\}\) y una función de distribución\[m_X = \pmatrix{ r_1 & r_2 & \cdots & r_s \cr p_1 & p_2 & \cdots & p_s\cr}\ .\]

    Repetimos este experimento\(n\) veces. Para describir este experimento total, elegimos como espacio muestral el espacio\[\Omega = R \times R \times\cdots\times R,\] que consiste en todas las secuencias posibles\(\omega = (\omega_1,\omega_2,\dots,\omega_n)\) donde\(\omega_j\) se elige el valor de cada una\(R\). Asignamos una función de distribución para ser el\[m(\omega) = m(\omega_1)\cdot\ \ldots\ \cdot m(\omega_n)\ ,\] con\(m(\omega_j) = p_k\) cuándo\(\omega_j = r_k\). Entonces dejamos\(X_j\) denotar la coordenada\(j\) th del resultado\((r_1, r_2, \ldots, r_n)\). Las variables aleatorias\(X_1\),...,\(X_n\) forman un proceso de ensayos independientes.

    Ejemplo\(\PageIndex{14}\)

    Un experimento consiste en enrollar una matriz tres veces. Vamos\(X_i\) a representar el resultado del\(i\) th rollo, para\(i = 1, 2, 3\). La función de distribución común es\[m_i = \pmatrix{ 1 & 2 & 3 & 4 & 5 & 6 \cr 1/6 & 1/6 & 1/6 & 1/6 & 1/6 & 1/6 \cr}.\]

    El espacio muestral es\(R^3 = R \times R \times R\) con\(R = \{1,2,3,4,5,6\}\). Si\(\omega = (1,3,6)\), entonces\(X_1(\omega) = 1\),\(X_2(\omega) = 3\), e\(X_3(\omega) = 6\) indicando que el primer rollo era un 1, el segundo era un 3, y el tercero era un 6. La probabilidad asignada a cualquier punto de muestreo es\[m(\omega) = \frac16 \cdot \frac16 \cdot \frac16 = \frac1{216}\ .\]

    Ejemplo\(\PageIndex{15}\)

    Considera a continuación un proceso de ensayos de Bernoulli con probabilidad\(p\) de éxito en cada experimento. Que\(X_j(\omega) = 1\) si el resultado\(j\) th es el éxito y\(X_j(\omega) = 0\) si es un fracaso. Entonces\(X_1\),\(X_2\),...,\(X_n\) es un proceso de juicios independientes. Cada uno\(X_j\) tiene la misma función de distribución\[m_j = \pmatrix{ 0 & 1 \cr q & p \cr},\] donde\(q = 1 - p\).

    Si\(S_n = X_1 + X_2 +\cdots + X_n\), entonces\[P(S_n = j) = {n \choose j} p^{j} q^{n - j}\ ,\] y\(S_n\) tiene, como distribución, la distribución binomial\(b(n,p,j)\).

    Fórmula de Bayes

    En nuestros ejemplos, hemos considerado probabilidades condicionales de la siguiente forma: Dado el resultado de la segunda etapa de un experimento de dos etapas, encontrar la probabilidad de un desenlace en la primera etapa. Hemos remarcado que estas probabilidades se llaman

    Volvemos ahora al cálculo de probabilidades Bayes más generales. Supongamos que tenemos un conjunto de eventos\(H_1,\)\(H_2\),...,\(H_m\) que son disjuntos por pares y tales que el espacio muestral\(\Omega\) satisface la ecuación\[\Omega = H_1 \cup H_2 \cup\cdots\cup H_m\ .\] Llamamos a estos eventos También tenemos un evento\(E\) que nos da alguna información sobre qué hipótesis es correcta. Llamamos a este evento

    Antes de recibir las pruebas, entonces, tenemos un conjunto de\(P(H_1)\),\(P(H_2)\),...,\(P(H_m)\) para las hipótesis. Si conocemos la hipótesis correcta, conocemos la probabilidad de la evidencia. Es decir, sabemos\(P(E|H_i)\) para todos\(i\). Queremos encontrar las probabilidades para las hipótesis dadas las pruebas. Es decir, queremos encontrar las probabilidades condicionales\(P(H_i|E)\). Estas probabilidades se llaman

    Para encontrar estas probabilidades, las escribimos en el formulario

    \[P(H_i|E) = \frac{P(H_i \cap E)}{P(E)}\ . \label{eq 4.1}\]Podemos calcular el numerador a partir de nuestra información dada por\[P(H_i \cap E) = P(H_i)P(E|H_i)\ . \label{eq 4.2}\] Dado que uno y solo uno de los eventos\(H_1\)\(H_2\),,...,\(H_m\) puede ocurrir, podemos escribir la probabilidad de\(E\) como

    \[P(E) = P(H_1 \cap E) + P(H_2 \cap E) + \cdots + P(H_m \cap E)\ .\]Usando la ecuación [eq 4.2], la expresión anterior se puede ver igual

    \[P(H_1)P(E|H_1) + P(H_2)P(E|H_2) + \cdots + P(H_m)P(E|H_m) \ . \label{eq 4.3}\]Usando ([eq 4.1]), ([eq 4.2]) y ([eq 4.3]) rinde:\[P(H_i|E) = \frac{P(H_i)P(E|H_i)}{\sum_{k = 1}^m P(H_k)P(E|H_k)}\ .\]

    Aunque esta es una fórmula muy famosa, rara vez la usaremos. Si el número de hipótesis es pequeño, se realiza fácilmente un simple cálculo de medidas de árbol, como lo hemos hecho en nuestros ejemplos. Si el número de hipótesis es grande, entonces deberíamos usar una computadora.

    Las probabilidades de Bayes son particularmente apropiadas para el diagnóstico médico. Un médico está ansioso por saber cuál de varias enfermedades podría tener un paciente. Recopila evidencia en forma de los resultados de ciertas pruebas. A partir de estudios estadísticos el médico puede encontrar las probabilidades previas de las diversas enfermedades antes de las pruebas, y las probabilidades de resultados específicos de las pruebas, dada una enfermedad en particular. Lo que el médico quiere saber es la probabilidad posterior de la enfermedad en particular, dados los resultados de las pruebas.

    Ejemplo\(\PageIndex{12}\)

    Un médico está tratando de decidir si un paciente tiene una de tres enfermedades\(d_1\),\(d_2\), o\(d_3\). Se van a realizar dos pruebas, cada una de las cuales da como resultado un\((-)\) resultado positivo\((+)\) o negativo. Hay cuatro patrones de prueba posibles\(+{}+\),\(+{}-\),\(-{}+\), y\(-{}-\). Los registros nacionales han indicado que, para 10, 000 personas que tienen una de estas tres enfermedades, la distribución de enfermedades y los resultados de las pruebas son como en el Cuadro [cuadro 4.3].

    Datos de enfermedades.
    Número que tiene
    Enfermedad esta enfermedad

    ++

    +—

    —+

    ——

    \(d_{1}\)

    3215

    2110

    301

    704

    100

    \(d_{2}\)

    2125

    396

    132

    1187

    410

    \(d_{3}\)

    4660

    510

    3568

    73

    509

    Total 10000

    A partir de estos datos, podemos estimar las probabilidades previas para cada una de las enfermedades y, dada una enfermedad en particular, la probabilidad de un resultado de prueba particular. Por ejemplo, se\(d_1\) puede estimar que la probabilidad previa de enfermedad es\(3215/10{,}000 = .3215\). Se puede estimar que la probabilidad del resultado de la prueba\(+{}-\)\(d_1\), dada la enfermedad, sea\(301/3215 = .094\).

    Ahora podemos usar la fórmula de Bayes para calcular varias probabilidades posteriores. El programa de cómputos Bayes calcula estas probabilidades posteriores. Los resultados para este ejemplo se muestran en la Tabla [cuadro 4.35].

    Probabilidades posteriores.
    \(d_1\) \(d_2\) \(d_3\)
    ++ .700 .131 .169
    +— .075 .033 .892

    —+

    .358 .604 .038

    ——

    .098 .403 .499

    Observamos a partir de los resultados que, cuando el resultado de la prueba es\(++\), la enfermedad\(d_1\) tiene una probabilidad significativamente mayor que las otras dos. Cuando el desenlace es\(+-\), esto es cierto para la enfermedad\(d_3\). Cuando el desenlace es\(-+\), esto es cierto para la enfermedad\(d_2\). Tenga en cuenta que estas declaraciones podrían haberse adivinado al mirar los datos. Si el desenlace es\(--\), la causa más probable es\(d_3\), pero la probabilidad que tiene un paciente\(d_2\) es solo ligeramente menor. Si uno mira los datos en este caso, se puede ver que podría ser difícil adivinar cuál de las dos enfermedades\(d_2\) y\(d_3\) es más probable.

    Nuestro último ejemplo muestra que hay que tener cuidado cuando las probabilidades previas son pequeñas.

    Ejemplo\(\PageIndex{13}\)

    Un médico le da a un paciente una prueba para detectar un cáncer en particular. Antes de los resultados de la prueba, la única evidencia que tiene que seguir el médico es que 1 mujer de cada 1000 tiene este cáncer. La experiencia ha demostrado que, en el 99 por ciento de los casos en los que está presente el cáncer, la prueba es positiva; y en el 95 por ciento de los casos en los que no está presente, es negativa. Si la prueba resulta positiva, ¿qué probabilidad debe asignar el médico al evento de que el cáncer esté presente? Una forma alternativa de esta pregunta es preguntar por las frecuencias relativas de falsos positivos y cánceres.

    Se nos da eso\(\mbox{prior(cancer)} = .001\) y\(\mbox{prior(not\ cancer)} = .999\). Sabemos también que\(P(+| \mbox{cancer}) = .99\),\(P(-|\mbox{cancer}) = .01\),\(P(+|\mbox{not\ cancer}) = .05\), y\(P(-|\mbox{not\ cancer}) = .95\). Al utilizar estos datos se obtiene el resultado mostrado en la Figura [fig 4.5].

    Vemos ahora que la probabilidad de cáncer dado una prueba positiva sólo ha aumentado de .001 a .019. Si bien esto es casi un aumento de veinte veces, la probabilidad de que el paciente tenga el cáncer sigue siendo pequeña. Dicho de otra manera, entre los resultados positivos, 98.1 por ciento son falsos positivos, y 1.9 por ciento son cánceres. Cuando se le hizo esta pregunta a un grupo de estudiantes de segundo año de medicina, más de la mitad de los estudiantes adivinaron incorrectamente la probabilidad de ser mayor que .5.

    Observaciones Históricas

    La probabilidad condicional se utilizó mucho antes de que se definiera formalmente. Pascal y Fermat consideraron el problema de los puntos: dado que el equipo A ha ganado\(m\) juegos y el equipo B ha ganado\(n\) juegos, ¿cuál es la probabilidad de que A gane la serie? (Ver Ejercicios 40-42.) Esto es claramente un problema de probabilidad condicional.

    En su libro, Huygens dio una serie de problemas, uno de los cuales fue:

    Tres jugadores, A, B y C, se llevan 12 bolas de las cuales 4 son blancas y 8 negras. Juegan con las reglas de que el cajón tiene los ojos vendados, A es dibujar primero, luego B y luego C, el ganador para ser quien primero dibuje una bola blanca. ¿Cuál es la proporción de sus posibilidades? 2

    De su respuesta queda claro que Huygens quiso decir que cada bola es reemplazada después de empatar. No obstante, John Hudde, el alcalde de Ámsterdam, asumió que pretendía muestrear sin reemplazo y se comunicó con Huygens sobre la diferencia en sus respuestas. Hackeando observaciones que “Ninguna de las partes puede entender lo que está haciendo la otra”. 3

    Para la época del libro de de Moivre, La doctrina de las posibilidades estas distinciones estaban bien entendidas. De Moivre definió la independencia y dependencia de la siguiente manera:

    Dos Eventos son independientes, cuando no tienen conexión uno con otro, y que el acontecer de uno ni adelante ni obstruye el acontecer del otro.

    Dos Eventos son dependientes, cuando están tan conectados entre sí como que la Probabilidad de que uno de los dos ocurra se ve alterada por el suceso del otro. 4

    De Moivre utilizó el muestreo con y sin reemplazo para ilustrar que la probabilidad de que dos eventos independientes ocurran es producto de sus probabilidades, y para eventos dependientes que:

    La Probabilidad de que ocurran dos Eventos dependiente, es producto de la Probabilidad del suceso de uno de ellos, por la Probabilidad que el otro tendrá de suceder, cuando se considera que el primero ha ocurrido; y la misma Regla se extenderá al acontecer de tantos Eventos como puedan ser asignado. 5

    La fórmula que llamamos fórmula de Bayes, y la idea de computar la probabilidad de una hipótesis dada evidencia, se originó en un famoso ensayo de Thomas Bayes. Bayes fue ordenado ministro en Tunbridge Wells, cerca de Londres. Sus intereses matemáticos lo llevaron a ser elegido para formar parte de la Royal Society en 1742, pero ninguno de sus resultados se publicó en su vida. La obra sobre la que descansa su fama, “Un ensayo para resolver un problema en la doctrina de las posibilidades”, fue publicada en 1763, tres años después de su muerte. 6 Bayes revisó algunos de los conceptos básicos de probabilidad y luego consideró un nuevo tipo de problema de probabilidad inversa que requería el uso de probabilidad condicional.

    Bernoulli, en su estudio de los procesos que ahora llamamos juicios de Bernoulli, había probado su famosa ley de grandes números que estudiaremos en el Capítulo 8. Este teorema aseguró al experimentador que si conocía la probabilidad\(p\) de éxito, podría predecir que la proporción de éxitos se acercaría a este valor a medida que aumentaba el número de experimentos. El propio Bernoulli se dio cuenta de que en los casos más interesantes desconoces el valor de\(p\) y viste su teorema como un paso importante para demostrar que podrías determinar\(p\) por experimentación.

    Para estudiar más a fondo este problema, Bayes comenzó asumiendo que la probabilidad\(p\) de éxito está determinada por un experimento aleatorio. Supuso de hecho que este experimento era tal que este valor para\(p\) es igualmente probable que sea cualquier valor entre 0 y 1. Sin conocer este valor realizamos\(n\) experimentos y observamos\(m\) éxitos. Bayes propuso el problema de encontrar la probabilidad condicional de que la probabilidad desconocida\(p\) se encuentra entre\(a\) y\(b\). Obtuvo la respuesta:\[P(a \leq p < b | m {\mbox{\,\,successes\,\, in}}\,\,n \,\,{\mbox{trials}}) = \frac {\int_a^b x^m(1 - x)^{n - m}\,dx}{\int_0^1 x^m(1 - x)^{n - m}\,dx}\ .\]

    Bayes claramente quiso mostrar que la función de distribución condicional, dados los resultados de cada vez más experimentos, se concentra alrededor del verdadero valor de\(p\). Así, Bayes estaba tratando de resolver un El cálculo de las integrales era demasiado difícil para una solución exacta a excepción de pequeños valores de\(j\) y\(n\), y así Bayes intentó métodos aproximados. Sus métodos no fueron muy satisfactorios y se ha sugerido que esto lo disuadió de publicar sus resultados.

    Sin embargo, su trabajo fue el primero de una serie de importantes estudios realizados por Laplace, Gauss y otros grandes matemáticos para resolver problemas inversos. Estudiaron este problema en términos de errores en las mediciones en astronomía. Si un astrónomo conociera el verdadero valor de una distancia y la naturaleza de los errores aleatorios causados por su dispositivo de medición podría predecir la naturaleza probabilística de sus mediciones. De hecho, sin embargo, se le presenta el problema inverso de conocer la naturaleza de los errores aleatorios, y los valores de las mediciones, y querer hacer inferencias sobre el valor verdadero desconocido.

    Como señala Maistrov, la fórmula que hemos denominado fórmula de Bayes no aparece en su ensayo. Laplace le dio este nombre cuando estudió estos problemas inversos. 7 El cálculo de las probabilidades inversas es fundamental para la estadística y ha llevado a una importante rama de la estadística llamada análisis bayesiano, asegurando a Bayes la fama eterna por su breve ensayo.

    Ejercicio\(\PageIndex{1}\)

    Supongamos que\(E\) y\(F\) son dos eventos con probabilidades positivas. Demuéstralo si\(P(E|F) = P(E)\), entonces\(P(F|E) = P(F)\).

    Ejercicio\(\PageIndex{2}\)

    Una moneda es arrojada tres veces. ¿Cuál es la probabilidad de que ocurran exactamente dos cabezas, dado que

    1. el primer desenlace fue una cabeza?

    2. el primer desenlace fue una cola?

    3. los dos primeros resultados fueron cabezas?

    4. los dos primeros resultados fueron colas?

    5. el primer desenlace fue una cabeza y el tercer resultado fue un cabezazo?

    Ejercicio\(\PageIndex{3}\)

    Un dado se enrolla dos veces. ¿Cuál es la probabilidad de que la suma de las caras sea mayor que 7, dado que

    1. el primer desenlace fue un 4?

    2. el primer desenlace fue mayor a 3?

    3. el primer desenlace fue un 1?

    4. el primer desenlace fue menor a 5?

    Ejercicio\(\PageIndex{4}\)

    Una carta se extrae al azar de una baraja de cartas. ¿Cuál es la probabilidad de que

    1. es un corazón, dado que es rojo?

    2. es superior a un 10, dado que es un corazón? (Interpretar J, Q, K, A como 11, 12, 13, 14.)

    3. es un gato, dado que es rojo?

    Ejercicio\(\PageIndex{5}\)

    Una moneda es arrojada tres veces. Considera los siguientes eventos\(A\): Cabezas en el primer lanzamiento. \(B\): Colas en el segundo. \(C\): Cabezas en el tercer tiro. \(D\): Los tres resultados son iguales (HHH o TTT). \(E\): Exactamente aparece una cabeza.

    1. ¿Cuáles de los siguientes pares de estos eventos son independientes? (1)\(A\),\(B\) (2)\(A\),\(D\) (3)\(A\),\(E\) (4)\(D\),\(E\)

    2. ¿Cuáles de las siguientes triples de estos eventos son independientes? (1)\(A\),\(B\),\(C\) (2)\(A\),\(B\),\(D\) (3)\(C\),\(D\),\(E\)

    Ejercicio\(\PageIndex{6}\)

    De una baraja de cinco cartas numeradas 2, 4, 6, 8 y 10, respectivamente, se saca una carta al azar y se reemplaza. Esto se hace tres veces. ¿Cuál es la probabilidad de que la carta numerada 2 se haya sacado exactamente dos veces, dado que la suma de los números en los tres sorteos es 12?

    Ejercicio\(\PageIndex{7}\)

    Una moneda es arrojada dos veces. Considera los siguientes eventos. \(A\): Cabezas en el primer tiro. \(B\): Cabezas en el segundo tiro. \(C\): Los dos lanzamientos salen igual.

    1. Demostrar que\(A\)\(B\),,\(C\) son pares independientes pero no independientes.

    2. Demostrar que\(C\) es independiente de\(A\) y\(B\) pero no de\(A \cap B\).

    Ejercicio\(\PageIndex{8}\)

    Vamos\(\Omega = \{a,b,c,d,e,f\}\). Supongamos que\(m(a) = m(b) = 1/8\) y\(m(c) = m(d) = m(e) = m(f) = 3/16\). Dejemos\(A\)\(B\),, y\(C\) sean los eventos\(A = \{d,e,a\}\),\(B = \{c,e,a\}\),\(C = \{c,d,a\}\). Demuestre que\(P(A \cap B \cap C) = P(A)P(B)P(C)\) pero no hay dos de estos eventos independientes.

    Ejercicio\(\PageIndex{9}\)

    ¿Cuál es la probabilidad de que una familia de dos hijos tenga

    1. dos chicos dado que tiene al menos un chico?

    2. dos chicos dado que el primer hijo es un niño?

    Ejercicio\(\PageIndex{10}\)

    En el Ejemplo 4.2, se utilizó la Tabla de Vida (ver Apéndice C) para calcular una probabilidad condicional. El número 93, 753 en la tabla, correspondiente a varones de 40 años, significa que de todos los varones nacidos en Estados Unidos en 1950, 93.753% estaban vivos en 1990. ¿Es razonable utilizar esto como estimación de la probabilidad de que un varón, nacido este año, sobreviva hasta los 40 años?

    Ejercicio\(\PageIndex{11}\)

    Simula el problema de Monty Hall. Exponga cuidadosamente cualquier suposición que haya hecho al escribir el programa. ¿Qué versión del problema crees que estás simulando?

    Ejercicio\(\PageIndex{12}\)

    En el Ejemplo 4.17, ¿qué tan grande debe ser la probabilidad previa de cáncer para dar una probabilidad posterior de .5 para el cáncer dado una prueba positiva?

    Ejercicio\(\PageIndex{13}\)

    Se extraen dos cartas de una baraja de puente. ¿Cuál es la probabilidad de que la segunda carta extraída sea roja?

    Ejercicio\(\PageIndex{14}\)

    Si\(P(\tilde B) = 1/4\) y\(P(A|B) = 1/2\), ¿qué es\(P(A \cap B)\)?

    Ejercicio\(\PageIndex{15}\)

    1. ¿Cuál es la probabilidad de que tu pareja puente tenga exactamente dos ases, dado que tiene al menos un as?

    2. ¿Cuál es la probabilidad de que tu pareja puente tenga exactamente dos ases, dado que tiene el as de espadas?

    Ejercicio\(\PageIndex{16}\)

    Demostrar que para tres eventos cualquiera\(A\)\(B\),\(C\),, cada uno tiene probabilidad positiva, y con la propiedad que\(P(A \cap B) > 0\),\[P(A \cap B \cap C) = P(A)P(B|A)P(C|A \cap B)\ .\]

    Ejercicio\(\PageIndex{17}\)

    Demostrar que si\(A\) y\(B\) son independientes también lo son

    1. \(A\)y\(\tilde B\).

    2. \(\tilde A\)y\(\tilde B\).

    Ejercicio\(\PageIndex{18}\)

    Un médico asume que un paciente tiene una de tres enfermedades\(d_1\),\(d_2\), o\(d_3\). Antes de cualquier prueba, asume una probabilidad igual para cada enfermedad. Realiza una prueba que será positiva con probabilidad .8 si el paciente tiene\(d_1\), .6 si tiene enfermedad\(d_2\), y .4 si tiene enfermedad\(d_3\). Dado que el resultado de la prueba fue positivo, ¿qué probabilidades debería asignar ahora el médico a las tres posibles enfermedades?

    Ejercicio\(\PageIndex{19}\)

    En una mano de poker, John tiene una mano muy fuerte y apuesta 5 dólares. La probabilidad de que Mary tenga una mejor mano es de .04. Si Mary tuviera una mejor mano levantaría con probabilidad .9, pero con una mano más pobre solo levantaría con probabilidad .1. Si María levanta, ¿cuál es la probabilidad de que tenga una mejor mano que John?

    Ejercicio\(\PageIndex{20}\)

    El modelo de urna Polya para contagio es el siguiente: Comenzamos con una urna que contiene una bola blanca y una bola negra. A cada segundo elegimos una bola al azar de la urna y reemplazamos esta bola y agregamos una más del color elegido. Escribe un programa para simular este modelo, y mira si puedes hacer alguna predicción sobre la proporción de bolas blancas en la urna después de una gran cantidad de sorteos. ¿Hay tendencia a tener una gran fracción de bolas del mismo color a la larga?

    Ejercicio\(\PageIndex{21}\)

    Se desea encontrar la probabilidad de que en un trato puente cada jugador reciba un as. Un estudiante argumenta lo siguiente. No importa a dónde vaya el primer as. El segundo as debe ir a uno de los otros tres jugadores y esto ocurre con probabilidad 3/4. Entonces el siguiente debe ir a uno de dos, un evento de probabilidad 1/2, y finalmente el último as debe ir al jugador que no tenga un as. Esto ocurre con probabilidad 1/4. La probabilidad de que todos estos eventos ocurran es el producto\((3/4)(1/2)(1/4) = 3/32\). ¿Es correcto este argumento?

    Ejercicio\(\PageIndex{22}\)

    Una moneda en una colección de 65 tiene dos cabezas. El resto son justos. Si una moneda, elegida al azar del lote y luego arrojada, sube la cabeza 6 veces seguidas, ¿cuál es la probabilidad de que sea la moneda de dos cabezas?

    Ejercicio\(\PageIndex{23}\)

    Te dan dos urnas y cincuenta bolas. La mitad de las bolas son blancas y la mitad son negras. Se le pide distribuir las bolas en las urnas sin restricción alguna sobre el número de ninguno de los dos tipos en una urna. ¿Cómo se deben distribuir las bolas en las urnas para maximizar la probabilidad de obtener una bola blanca si se elige una urna al azar y se extrae una bola al azar? Justifica tu respuesta.

    Ejercicio\(\PageIndex{24}\)

    Una moneda justa es tirada\(n\) veces. Demostrar que la probabilidad condicional de una cabeza en cualquier juicio especificado, dado un total de\(k\) cabezas sobre los\(n\) juicios, es\(k/n\)\((k > 0)\).

    Ejercicio\(\PageIndex{25}\)

    (Johnsonbough 8) Una moneda con probabilidad\(p\) de cabezas es arrojada\(n\) veces. \(E\)Sea el evento “se obtiene una cabeza en los primeros tirados' y\(F_k\) el evento 'se obtienen exactamente\(k\) cabezas”. ¿Para qué pares\((n,k)\) son\(E\) e\(F_k\) independientes?

    Ejercicio\(\PageIndex{26}\)

    Supongamos que\(A\) y\(B\) son eventos tales que\(P(A|B) = P(B|A)\) y\(P(A \cup B) = 1\) y\(P(A \cap B) > 0\). \(P(A) > 1/2\)Demuéstralo.

    Ejercicio\(\PageIndex{27}\)

    (Chung 9) En Londres, la mitad de los días llueve. El pronosticador del tiempo es correcto 2/3 del tiempo, es decir, la probabilidad de que llueva, dado que ha pronosticado lluvia, y la probabilidad de que no llueva, dado que ha pronosticado que no lloverá, son ambas iguales a 2/3. Cuando se pronostica lluvia, el señor Pickwick toma su paraguas. Cuando no se pronostica lluvia, la toma con probabilidad 1/3. Encuentra

    1. la probabilidad de que Pickwick no tenga paraguas, dado que llueve.

    2. la probabilidad de que traiga su paraguas, dado que no llueve.

    Ejercicio\(\PageIndex{28}\)

    La teoría de la probabilidad se utilizó en un famoso caso judicial: 10 En este caso se le arrebató un bolso a una persona de la tercera edad en un suburbio de Los Ángeles. Una pareja vista huyendo de la escena fueron descritas como un hombre negro con barba y bigote y una chica rubia con pelo en cola de caballo. Testigos dijeron que se fueron en un auto parcialmente amarillo. Malcolm y Janet Collins fueron detenidos. Era negro y aunque bien afeitado al ser detenido tenía evidencia de recientemente haber tenido barba y bigote. Era rubia y por lo general llevaba el pelo en una cola de caballo. Condujeron un Lincoln en parte amarillo. La fiscalía llamó como testigo a un profesor de matemáticas quien sugirió que un conjunto conservador de probabilidades para las características señaladas por los testigos sería como se muestra en la Tabla 4.5

    Cuadro 4.5: Probabilidades de casos Collins

    hombre, con, bigote 1/4
    chica con cabello rubio 1/3
    chica con cola de caballo 1/10
    hombre negro con barba 1/10
    interracial, pareja, en, un, coche 1/1000
    coche parcialmente amarillo 1/10

    La fiscalía argumentó entonces que la probabilidad de que todas estas características sean satisfechas por una pareja escogida al azar es producto de las probabilidades o 1/12 , 000, que es muy pequeña. Afirmó que esto era prueba más allá de toda duda razonable de que los acusados eran culpables. El jurado estuvo de acuerdo y dictó sentencia de culpabilidad de robo en segundo grado.

    Si usted fuera el abogado de la pareja Collins ¿cómo habría contrarrestado el argumento anterior? (El recurso de este caso se discute en Ejercicio [sec 5.1]. [exer 9.2.23].)

    Ejercicio\(\PageIndex{29}\)

    Un estudiante está postulando a Harvard y Dartmouth. Estima que tiene una probabilidad de .5 de ser aceptado en Dartmouth y .3 de ser aceptado en Harvard. Además estima que la probabilidad de que sea aceptado por ambos es .2. ¿Cuál es la probabilidad de que Dartmouth lo acepte si es aceptado por Harvard? ¿El evento “aceptado en Harvard” es independiente del evento “aceptado en Dartmouth”?

    Ejercicio\(\PageIndex{30}\)

    Luxco, fabricante de bombillas al por mayor, cuenta con dos fábricas. Factory A vende bulbos en lotes que consta de 1000 bulbos regulares y 2000 bulbos cada uno. El muestreo aleatorio ha demostrado que en promedio tienden a haber alrededor de 2 bombillas normales malas y 11 bombillas malas de luz suave por lote. En la fábrica B se invierte el tamaño del lote, hay 2000 regular y 1000 softglow por lote, y tiende a haber 5 malas bombillas regulares y 6 malas bombillas softglow por lote.

    El gerente de la fábrica A afirma: “Obviamente somos el mejor productor; nuestras malas tasas de bulbo son .2 por ciento y .55 por ciento en comparación con las B's .25 por ciento y .6 por ciento. Somos mejores tanto en bombillas regulares como en softglow en la mitad de una décima de por ciento cada una”.

    “Au contraire”, contrarresta el gerente de B, “cada uno de nuestros 3000 lotes de bombillas contiene solo 11 bombillas malas, mientras que los 3000 lotes de bombillas de A contienen 13. Por lo que nuestra tasa de bombillas malas de .37 por ciento supera a su .43 por ciento”.

    ¿Quién tiene razón?

    Ejercicio\(\PageIndex{31}\)

    Utilizando la Tabla de Vida para 1981 dada en el Apéndice C, se encuentra la probabilidad de que un varón de 60 años en 1981 viva hasta los 80 años. Encuentra la misma probabilidad para una hembra.

    Ejercicio\(\PageIndex{32}\)

    1. Ha habido una ventisca y Helen está tratando de conducir de Woodstock a Tunbridge, los cuales están conectados como la gráfica superior de la Figura [fig 4.51]. Aquí\(p\) y\(q\) están las probabilidades de que los dos caminos sean transitables. ¿Cuál es la probabilidad de que Helen pueda llegar de Woodstock a Tunbridge?

    2. Ahora supongamos que Woodstock y Tunbridge están conectados como el gráfico central en la Figura [fig 4.51]. ¿Cuál es ahora la probabilidad de que pueda llegar de\(W\) a\(T\)? Obsérvese que si pensamos en las carreteras como componentes de un sistema, entonces en (a) y (b) hemos calculado el de un sistema cuyos componentes son (a) y (b)

    3. Ahora supongamos\(W\) y\(T\) están conectados como el gráfico inferior en la Figura [fig 4.51]. Encuentra la probabilidad de que Helen vaya de\(W\) a\(T\).: Si el camino de\(C\) a\(D\) es intransitable, bien podría no estar ahí en absoluto; si es transitable, entonces averigua cómo usar la parte (b) dos veces.

    Ejercicio\(\PageIndex{33}\)

    Dejar\(A_1\),\(A_2\), y\(A_3\) ser eventos, y dejar\(B_i\) representar cualquiera\(A_i\) o su complemento\(\tilde A_i\). Entonces hay ocho opciones posibles para el triple\((B_1, B_2, B_3)\). Demostrar que los eventos\(A_1\)\(A_2\),,\(A_3\) son independientes si y sólo si\[P(B_1 \cap B_2 \cap B_3) = P(B_1)P(B_2)P(B_3)\ ,\] por las ocho opciones posibles para el triple\((B_1, B_2, B_3)\).

    Ejercicio\(\PageIndex{34}\)

    Cuatro mujeres, A, B, C y D, revisan sus sombreros, y los sombreros se devuelven de manera aleatoria. \(\Omega\)Sea el conjunto de todas las posibles permutaciones de A, B, C, D. Que\(X_j = 1\) si la mujer\(j\) th obtiene su propio sombrero de vuelta y 0 de lo contrario. ¿Cuál es la distribución de\(X_j\)? ¿Los\(X_i\)'s son mutuamente independientes?

    Ejercicio\(\PageIndex{35}\)

    Una caja tiene números del 1 al 10. Se dibuja un número al azar. Dejar\(X_1\) ser el número sorteado. Este número se sustituye, y los diez números se mezclan. Se dibuja\(X_2\) un segundo número. Encuentra las distribuciones de\(X_1\) y\(X_2\). ¿Son\(X_1\) e\(X_2\) independientes? Contesta las mismas preguntas si el primer número no es reemplazado antes de que se dibuje el segundo.

    Ejercicio\(\PageIndex{36}\)

    Un dado se lanza dos veces. Dejar\(X_1\) y\(X_2\) denotar los resultados. Definir\(X = \min(X_1, X_2)\). Encuentra la distribución de\(X\).

    Ejercicio\(\PageIndex{37}\)

    Dado que\(P(X = a) = r\),\(P(\max(X,Y) = a) = s\), y\(P(\min(X,Y) = a) = t\), demostrar que se puede determinar\(u = P(Y = a)\) en términos de\(r\),\(s\), y\(t\).

    Ejercicio\(\PageIndex{38}\)

    Una moneda justa es arrojada tres veces. \(X\)Sea el número de cabezas que aparecen en los dos primeros lanzamientos y\(Y\) el número de cabezas que aparecen en el tercer lanzamiento. Dar la distribución de

    1. las variables aleatorias\(X\) y\(Y\).

    2. la variable aleatoria\(Z = X + Y\).

    3. la variable aleatoria\(W = X - Y\).

    Ejercicio\(\PageIndex{39}\)

    Supongamos que las variables aleatorias\(X\) y\(Y\) tienen la distribución conjunta dada en la Tabla [tabla 4.5].

    Distribución conjunta.
    \(Y\)
    -1 0 1 2
    \(X\) -1 0 1/36 1/6 1/12
    0 1/18 0 1/18 0
    1 0 1/36 1/6 1/12
    2 1/12 0 1/12 1/6
    1. ¿Qué es\(P(X \geq 1\ \mbox {and\ } Y \leq 0)\)?

    2. ¿Cuál es la probabilidad condicional que\(Y \leq 0\) dado eso\(X = 2\)?

    3. ¿Son\(X\) e\(Y\) independientes?

    4. ¿Cuál es la distribución de\(Z = XY\)?

    Ejercicio\(\PageIndex{40}\)

    En el, comentado en los comentarios históricos de la Sección 3.2, dos jugadores, A y B, juegan una serie de puntos en un juego con el jugador A ganando cada punto con probabilidad\(p\) y el jugador B ganando cada punto con probabilidad\(q = 1 - p\). El primer jugador en ganar\(N\) puntos gana el juego. Asumir eso\(N = 3\). Dejar\(X\) ser una variable aleatoria que tenga el valor 1 si el jugador A gana la serie y 0 de lo contrario. Dejar\(Y\) ser una variable aleatoria con valor el número de puntos jugados en un juego. Encuentra la distribución de\(X\) y\(Y\) cuándo\(p = 1/2\). ¿Son\(X\) e\(Y\) independientes en este caso? Responde las mismas preguntas para el caso\(p = 2/3\).

    Ejercicio\(\PageIndex{41}\)

    Las letras entre Pascal y Fermat, a las que a menudo se les atribuye haber iniciado la teoría de la probabilidad, trataban principalmente de lo descrito en Ejercicio [exer 5.1.11]. Pascal y Fermat consideraron el problema de encontrar una división justa de apuestas si el juego debe ser cancelado cuando el primer jugador haya ganado\(r\) juegos y el segundo jugador haya ganado\(s\) juegos, con\(r < N\) y\(s < N\). \(P(r,s)\)Sea la probabilidad de que el jugador A gane el juego si ya ha ganado\(r\) puntos y el jugador B ha ganado\(s\) puntos. Entonces

    1. \(P(r,N) = 0\)si\(r < N\),

    2. \(P(N,s) = 1\)si\(s < N\),

    3. \(P(r,s) = pP(r + 1,s) + qP(r,s + 1)\)si\(r < N\) y\(s < N\);

    y (1), (2), y (3) determinar\(P(r,s)\) para\(r \leq N\) y\(s \leq N\). Pascal utilizó estos hechos para encontrar\(P(r,s)\) trabajando hacia atrás: Primero obtuvo\(P(N - 1,j)\) para\(j = N - 1\),\(N - 2\),..., 0; luego, de estos valores, obtuvo\(P(N - 2,j)\) para\(j = N - 1\),,...\(N - 2\), 0 y, continuando hacia atrás, obtuvo todos los valores\(P(r,s)\). Escribe un programa\(P(r,s)\) para computar para dado\(N\)\(a\)\(b\),,, y\(p\).: Sigue a Pascal y podrás ejecutar\(N = 100\); usa recursión y no podrás ejecutar\(N = 20\).

    Ejercicio\(\PageIndex{42}\)

    Fermat resolvió el problema de los puntos (ver Ejercicio 5.11) de la siguiente manera: Se dio cuenta de que el problema era difícil porque las posibles formas en que podría ir la jugada no son igualmente probables. Por ejemplo, cuando el primer jugador necesita dos juegos más y el segundo necesita tres para ganar, dos posibles formas en que la serie podría ir para el primer jugador son WLW y LWLW. Estas secuencias no son igualmente probables. Para evitar esta dificultad, Fermat extendió la jugada, sumando jugadas ficticias para que la serie fuera el número máximo de juegos necesarios (cuatro en este caso). Obtuvo resultados igualmente probables y utilizó, en efecto, el triángulo Pascal para calcular\(P(r,s)\). Demostrar que esto lleva a una para\(P(r,s)\) incluso para el caso\(p \ne 1/2\).

    Ejercicio\(\PageIndex{43}\)

    Los Yankees están interpretando a los Dodgers en una serie mundial. Los Yankees ganan cada juego con probabilidad .6. ¿Cuál es la probabilidad de que los Yankees ganen la serie? (La serie la gana el primer equipo en ganar cuatro partidos.)

    Ejercicio\(\PageIndex{44}\)

    C. L. Anderson 11 ha utilizado el argumento de Fermat para el problema de los puntos para probar el siguiente resultado debido a J. G. Kingston. Estás jugando el juego de puntos (ver Ejercicio 40) pero, en cada punto, cuando sirves ganas con probabilidad\(p\), y cuando tu oponente te sirve ganas con probabilidad\(\bar{p}\). Servirás primero, pero puedes elegir una de las siguientes dos convenciones para servir: para la primera convención alternas el servicio (tenis), y para la segunda la persona que sirve sigue sirviendo hasta que pierde un punto y luego el otro jugador sirve (raquetball). El primer jugador en ganar\(N\) puntos gana el juego. El problema es demostrar que la probabilidad de ganar el juego es la misma bajo cualquiera de las dos convenciones.

    1. Demuestra que, bajo cualquiera de las convenciones, servirás en la mayoría de los\(N\) puntos y tu oponente en la mayoría de los\(N - 1\) puntos.

    2. Extiende el número de puntos a para\(2N - 1\) que sirvas\(N\) puntos y tu oponente sirva\(N - 1\). Por ejemplo, sirves cualquier punto adicional necesario para hacer\(N\) sacos y luego tu oponente sirve cualquier punto adicional necesario para hacerle servir\(N - 1\) puntos. El ganador es ahora la persona, en el juego extendido, que gana más puntos. Demuestre que jugar estos puntos adicionales no ha cambiado al ganador.

    3. Demuestra que (a) y (b) prueban que tienes la misma probabilidad de ganar el juego bajo cualquiera de las convenciones.

    Ejercicio\(\PageIndex{45}\)

    En el problema anterior, supongamos que\(p = 1 - \bar{p}\).

    1. Demuestre que bajo cualquiera de las convenciones de servicio, el primer jugador ganará con más frecuencia que el segundo jugador si y solo si\(p > .5\).

    2. En voleibol, un equipo sólo puede ganar un punto mientras está sirviendo. Así, cualquier “jugada” individual o bien termina con un punto que se otorga al equipo que sirve o con el servicio cambiando al otro equipo. El primer equipo en ganar\(N\) puntos gana el juego. (Ignoramos aquí la restricción adicional de que el equipo ganador debe estar por delante por al menos dos puntos al final del juego). Supongamos que cada equipo tiene la misma probabilidad de ganar la jugada cuando está sirviendo, es decir, eso\(p = 1 - \bar{p}\). Demuestre que en este caso, el equipo que sirva primero ganará más de la mitad del tiempo, siempre y cuando\(p > 0\). (Si\(p = 0\), entonces el juego nunca termina.):\(p'\) Definir como la probabilidad de que un equipo gane el siguiente punto, dado que está sirviendo. Si escribimos\(q = 1 - p\), entonces uno puede demostrar que\[p' = \frac p{1-q^2}\ .\] Si uno considera ahora este juego de una manera ligeramente diferente, se puede ver que se puede usar la segunda convención de servicio en el problema anterior, con\(p\) reemplazada por\(p'\).

    Ejercicio\(\PageIndex{46}\)

    Una mano de poker consta de 5 cartas repartidas de una baraja de 52 cartas. Dejar\(X\) y\(Y\) ser, respectivamente, el número de ases y reyes en una mano de póquer. Encuentra la distribución conjunta de\(X\) y\(Y\).

    Ejercicio\(\PageIndex{47}\)

    Dejar\(X_1\) y\(X_2\) ser variables aleatorias independientes y let\(Y_1 = \phi_1(X_1)\) y\(Y_2 = \phi_2(X_2)\).

    1. Demostrar que\[P(Y_1 = r, Y_2 = s) = \sum_{\phi_1(a) = r \atop \phi_2(b) = s} P(X_1 = a, X_2 = b)\ .\]

    2. Usando (a), mostrar\(P(Y_1 = r, Y_2 = s) = P(Y_1 = r)P(Y_2 = s)\) eso para que\(Y_1\) y\(Y_2\) sean independientes.

    Ejercicio\(\PageIndex{48}\)

    Deja\(\Omega\) ser el espacio muestral de un experimento. Dejar\(E\) ser un evento con\(P(E) > 0\) y definir\(m_E(\omega)\) por\(m_E(\omega) = m(\omega|E)\). Demostrar que\(m_E(\omega)\) es una función de distribución sobre\(E\), es decir, aquello\(m_E(\omega) \geq 0\) y aquello\(\sum_{\omega\in\Omega} m_E(\omega) = 1\). La función\(m_E\) se llama

    Ejercicio\(\PageIndex{49}\)

    Se le dan dos urnas cada una conteniendo dos monedas sesgadas. A las monedas en urna me suben cabezas con probabilidad\(p_1\), y las monedas en urna II suben cabezas con probabilidad\(p_2 \ne p_1\). Se le da la opción de (a) elegir una urna al azar y arrojar las dos monedas en esta urna o (b) elegir una moneda de cada urna y lanzar estas dos monedas. Ganas un premio si ambas monedas suben las cabezas. Demuestre que es mejor seleccionar la opción (a).

    Ejercicio\(\PageIndex{50}\)

    Demostrar que\(A_1\), si\(A_2\),,...,\(A_n\) son eventos independientes definidos en un espacio muestral\(\Omega\) y si\(0 < P(A_j) < 1\) para todos\(j\), entonces\(\Omega\) deben tener al menos\(2^n\) puntos.

    Ejercicio\(\PageIndex{51}\)

    Demuéstralo si\[P(A|C) \geq P(B|C) \mbox{\,\,and\,\,} P(A|\tilde C) \geq P(B|\tilde C)\ ,\] entonces\(P(A) \geq P(B)\).

    Ejercicio\(\PageIndex{52}\)

    Una moneda está en una de\(n\) cajas. La probabilidad de que esté en el\(i\) th box es\(p_i\). Si buscas en el cuadro\(i\) th y está ahí, lo encuentras con probabilidad\(a_i\). Demuestre\(p\) que la probabilidad de que la moneda esté en la caja\(j\) th, dado que ha buscado en la caja\(i\) th y no la ha encontrado, es\[p = \left \{ \matrix{ p_j/(1-a_ip_i),&\,\,\, \mbox{if} \,\,\, j \ne i,\cr (1 - a_i)p_i/(1 - a_ip_i),&\,\,\,\mbox{if} \,\, j = i.\cr}\right.\]

    Ejercicio\(\PageIndex{53}\)

    George Wolford ha sugerido la siguiente variación sobre el problema de Linda (ver Ejercicio 1.2.25). El registrador lleva las tarjetas de registro de John y Mary y las deja caer en un charco. Cuando los recoge no puede leer los nombres pero en la primera tarjeta que recogió puede distinguir Matemáticas 23 y Gobierno 35, y en la segunda tarjeta puede distinguir sólo Matemáticas 23. Te pregunta si puedes ayudarlo a decidir qué tarjeta le pertenece a Mary. Sabes que a Mary le gusta el gobierno pero no le gustan las matemáticas. No sabes nada de John y asumes que solo es un típico estudiante de Dartmouth. A partir de esto estimas:\[\begin{array}{ll} P(\mbox {Mary\ takes\ Government\ 35}) &= .5\ , \\ P(\mbox {Mary\ takes\ Mathematics\ 23}) &= .1\ , \\ P(\mbox {John\ takes\ Government\ 35}) &= .3\ , \\ P(\mbox {John\ takes\ Mathematics\ 23}) &= .2\ . \end{array}\] .1pul.1in Supongamos que sus elecciones para cursos son eventos independientes. Demostrar que la tarjeta con Matemáticas 23 y Gobierno 35 mostrando es más probable que sea Mary's que John's La falacia de conjunción a la que se hace referencia en el problema de Linda sería asumir que el evento “María toma Matemáticas 23 y Gobierno 35" es más probable que el evento “María toma Matemáticas 23”. ¿Por qué no estamos haciendo esta falacia aquí?

    Ejercicio\(\PageIndex{54}\)

    (Sugerido por Eisenberg y Ghosh 12) Una baraja de naipes puede describirse como un producto cartesiano\[\mbox{Deck} = \mbox{Suit} \times \mbox{Rank}\ ,\] donde\(\mbox{Suit} = \{\clubsuit,\diamondsuit,\heartsuit,\spadesuit\}\) y\(\mbox{Rank} = \{2,3,\dots,10,{\mbox J},{\mbox Q},{\mbox K},{\mbox A}\}\). Esto solo significa que cada tarjeta puede ser pensada como un par ordenado como\((\diamondsuit,2)\). Por un nos referimos a cualquier evento\(A\) contenido en Deck que se describe solo en términos de Traje. Por ejemplo, si\(A\) es “el palo es rojo”, entonces\[A = \{\diamondsuit,\heartsuit\} \times \mbox{Rank}\ ,\] así que eso\(A\) consiste en todas las cartas de la forma\((\diamondsuit,r)\) o\((\heartsuit,r)\) donde\(r\) está cualquier rango. De igual manera, a es cualquier evento descrito solo en términos de rango.

    1. Demuestre que si\(A\) es algún evento de traje y\(B\) cualquier evento de rango, entonces\(A\) y\(B\) son (Podemos expresarlo brevemente diciendo que palo y rango son independientes.)

    2. Tira el as de espadas. Demuestre que ahora ningún evento de traje no trivial (es decir, ni vacío ni todo el espacio)\(A\) es independiente de ningún evento de rango no trivial\(B\).: Aquí la independencia se reduce a\[c/51 = (a/51) \cdot (b/51)\ ,\] donde\(a\)\(b\),,\(c\) son los respectivos tamaños de\(A\),\(B\) y\(A \cap B\). De ello se deduce que 51 deben dividir\(ab\), de ahí que 3 deben dividir uno de\(a\) y\(b\), y 17 el otro. Pero los posibles tamaños para eventos de traje y rango lo excluyen.

    3. Mostrar que la baraja en (b) sin embargo sí tiene pares\(A\),\(B\) de eventos independientes no triviales.: Encuentra 2 eventos\(A\) y\(B\) de tamaños 3 y 17, respectivamente, que se cruzan en un solo punto.

    4. Agrega un comodín a una baraja completa. Demuestre que ahora no hay par\(A\),\(B\) de eventos independientes no triviales.: Ver la pista en (b); 53 es primo.

    Stanley Gudder sugiere los siguientes problemas en su artículo “¿Atraen las buenas manos?” 13 Dice ese evento\(A\) evento\(B\) si\(P(B|A) > P(B)\) y\(B\) si\(P(B|A) < P(B)\).

    Ejercicio\(\PageIndex{55}\)

    \(R_i\)Sea el evento de que el jugador\(i\) th en una partida de póquer tenga una escalera real. Demuestran que un color real (A, K, Q, J,10 de un traje) atrae a otro color real, es decir\(P(R_2|R_1) > P(R_2)\). Demuestre que un rubor real repele las casas llenas.

    Ejercicio\(\PageIndex{56}\)

    Demostrar que\(A\) atrae\(B\) si y sólo si\(B\) atrae\(A\). De ahí que podamos decir eso\(A\) y\(B\) son si\(A\) atrae\(B\).

    Ejercicio\(\PageIndex{57}\)

    Demostrar que\(A\) ni atrae ni repele\(B\) si y sólo si\(A\) y\(B\) son independientes.

    Ejercicio\(\PageIndex{58}\)

    Demostrar eso\(A\) y\(B\) son mutuamente atractivos si y solo si\(P(B|A) > P(B|\tilde A)\).

    Ejercicio\(\PageIndex{59}\)

    Demostrar que si\(A\) atrae\(B\), entonces\(A\) repele\(\tilde B\).

    Ejercicio\(\PageIndex{60}\)

    Demostrar que si\(A\) atrae a ambos\(B\) y\(C\), y\(A\) repele\(B \cap C\), entonces\(A\) atrae\(B \cup C\). ¿Hay algún ejemplo en el que\(A\) atraiga a ambos\(B\)\(C\) y y repele\(B \cup C\)?

    Ejercicio\(\PageIndex{61}\)

    Demostrar que si\(B_1\)\(B_2\),,...,\(B_n\) son mutuamente disjuntos y colectivamente exhaustivos, y si\(A\) atrae a algunos\(B_i\), entonces\(A\) hay que repeler a algunos\(B_j\).

    Ejercicio\(\PageIndex{62}\)

    1. Supongamos que está buscando en su escritorio una carta de hace algún tiempo. Tu escritorio tiene ocho cajones, y evalúas que la probabilidad de que esté en algún cajón en particular es del 10% (por lo que hay un 20% de probabilidad de que no esté en el escritorio en absoluto). Supongamos ahora que empiezas a buscar sistemáticamente a través de tu escritorio, un cajón a la vez. Además, supongamos que no ha encontrado la letra en los primeros\(i\) cajones, donde\(0 \le i \le 7\). Vamos a\(p_i\) denotar la probabilidad de que la letra se encuentre en el siguiente cajón, y vamos a\(q_i\) denotar la probabilidad de que la letra se encuentre en algún cajón posterior (ambos\(p_i\) y\(q_i\) son probabilidades condicionales, ya que se basan en el supuesto de que la letra es no en los primeros\(i\) cajones). Demostrar que los\(p_i\)'s aumentan y los\(q_i\)'s disminuyen. (Este problema es de Falk et al. 14)

    2. Los siguientes datos aparecieron en un artículo del Wall Street Journal. 15 Para las edades de 20, 30, 40, 50 y 60 años, la probabilidad de que una mujer en Estados Unidos desarrolle cáncer en los próximos diez años es de 0.5%, 1.2%, 3.2%, 6.4% y 10.8%, respectivamente. En el mismo conjunto de edades, la probabilidad de que una mujer en Estados Unidos eventualmente desarrolle cáncer es de 39.6%, 39.5%, 39.1%, 37.5% y 34.2%, respectivamente. ¿Crees que el problema en la parte (a) da una explicación para estos datos?

    Ejercicio\(\PageIndex{63}\)

    Aquí hay dos variaciones del problema de Monty Hall que son discutidas por Granberg. 16

    1. Supongamos que todo es igual excepto que Monty se olvidó de averiguar de antemano qué puerta tiene el auto detrás de ella. En el espíritu de “el espectáculo debe continuar”, adivina cuál de las dos puertas abrir y tiene suerte, abriendo una puerta detrás de la cual se encuentra una cabra. Ahora, ¿debería cambiar el concursante?

    2. Usted ha observado el espectáculo desde hace mucho tiempo y encontró que el auto se pone detrás de la puerta A 45% del tiempo, detrás de la puerta B 40% de las veces y detrás de la puerta C 15% de las veces. Supongamos que todo lo demás del espectáculo es lo mismo. De nuevo recoges puerta A. Monty abre una puerta con una cabra y ofrece dejarte cambiar. ¿Deberías? Supongamos que sabías de antemano que Monty te iba a dar la oportunidad de cambiarte. ¿Deberías haber elegido inicialmente la puerta A?


    This page titled 4.1: Probabilidad condicional discreta is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.