Saltar al contenido principal
LibreTexts Español

2.4: Probabilidad Condicional

  • Page ID
    152208
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\P}{\mathbb{P}} \)\( \newcommand{\N}{\mathbb{N}} \)\( \newcommand{\bs}{\boldsymbol} \)

    El propósito de esta sección es estudiar cómo se actualizan las probabilidades a la luz de la nueva información, claramente un tema absolutamente esencial. Si eres un nuevo estudiante de probabilidad, es posible que quieras saltarte los detalles técnicos.

    Definiciones e interpretaciones

    La definición básica

    Como es habitual, comenzamos con un experimento aleatorio modelado por un espacio de probabilidad\((S, \mathscr S, \P)\). Así,\( S \) es el conjunto de resultados,\( \mathscr S \) la colección de eventos y\( \P \) la medida de probabilidad en el espacio muestral\( (S, \mathscr S) \). Supongamos ahora que sabemos que\(B\) ha ocurrido un suceso. En general, esta información debe alterar claramente las probabilidades que asignamos a otros eventos. En particular, si\(A\) es otro evento entonces\(A\) ocurre si y sólo si\(A\) y\(B\) ocurre; efectivamente, el espacio muestral se ha reducido a\(B\). Así, la probabilidad de\(A\), dado que sabemos que\(B\) ha ocurrido, debe ser proporcional a\(\P(A \cap B)\).

    Eventos A y B
    Figura\(\PageIndex{1}\): Eventos\( A \) y\( B \)

    No obstante, la probabilidad condicional, dado que eso\(B\) ha ocurrido, debe seguir siendo una medida de probabilidad, es decir, debe satisfacer los axiomas de probabilidad. Esto obliga a que la constante de proporcionalidad sea\(1 \big/ \P(B)\). Así, nos llevan inexorablemente a la siguiente definición:

    Dejar\(A\) y\(B\) ser eventos con\(\P(B) \gt 0\). La probabilidad condicional de\(A\) dado\(B\) se define como\[\P(A \mid B) = \frac{\P(A \cap B)}{\P(B)}\]

    La Ley de los Grandes Números

    La definición anterior se basó en la definición axiomática de probabilidad. Exploremos la idea de probabilidad condicional a partir de la noción menos formal y más intuitiva de la frecuencia relativa (la ley de los grandes números). Así, supongamos que ejecutamos el experimento repetidamente. Para\( n \in \N_+ \) y un evento\(E\), vamos a\(N_n(E)\) denotar el número de veces que\(E\) se produce (la frecuencia de\( E \)) en las primeras\(n\) ejecuciones. Obsérvese que\(N_n(E)\) es una variable aleatoria en el experimento compuesto que consiste en replicar el experimento original. En particular, se desconoce su valor hasta que realmente ejecutamos los\( n \) tiempos del experimento.

    Si\(N_n(B)\) es grande, la probabilidad condicional que\(A\) ha ocurrido, dado que\(B\) ha ocurrido, debe ser cercana a la frecuencia relativa condicional de\(A\) dada\(B\), es decir, la frecuencia relativa de\(A\) para las corridas en las que\(B\) ocurrieron: \(N_n(A \cap B) / N_n(B)\). Pero tenga en cuenta que\[\frac{N_n(A \cap B)}{N_n(B)} = \frac{N_n(A \cap B) / n}{N_n(B) / n}\] El numerador y denominador de la fracción principal de la derecha son las frecuencias relativas de\( A \cap B \) y\( B \), respectivamente. Entonces por la ley de grandes números otra vez,\( N_n(A \cap B) / n \to \P(A \cap B) \) como\( n \to \infty \) y\( N_n(B) \to \P(B) \) como\( n \to \infty \). De ahí\[\frac{N_n(A \cap B)}{N_n(B)} \to \frac{\P(A \cap B)}{\P(B)} \text{ as } n \to \infty\] y nos llevan nuevamente a la definición anterior.

    En algunos casos, las probabilidades condicionales pueden calcularse directamente, reduciendo efectivamente el espacio muestral al evento dado. En otros casos, la fórmula en la definición matemática es mejor. En algunos casos, las probabilidades condicionales se conocen a partir de suposiciones de modelado, y luego se utilizan para calcular otras probabilidades. Veremos ejemplos de todas estas situaciones en los ejercicios computacionales a continuación.

    Es muy importante que no se confunda\(\P(A \mid B)\), la probabilidad de\(A\) dar\(B\), con\(\P(B \mid A)\), la probabilidad de\(B\) dado\(A\). Cometerse ese error se conoce como la falacia del condicional transpuesto. (¡Qué vergonzoso!)

    Distribuciones condicionales

    Supongamos que\(X\) es una variable aleatoria para el experimento con valores en\(T\). Matemáticamente,\( X \) es una función desde\( S \) dentro\( T \), y\( \{X \in A\} \) denota el evento\( \{s \in S: X(s) \in A\} \) para\(A \subseteq T \). Intuitivamente,\( X \) es una variable de interés en el experimento, y cada declaración significativa sobre\( X \) define un evento. Recordemos que la distribución de probabilidad de\(X\) es la medida de probabilidad\(T\) dada por\[A \mapsto \P(X \in A), \quad A \subseteq T\] Esto tiene una extensión natural a una distribución condicional, dado un evento.

    Si\(B\) es un evento con\( \P(B) \gt 0 \), entonces la distribución condicional de\(X\) dado\(B\) es la medida de probabilidad\(T\) dada por\[A \mapsto \P(X \in A \mid B), \quad A \subseteq T\]

    Detalles

    Recordemos que\( T \) vendrá con un\( \sigma \) -álgebra de subconjuntos admisibles por lo que\( (T, \mathscr T) \) es un espacio medible, al igual que el espacio muestral\( (S, \mathscr S) \). \( X \)Se requiere que la variable aleatoria sea mensurable como una función desde\( S \) dentro\( T \). Esto asegura que\( \{X \in A\} \) sea un evento válido para cada uno\( A \in \mathscr T \), de manera que la definición tenga sentido.

    Teoría Básica

    Resultados Preliminares

    Nuestro primer resultado es de fundamental importancia, y de hecho fue una parte crucial del argumento para la definición de probabilidad condicional.

    Supongamos nuevamente que\( B \) es un evento con\( \P(B) \gt 0 \). Entonces\(A \mapsto \P(A \mid B)\) es una medida de probabilidad en\( S \).

    Prueba

    Claramente\( \P(A \mid B) \ge 0 \) para cada evento\( A \), y\( \P(S \mid B) = 1 \). Así, supongamos que\( \{A_i: i \in I\} \) es una colección contable de eventos disjuntos por pares. Entonces\[ \P\left(\bigcup_{i \in I} A_i \biggm| B\right) = \frac{1}{\P(B)} \P\left[\left(\bigcup_{i \in I} A_i\right) \cap B\right] = \frac{1}{\P(B)} \P\left(\bigcup_{i \in I} (A_i \cap B)\right) \] Pero la colección de eventos también\( \{A_i \cap B: i \in I\} \) es disjunta por parejas, por lo que\[ \P\left(\bigcup_{i \in I} A_i \biggm| B\right) = \frac{1}{\P(B)} \sum_{i \in I} \P(A_i \cap B) = \sum_{i \in I} \frac{\P(A_i \cap B)}{\P(B)} = \sum_{i \in I} \P(A_i \mid B) \]

    Es difícil exagerar la importancia del último resultado porque este teorema significa que cualquier resultado que se mantenga para las medidas de probabilidad en general se mantiene para la probabilidad condicional, siempre y cuando el evento condicionamiento permanezca fijo. En particular, las reglas básicas de probabilidad en la sección de Medida de probabilidad tienen análogos para la probabilidad condicional. Para dar dos ejemplos,\ begin {align}\ P\ left (A^C\ mid B\ right) & = 1 -\ P (A\ mid B)\\ P\ left (A_1\ cup A_2\ mid B\ right) & =\ P\ left (A_1\ mid B\ right) +\ P\ left (A_2\ mid B\ right) -\ P\ left (A_1 cap\ left A_2\ mid B\ right)\ end {align} Por el mismo token, se deduce que la distribución condicional de un aleatorio variable con valores en\( T \), dado en arriba, realmente define una distribución de probabilidad en\( T \). No es necesaria ninguna prueba adicional. Nuestros siguientes resultados son muy simples.

    Supongamos que\(A\) y\(B\) son eventos con\( \P(B) \gt 0 \).

    1. Si\(B \subseteq A\) entonces\(\P(A \mid B) = 1\).
    2. Si\(A \subseteq B\) entonces\(\P(A \mid B) = \P(A) / \P(B)\).
    3. Si\(A\) y\(B\) son disjuntos entonces\(\P(A \mid B) = 0\).
    Prueba

    Estos resultados se derivan directamente de la definición de probabilidad condicional. En la parte a), tenga en cuenta que\( A \cap B = B \). En la parte b) señalar que\( A \cap B = A \). En la parte c) señalar que\( A \cap B = \emptyset \).

    Las partes (a) y (c) ciertamente tienen sentido. Supongamos que sabemos que ese suceso\( B \) ha ocurrido. Si\( B \subseteq A \) entonces\( A \) se convierte en un evento determinado. Si\( A \cap B = \emptyset \) entonces\( A \) se convierte en un evento imposible. Una probabilidad condicional se puede calcular en relación con una medida de probabilidad que es en sí misma una medida de probabilidad condicional. El siguiente resultado es una condición de consistencia.

    Supongamos que\(A\)\(B\),, y\(C\) son eventos con\( \P(B \cap C) \gt 0 \). La probabilidad de\(A\) dado\(B\), relativo a\(\P(\cdot \mid C)\), es la misma que la probabilidad de\(A\) dado\(B\) y\(C\) (relativo a\(\P\)). Es decir,\[\frac{\P(A \cap B \mid C)}{\P(B \mid C)} = \P(A \mid B \cap C)\]

    Prueba

    A partir de la definición,\[\frac{\P(A \cap B \mid C)}{\P(B \mid C)} = \frac{\P(A \cap B \cap C) \big/ \P(C)}{\P(B \cap C) \big/ \P(C)} = \frac{\P(A \cap B \cap C)}{\P(B \cap C)} = \P(A \mid B \cap C)\]

    Correlación

    Nuestra siguiente discusión se refiere a un concepto importante que trata de cómo se relacionan dos eventos, en un sentido probabilístico.

    Supongamos que\(A\) y\(B\) son eventos con\( \P(A) \gt 0 \) y\( \P(B) \gt 0 \).

    1. \(\P(A \mid B) \gt \P(A)\)si y sólo\(\P(B \mid A) \gt \P(B)\) si y sólo si\(\P(A \cap B) \gt \P(A) \P(B)\). En este caso,\( A \) y\( B \) están correlacionados positivamente.
    2. \(\P(A \mid B) \lt \P(A)\)si y sólo\(\P(B \mid A) \lt \P(B)\) si y sólo si\(\P(A \cap B) \lt \P(A) \P(B)\). En este caso,\( A \) y\( B \) están correlacionados negativamente.
    3. \(\P(A \mid B) = \P(A)\)si y sólo\(\P(B \mid A) = \P(B)\) si y sólo si\(\P(A \cap B) = \P(A) \P(B)\). En este caso,\( A \) y\( B \) son no correlacionados o independientes.
    Prueba

    Estas propiedades siguen directamente de la definición de probabilidad condicional y álgebra simple. Recordemos que multiplicar o dividir una desigualdad por un número positivo preserva la desigualdad.

    Intuitivamente, si\( A \) y\( B \) están correlacionados positivamente, entonces la ocurrencia de cualquiera de los eventos significa que el otro evento es más probable. Si\(A\) y\(B\) están correlacionados negativamente, entonces la ocurrencia de cualquiera de los eventos significa que el otro evento es menos probable. Si\(A\) y no\(B\) están correlacionados, entonces la ocurrencia de cualquiera de los dos eventos no cambia la probabilidad del otro evento. La independencia es un concepto fundamental que puede extenderse a más de dos eventos y a variables aleatorias; estas generalizaciones se estudian en la siguiente sección sobre Independencia. Una versión mucho más general de la correlación, para variables aleatorias, se explora en la sección sobre Covarianza y Correlación en el capítulo sobre Valor Esperado.

    Supongamos que\( A \) y\( B \) son eventos. Obsérvese de (4) que si\( A \subseteq B \) o\( B \subseteq A \) entonces\( A \) y\( B \) están correlacionados positivamente. Si\( A \) y\( B \) son disjuntos entonces\( A \) y\( B \) están correlacionados negativamente.

    Supongamos que\(A\) y\(B\) son eventos en un experimento aleatorio.

    1. \(A\)y\(B\) tienen la misma correlación (positiva, negativa o cero) que\(A^c\) y\(B^c\).
    2. \(A\)y\(B\) tienen la correlación opuesta como\(A\) y\(B^c\) (es decir, positivo-negativo, negativo-positivo, o 0-0).
    Prueba
    1. Utilizando la ley de DeMorgan y la ley complementaria. \[ \P(A^c \cap B^c) - \P(A^c) \P(B^c) = \P\left[(A \cup B)^c\right] - \P(A^c) \P(B^c) = \left[1 - \P(A \cup B)\right] - \left[1 - \P(A)\right]\left[1 - \P(B)\right] \]Utilizando la ley de inclusión-exclusión y álgebra,\[ \P(A^c \cap B^c) - \P(A^c) \P(B^c) = \P(A \cap B) - \P(A) \P(B) \]
    2. Usando la regla de diferencia y la ley complementaria:\[ \P(A \cap B^c) - \P(A) \P(B^c) = \P(A) - \P(A \cap B) - \P(A) \left[1 - \P(B)\right] = -\left[\P(A \cap B) - \P(A) \P(B)\right]\]

    La regla de la multiplicación

    A veces se conocen las probabilidades condicionales y se pueden utilizar para encontrar las probabilidades de otros eventos. Obsérvese primero que si\( A \) y\( B \) son eventos con probabilidad positiva, entonces por la definición misma de probabilidad condicional,\[ \P(A \cap B) = \P(A) \P(B \mid A) = \P(B) \P(A \mid B) \] La siguiente generalización se conoce como la regla de multiplicación de probabilidad. Como es habitual, suponemos que cualquier evento condicionado tiene probabilidad positiva.

    Supongamos que\((A_1, A_2, \ldots, A_n)\) es una secuencia de eventos. Entonces\[\P\left(A_1 \cap A_2 \cap \cdots \cap A_n\right) = \P\left(A_1\right) \P\left(A_2 \mid A_1\right) P\left(A_3 \mid A_1 \cap A_2\right) \cdots \P\left(A_n \mid A_1 \cap A_2 \cap \cdots \cap A_{n-1}\right)\]

    Prueba

    El producto a la derecha un producto colapsando en el que solo sobrevive la probabilidad de la intersección de todos los\(n\) eventos. El producto de los dos primeros factores es\( \P\left(A_1 \cap A_2\right) \), y de ahí el producto de los tres primeros factores es\( \P\left(A_1 \cap A_2 \cap A_3\right) \), y así sucesivamente. La prueba se puede hacer más rigurosa por inducción en\( n \).

    La regla de multiplicación es particularmente útil para experimentos que consisten en etapas dependientes, donde\(A_i\) es un evento en etapa\(i\). Comparar la regla de probabilidad de multiplicación con la regla de multiplicación de combinatoria.

    Al igual que con cualquier otro resultado, la regla de multiplicación se puede aplicar a una medida de probabilidad condicional. En el contexto anterior, si\(E\) es otro evento, entonces\[\P\left(A_1 \cap A_2 \cap \cdots \cap A_n \mid E\right) = \P\left(A_1 \mid E\right) \P\left(A_2 \mid A_1 \cap E\right) P\left(A_3 \mid A_1 \cap A_2 \cap E\right) \cdots \P\left(A_n \mid A_1 \cap A_2 \cap \cdots \cap A_{n-1} \cap E\right)\]

    Acondicionamiento y teorema de Bayes

    Supongamos que\(\mathscr{A} = \{A_i: i \in I\}\) es una colección contable de eventos que particionan el espacio de muestra\(S\), y eso\( \P(A_i) \gt 0 \) para cada uno\( i \in I \).

    Imagen: Total.png
    Figura\(\PageIndex{2}\): Una partición de\( S \) induce una partición de\( B \).

    El siguiente teorema se conoce como la ley de la probabilidad total.

    Si\( B \) es un evento entonces\[\P(B) = \sum_{i \in I} \P(A_i) \P(B \mid A_i)\]

    Prueba

    Recordemos que\(\{A_i \cap B: i \in I\}\) es una partición de\(B\). De ahí\[ \P(B) = \sum_{i \in I} \P(A_i \cap B) = \sum_{i \in I} \P(A_i) \P(B \mid A_i) \]

    El siguiente teorema se conoce como Teorema de Bayes, llamado así por Thomas Bayes:

    Si\( B \) es un evento entonces\[\P(A_j \mid B) = \frac{\P(A_j) \P(B \mid A_j)}{\sum_{i \in I}\P(A_i) \P(B \mid A_i)}, \quad j \in I\]

    Prueba

    Nuevamente el numerador está\(\P(A_j \cap B)\) mientras que el denominador es\(\P(B)\) por la ley de probabilidad total.

    Estos dos teoremas son de mayor utilidad, claro, cuando sabemos\(\P(A_i)\) y\(\P(B \mid A_i)\) para cada uno\(i \in I\). Cuando calculamos la probabilidad de\(\P(B)\) por la ley de probabilidad total, decimos que estamos condicionando a la partición\(\mathscr{A}\). Tenga en cuenta que podemos pensar en la suma como un promedio ponderado de las probabilidades condicionales\(\P(B \mid A_i)\) sobre\(i \in I\), donde\(\P(A_i)\),\(i \in I\) son los factores de peso. En el contexto del teorema de\(\P(A_j)\) Bayes, es la probabilidad previa de\(A_j\) y\(\P(A_j \mid B)\) es la probabilidad posterior de\(A_j\) for\( j \in I \). Estudiaremos versiones más generales del condicionamiento y teorema de Bayes en la sección sobre Distribuciones Discretas en el capítulo sobre Distribuciones, y nuevamente en la sección de Valor Esperado Condicional en el capítulo sobre Valor Esperado.

    Una vez más, la ley de probabilidad total y el teorema de Bayes se pueden aplicar a una medida de probabilidad condicional. Entonces, si\(E\) hay otro evento con\( \P(A_i \cap E) \gt 0 \) para\( i \in I \) entonces\ begin {align}\ P (B\ mid E) & =\ sum_ {i\ in I}\ P (a_i\ mid E)\ P (B\ mid a_I\ cap E)\\ P (a_J\ mid B\ cap E) & =\ frac {\ P (a_J\ mid E)\ P (B\ mid a_J cap\ E)} {\ suma_ {i\ in I}\ P (a_i\ cap E)\ P (B\ mid a_I\ cap E)},\ quad j\ in I\ end { alinear}

    Ejemplos y Aplicaciones

    Reglas Básicas

    Supongamos que\(A\) y\(B\) son eventos en un experimento con\(\P(A) = \frac{1}{3}\),\(\P(B) = \frac{1}{4}\),\(\P(A \cap B) = \frac{1}{10}\). Encuentra cada uno de los siguientes:

    1. \(\P(A \mid B)\)
    2. \(\P(B \mid A)\)
    3. \(\P(A^c \mid B)\)
    4. \(\P(B^c \mid A)\)
    5. \(\P(A^c \mid B^c)\)
    Contestar
    1. \(\frac{2}{5}\)
    2. \(\frac{3}{10}\)
    3. \(\frac{3}{5}\)
    4. \(\frac{7}{10}\)
    5. \(\frac{31}{45}\)

    Supongamos que\(A\)\(B\),, y\(C\) son eventos en un experimento aleatorio con\(\P(A \mid C) = \frac{1}{2}\),\(\P(B \mid C) = \frac{1}{3}\), y\(\P(A \cap B \mid C) = \frac{1}{4}\). Encuentra cada uno de los siguientes:

    1. \(\P(B \setminus A \mid C)\)
    2. \(\P(A \cup B \mid C)\)
    3. \(\P(A^c \cap B^c \mid C)\)
    4. \(\P(A^c \cup B^c \mid C)\)
    5. \(\P(A^c \cup B \ \mid C)\)
    6. \(\P(A \mid B \cap C)\)
    Contestar
    1. \(\frac{1}{12}\)
    2. \(\frac{7}{12}\)
    3. \(\frac{5}{12}\)
    4. \(\frac{3}{4}\)
    5. \(\frac{3}{4}\)
    6. \(\frac{3}{4}\)

    Supongamos que\(A\) y\(B\) son eventos en un experimento aleatorio con\(\P(A) = \frac{1}{2}\),\(\P(B) = \frac{1}{3}\), y\(\P(A \mid B) =\frac{3}{4}\).

    1. Encuentra\(\P(A \cap B)\)
    2. Encuentra\(\P(A \cup B)\)
    3. Encuentra\(\P(B \cup A^c)\)
    4. Encuentra\(\P(B \mid A)\)
    5. ¿Están\(A\) y se correlacionan\(B\) positivamente, se correlacionan negativamente o son independientes?
    Contestar
    1. \(\frac{1}{4}\)
    2. \(\frac{7}{12}\)
    3. \(\frac{3}{4}\)
    4. \(\frac{1}{2}\)
    5. correlacionado positivamente.

    Abrir el experimento de probabilidad condicional.

    1. Dado\( \P(A) \),\( \P(B) \), y\( \P(A \cap B) \), en la tabla, verificar todas las demás probabilidades en la tabla.
    2. Ejecutar el experimento 1000 veces y comparar las probabilidades con las frecuencias relativas.

    Poblaciones simples

    En cierta población, 30% de las personas fuman cigarrillos y 8% tienen EPOC (Enfermedad Pulmonar Obstructiva Crónica). Además, 12% de las personas que fuman tienen EPOC.

    1. ¿Qué porcentaje de la población fuma y tiene EPOC?
    2. ¿Qué porcentaje de la población con EPOC también fuma?
    3. ¿El tabaquismo y la EPOC están correlacionados positivamente, negativamente o son independientes?
    Contestar
    1. 3.6%
    2. 45%
    3. correlacionado positivamente.

    Una empresa cuenta con 200 empleados: 120 son mujeres y 80 son hombres. De las 120 empleadas femeninas, 30 se clasifican como directivos, mientras que 20 de los 80 empleados masculinos son directivos. Supongamos que un empleado es elegido al azar.

    1. Encuentra la probabilidad de que el empleado sea femenino.
    2. Encuentra la probabilidad de que el empleado sea un gerente.
    3. Encuentra la probabilidad condicional de que el empleado sea un gerente dado que el empleado es femenino.
    4. Encuentra la probabilidad condicional de que el empleado sea mujer dado que el empleado es gerente.
    5. ¿Los eventos femenino y gerente están correlacionados positivamente, correlacionados negativamente o indpendientes?
    Contestar
    1. \(\frac{120}{200}\)
    2. \(\frac{50}{200}\)
    3. \(\frac{30}{120}\)
    4. \(\frac{30}{50}\)
    5. independiente

    Dados y Monedas

    Considera el experimento que consiste en rodar 2 dados estándar, justos y registrar la secuencia de partituras\(\bs{X} = (X_1, X_2)\). Vamos a\(Y\) denotar la suma de los puntajes. Para cada uno de los siguientes pares de eventos, encuentre la probabilidad de cada evento y la probabilidad condicional de cada evento dado el otro. Determinar si los eventos están correlacionados positivamente, negativamente correlacionados o independientes.

    1. \(\{X_1 = 3\}\),\(\{Y = 5\}\)
    2. \(\{X_1 = 3\}\),\(\{Y = 7\}\)
    3. \(\{X_1 = 2\}\),\(\{Y = 5\}\)
    4. \(\{X_1 = 3\}\),\(\{X_1 = 2\}\)
    Contestar

    En cada caso a continuación, las respuestas son para\( \P(A) \)\( \P(B) \),\( \P(A \mid B) \), y\( \P(B \mid A) \)

    1. \(\frac{1}{6}\),\(\frac{1}{9}\),\(\frac{1}{4}\),\(\frac{1}{6}\). Positivamente correlacionado.
    2. \(\frac{1}{6}\),\(\frac{1}{6}\),\(\frac{1}{6}\),\(\frac{1}{6}\). Independiente.
    3. \(\frac{1}{6}\),\(\frac{1}{9}\),\(\frac{1}{4}\),\(\frac{1}{6}\). Positivamente correlacionado.
    4. \(\frac{1}{6}\),\(\frac{1}{6}\),\(0\),\(0\). Correlacionado negativamente.

    Obsérvese que la correlación positiva no es una relación transitiva. Del ejercicio anterior, por ejemplo, señalar que\(\{X_1 = 3\}\) y\(\{Y = 5\}\) están correlacionados positivamente,\(\{Y = 5\}\) y\(\{X_1 = 2\}\) están correlacionados positivamente, pero\(\{X_1 = 3\}\) y\(\{X_1 = 2\}\) están correlacionados negativamente (de hecho, disjuntas).

    En experimento de dados, set\(n = 2\). Ejecuta el experimento 1000 veces. Calcular las probabilidades condicionales empíricas correspondientes a las probabilidades condicionales en el último ejercicio.

    Consideremos nuevamente el experimento que consiste en rodar 2 dados estándar, justos y registrar la secuencia de partituras\(\bs{X} = (X_1, X_2)\). Dejar\(Y\) denotar la suma de las puntuaciones,\(U\) la puntuación mínima y\(V\) la puntuación máxima.

    1. Encuentra\(\P(U = u \mid V = 4)\) para los valores apropiados de\(u\).
    2. Encuentra\(\P(Y = y \mid V = 4)\) para los valores apropiados de\(y\).
    3. Encontrar\(\P(V = v \mid Y = 8)\) para los valores apropiados de\(v\).
    4. Encuentra\(\P(U = u \mid Y = 8)\) para los valores apropiados de\(u\).
    5. Encuentra\(\P[(X_ 1, X_2) = (x_1, x_2) \mid Y = 8]\) para los valores apropiados de\((x_1, x_2)\).
    Contestar
    1. \(\frac{2}{7}\)para\(u \in \{1, 2, 3\}\),\(\frac{1}{7}\) para\( u = 4 \)
    2. \(\frac{2}{7}\)para\(y \in \{5, 6, 7\}\),\(\frac{1}{7}\) para\( y = 8 \)
    3. \(\frac{1}{5}\)para\( v = 4 \),\(\frac{2}{5}\) para\(v \in \{5, 6\}\)
    4. \(\frac{2}{5}\)para\(u \in \{2, 3\}\),\(\frac{1}{5}\) para\( u = 4 \)
    5. \(\frac{1}{5}\)para\((x_1, x_2) \in \{(2,6), (6,2), (3,5), (5,3), (4,4)\}\)

    En el experimento de la troquela-moneda, se enrolla un dado estándar justo y luego se arroja una moneda justa el número de veces que se muestra en el dado. Vamos a\(N\) denotar la puntuación del dado y\(H\) el evento de que todos los lanzamientos de monedas resulten en cabezas.

    1. Encuentra\(\P(H)\).
    2. Encuentra\(\P(N = n \mid H)\) para\(n \in \{1, 2, 3, 4, 5, 6\}\).
    3. Comparar los resultados en (b) con\(\P(N = n)\) for\(n \in \{1, 2, 3, 4, 5, 6\}\). En cada caso, anote si los eventos\(H\) y\(\{N = n\}\) están correlacionados positivamente, correlacionados negativamente o independientes.
    Contestar
    1. \(\frac{21}{128}\)
    2. \(\frac{64}{63} \frac{1}{2^n}\)para\(n \in \{1, 2, 3, 4, 5, 6\}\)
    3. correlacionado positivamente\(n \in \{1, 2\}\) y correlacionado negativamente para\(n \in \{3, 4, 5, 6\}\)

    Ejecuta el experimento de troquelado 1000 veces. Dejar\(H\) y\(N\) ser como se define en el ejercicio anterior.

    1. Calentar la probabilidad empírica de\(H\). Comparar con la probabilidad verdadera en el ejercicio anterior.
    2. Computar la probabilidad empírica de\(\{N = n\}\) dado\(H\), para\(n \in \{1, 2, 3, 4, 5, 6\}\). Comparar con las verdaderas probabilidades en el ejercicio anterior.

    Supongamos que una bolsa contiene 12 monedas: 5 son justas, 4 están sesgadas con probabilidad de cabezas\(\frac{1}{3}\); y 3 son de dos cabezas. Una moneda se elige al azar de la bolsa y se arroja.

    1. Encuentra la probabilidad de que la moneda sea cabezas.
    2. Dado que la moneda es cabezas, encuentra la probabilidad condicional de cada tipo de moneda.
    Contestar
    1. \(\frac{41}{72}\)
    2. \( \frac{15}{41} \)que la moneda es justa,\( \frac{8}{41} \) que la moneda está sesgada,\( \frac{18}{41} \) que la moneda es de dos cabezas

    Compara experimento de troquelado y experimento de bolsa de monedas. En el experimento de troquelado, lanzamos una moneda con una probabilidad fija de cabezas un número aleatorio de veces. En el experimento de bolsa de monedas, lanzamos efectivamente una moneda con una probabilidad aleatoria de cabezas un número fijo de veces. El experimento aleatorio de lanzar una moneda con una probabilidad fija de cabezas\(p\) un número fijo de veces\(n\) se conoce como el experimento binomial con parámetros\(n\) y\(p\). Se trata de un experimento muy básico e importante que se estudia con más detalle en la sección sobre la distribución binomial en el capítulo de Ensayos de Bernoulli. Así, los experimentos de troquelado y bolsa de monedas pueden considerarse como modificaciones del experimento binomial en el que se ha aleatorizado un parámetro. En general, a menudo se pueden construir nuevos experimentos aleatorios interesantes aleatorizando uno o más parámetros en otro experimento aleatorio.

    En el experimento de troqueles de monedas, se arroja una moneda justa. Si la moneda aterriza colas, se enrolla un dado justo. Si la moneda cae cabezas, se lanza un troquel plano ace-seis (las caras 1 y 6 tienen probabilidad\(\frac{1}{4}\) cada una, mientras que las caras 2, 3, 4 y 5 tienen probabilidad\(\frac{1}{8}\) cada una). Dejar\(H\) denotar el evento de que la moneda aterriza cabezas, y dejar\(Y\) denotar la puntuación cuando el dado elegido es arrojado.

    1. Encuentra\(\P(Y = y)\) para\(y \in \{1, 2, 3, 4, 5, 6\}\).
    2. Encuentra\(\P(H \mid Y = y)\) para\(y \in \{1, 2, 3, 4, 5, 6,\}\).
    3. Comparar cada probabilidad en la parte (b) con\(\P(H)\). En cada caso, anote si los eventos\(H\) y\(\{Y = y\}\) están correlacionados positivamente, correlacionados negativamente o independientes.
    Contestar
    1. \(\frac{5}{24}\)para\(y \in \{1, 6\}\),\(\frac{7}{48}\) para\(y \in \{2, 3, 4, 5\}\)
    2. \(\frac{3}{5}\)para\(y \in \{1, 6\}\),\(\frac{3}{7}\) para\(y \in \{2, 3, 4, 5\}\)
    3. Correlacionado positivamente para\( y \in \{1, 6\} \), correlacionado negativamente para\( y \in \{2, 3, 4, 5\} \)

    Ejecute el experimento de troqueles de monedas 1000 veces. Dejar\(H\) y\(Y\) ser como se define en el ejercicio anterior.

    1. Calcular la probabilidad empírica de\(\{Y = y\}\), para cada uno\(y\), y comparar con la probabilidad verdadera en el ejercicio anterior
    2. Calcular la probabilidad empírica de\(H\) dado\(\{Y = y\}\) para cada uno\(y\), y comparar con la probabilidad verdadera en el ejercicio anterior.

    Tarjetas

    Considera el experimento de cartas que consiste en repartir 2 cartas de una baraja estándar y registrar la secuencia de cartas repartidas. Para\(i \in \{1, 2\}\), deja\(Q_i\) ser el evento que la tarjeta\(i\) es una reina y\(H_i\) el evento que la tarjeta\(i\) es un corazón. Para cada uno de los siguientes pares de eventos, compute la probabilidad de cada evento, y la probabilidad condicional de cada evento dado el otro. Determinar si los eventos están correlacionados positivamente, negativamente correlacionados o independientes.

    1. \(Q_1\),\(H_1\)
    2. \(Q_1\),\(Q_2\)
    3. \(Q_2\),\(H_2\)
    4. \(Q_1\),\(H_2\)
    Contestar

    Las respuestas a continuación son para\( \P(A) \)\( \P(B) \),,\( \P(A \mid B) \), y\( \P(B \mid A) \) dónde\( A \) y\( B \) son los eventos dados

    1. \(\frac{1}{13}\),\(\frac{1}{4}\),\(\frac{1}{13}\),\(\frac{1}{4}\), independiente.
    2. \(\frac{1}{13}\),\(\frac{1}{13}\),,\(\frac{3}{51}\),\(\frac{3}{51}\), correlacionado negativamente.
    3. \(\frac{1}{13}\),\(\frac{1}{4}\),\(\frac{1}{13}\),\(\frac{1}{4}\), independiente.
    4. \(\frac{1}{13}\),\(\frac{1}{4}\),\(\frac{1}{13}\),\(\frac{1}{4}\), independiente.

    En el experimento de cartas, set\(n = 2\). Ejecuta el experimento 500 veces. Calcular las frecuencias relativas condicionales correspondientes a las probabilidades condicionales en el último ejercicio.

    Considera el experimento de cartas que consiste en repartir 3 cartas de una baraja estándar y registrar la secuencia de cartas repartidas. Encuentra la probabilidad de los siguientes eventos:

    1. Las tres cartas son todas corazones.
    2. Las dos primeras cartas son corazones y la tercera es una pala.
    3. La primera y tercera cartas son corazones y la segunda es pala.
    Prueba
    1. \(\frac{11}{850}\)
    2. \(\frac{13}{850}\)
    3. \(\frac{13}{850}\)

    En el experimento de cartas, establezca\(n = 3\) y ejecute la simulación 1000 veces. Calcular la probabilidad empírica de cada evento en el ejercicio anterior y comparar con la probabilidad verdadera.

    Distribuciones Uniformes Bivariadas

    Recordemos que el experimento de monedas de Buffon consiste en lanzar una moneda con radio\(r \le \frac{1}{2}\) al azar sobre un piso cubierto con azulejos cuadrados de longitud lateral 1. Las coordenadas\((X, Y)\) del centro de la moneda se registran con relación a los ejes a través del centro del cuadrado, paralelas a los lados. Dado que la aguja se cae aleatoriamente, la suposición básica de modelado\( (X, Y) \) es que se distribuye uniformemente en el cuadrado\( [-1/2, 1/2]^2 \).

    El experimento de monedas de Buffon
    Figura\(\PageIndex{3}\): Experimento de monedas de Buffon

    En el experimento de monedas de Buffon,

    1. Encuentra\(\P(Y \gt 0 \mid X \lt Y)\)
    2. Encuentra la distribución condicional de\((X, Y)\) dado que la moneda no toca los lados del cuadrado.
    Contestar
    1. \(\frac{3}{4}\)
    2. Dado\((X, Y) \in [r - \frac{1}{2}, \frac{1}{2} - r]^2\),\((X, Y)\) se distribuye uniformemente en este conjunto.

    Ejecuta el experimento de monedas de Buffon 500 veces. Calcular la probabilidad empírica que\(Y \gt 0\) dada eso\(X \lt Y\) y comparar con la probabilidad en el último ejercicio.

    En el experimento de probabilidad condicional, los puntos aleatorios se distribuyen uniformemente en el rectángulo\( S \). Mueva y cambie el tamaño de eventos\( A \)\( B \) y anote cómo cambian las probabilidades. Para cada una de las siguientes configuraciones, ejecute el experimento 1000 veces y compare las frecuencias relativas con las probabilidades verdaderas.

    1. \( A \)y\( B \) en posición general
    2. \( A \)y\( B \) disjuntos
    3. \( A \subseteq B \)
    4. \( B \subseteq A \)

    Confiabilidad

    Una planta cuenta con 3 líneas de montaje que producen chips de memoria. La línea 1 produce el 50% de las fichas y tiene una tasa de defectos del 4%; la línea 2 produce el 30% de las fichas y tiene una tasa defectuosa del 5%; la línea 3 produce el 20% de las fichas y tiene una tasa defectuosa del 1%. Se elige un chip al azar de la planta.

    1. Encuentra la probabilidad de que el chip esté defectuoso.
    2. Dado que el chip es defectuoso, encuentra la probabilidad condicional para cada línea.
    Contestar
    1. 0.037
    2. 0.541 para la línea 1, 0.405 para la línea 2, 0.054 para la línea 3

    Supongamos que se envía un bit (0 o 1) a través de un canal de comunicaciones ruidoso. Debido al ruido, el bit enviado puede recibirse incorrectamente como el bit complementario. Específicamente, supongamos que si se envía 0, entonces la probabilidad de que se reciba 0 es 0.9 y la probabilidad de que se reciba 1 es 0.1. Si se envía 1, entonces la probabilidad de que se reciba 1 es 0.8 y la probabilidad de que se reciba 0 es 0.2. Por último, supongamos que 1 se envía con probabilidad 0.6 y 0 se envía con probabilidad 0.4. Encuentra la probabilidad de que

    1. Se envió 1 dado que se recibió 1
    2. 0 fue enviado dado que 0 fue recibido
    Contestar
    1. \(12/13\)
    2. \(3/4\)

    Supongamos que\(T\) denota la vida útil de una bombilla (en unidades de 1000 horas), y que\(T\) tiene la siguiente distribución exponencial, definida para medible\(A \subseteq [0, \infty)\):

    \[\P(T \in A) = \int_A e^{-t} dt\]
    1. Encuentra\(\P(T \gt 3)\)
    2. Encuentra\(\P(T \gt 5 \mid T \gt 2)\)
    Contestar
    1. \(e^{-3}\)
    2. \(e^{-3}\)

    Supongamos nuevamente que\(T\) denota la vida útil de una bombilla (en unidades de 1000 horas), pero que\(T\) se distribuye uniformemente sobre la interal\([0, 10]\).

    1. Encuentra\(\P(T \gt 3)\)
    2. Encuentra\(\P(T \gt 5 \mid T \gt 2)\)
    Contestar
    1. \(\frac{7}{10}\)
    2. \(\frac{5}{8}\)

    Genética

    Por favor refiérase a la discusión de genética en la sección de experimentos aleatorios si necesita revisar algunas de las definiciones de esta sección.

    Recordemos primero que el tipo de sangre ABO en humanos está determinado por tres alelos:\(a\),\(b\), y\(o\). Además,\(a\)\(b\) son codominantes y\(o\) recesivos. Supongamos que la distribución de probabilidad para el conjunto de genotipos sanguíneos en una determinada población se da en la siguiente tabla:

    Genotipo \(aa\) \(ab\) \(ao\) \(bb\) \(bo\) \(oo\)
    Probabilidad 0.050 0.038 0.310 0.007 0.116 0.479

    Supongamos que una persona es escogida al azar de la población. Dejar\(A\),\(B\),\(AB\), y\(O\) ser los eventos que la persona es tipo\(A\), tipo\(B\)\(AB\), tipo y tipo\(O\) respectivamente. \(H\)Sea el evento de que la persona es homocigótica, y dejar\(D\) denotar el evento de que la persona tiene un\(o\) alelo. Encuentra cada uno de los siguientes:

    1. \(\P(A)\),\(\P(B)\),\(\P(AB)\),\(\P(O)\),\(\P(H)\),\(\P(D)\)
    2. \(P(A \cap H)\),\(P(A \mid H)\),\(P(H \mid A)\). ¿Los eventos\(A\) están correlacionados\(H\) positivamente, correlacionados negativamente o independientes?
    3. \(P(B \cap H)\),\(P(B \mid H)\),\(P(H \mid B)\). ¿Los eventos\(B\) están correlacionados\(H\) positivamente, correlacionados negativamente o independientes?
    4. \(P(A \cap D)\),\(P(A \mid D)\),\(P(D \mid A)\). ¿Los eventos\(A\) están correlacionados\(D\) positivamente, correlacionados negativamente o independientes?
    5. \(P(B \cap D)\),\(P(B \mid D)\),\(P(D \mid B)\). ¿Los eventos\(B\) están correlacionados\(D\) positivamente, correlacionados negativamente o independientes?
    6. \(P(H \cap D)\),\(P(H \mid D)\),\(P(D \mid H)\). ¿Los eventos\(H\) están correlacionados\(D\) positivamente, correlacionados negativamente o independientes?
    Contestar
    1. 0.360, 0.123, 0.038, 0.479, 0.536, 0.905
    2. 0.050, 0.093, 0.139. \(A\)y\(H\) están correlacionados negativamente.
    3. 0.007, 0.013, 0.057. \(B\)y\(H\) están correlacionados negativamente.
    4. 0.310, 0.343, 0.861. \(A\)y\(D\) están correlacionados negativamente.
    5. 0.116, 0.128, 0.943. \(B\)y\(D\) están correlacionados de manera positiva.
    6. 0.479, 0.529, 0.894. \(H\)y\(D\) están correlacionados negativamente.

    Supongamos a continuación que el color de la vaina en cierto tipo de planta de guisante está determinado por un gen con dos alelos:\(g\) para el verde y\(y\) para el amarillo, y que\(g\) es dominante y\(y\) recesivo.

    Supongamos que una planta de vaina verde y una planta de vaina amarilla se crían juntas. Supongamos además que la planta de vaina verde tiene la\(\frac{1}{4}\) posibilidad de portar el alelo recesivo de vaina amarilla.

    1. Encuentra la probabilidad de que una planta hijo tenga vainas verdes.
    2. Dado que una planta hijo tiene vainas verdes, encuentra la probabilidad actualizada de que el padre de vaina verde tenga el alelo recesivo.
    Contestar
    1. \(\frac{7}{8}\)
    2. \(\frac{1}{7}\)

    Supongamos que dos plantas de vaina verde se crían juntas. Supongamos además que con probabilidad\(\frac{1}{3}\) ninguna planta tiene el alelo recesivo, con probabilidad\(\frac{1}{2}\) una planta tiene el alelo recesivo, y con probabilidad\(\frac{1}{6}\) ambas plantas tienen el alelo recesivo.

    1. Encuentra la probabilidad de que una planta hijo tenga vainas verdes.
    2. Dado que una planta hijo tiene vainas verdes, encuentra la probabilidad actualizada de que ambos padres tengan el gen recesivo.
    Contestar
    1. \(\frac{23}{24}\)
    2. \(\frac{3}{23}\)

    A continuación, considere un trastorno hereditario vinculado al sexo en humanos (como el daltonismo o la hemofilia). Dejar\(h\) denotar el alelo sano y\(d\) el alelo defectuoso para el gen vinculado al trastorno. Recordemos que\(h\) es dominante y\(d\) recesivo para las mujeres.

    Supongamos que en cierta población, el 50% son masculinos y el 50% son femeninos. Además, supongamos que el 10% de los machos son daltónicos pero solo el 1% de las hembras son daltónicos.

    1. Encuentra el porcentaje de personas daltónicas en la población.
    2. Encuentra el porcentaje de personas daltónicas que son varones.
    Contestar
    1. 5.5%
    2. 90.9%

    Dado que el daltonismo es un trastorno hereditario vinculado al sexo, tenga en cuenta que es razonable en el ejercicio anterior que la probabilidad de que una hembra sea daltónica sea el cuadrado de la probabilidad de que un varón sea daltónico. Si\(p\) es la probabilidad del alelo defectuoso en el\(X\) cromosoma, entonces también\(p\) es la probabilidad de que un macho sea daltónica. Pero como el alelo defectuoso es recesivo, una mujer necesitaría dos copias del alelo defectuoso para ser daltónicos, y asumiendo la independencia, la probabilidad de este suceso es\(p^2\).

    Un hombre y una mujer no tienen cierto trastorno hereditario vinculado al sexo, pero la mujer tiene\(\frac{1}{3}\) posibilidades de ser portadora.

    1. Encuentra la probabilidad de que un hijo nacido de la pareja sea normal.
    2. Encuentra la probabilidad de que una hija nacida de la pareja sea portadora.
    3. Dado que un hijo nacido de la pareja es normal, encuentra la probabilidad actualizada de que la madre sea portadora.
    Contestar
    1. \(\frac{5}{6}\)
    2. \(\frac{1}{6}\)
    3. \(\frac{1}{5}\)

    Urna Modelos

    La urna 1 contiene 4 bolas rojas y 6 verdes mientras que la urna 2 contiene 7 bolas rojas y 3 verdes. Se elige una urna al azar y luego se elige una bola al azar de la urna seleccionada.

    1. Encuentra la probabilidad de que la pelota sea verde.
    2. Dado que el balón es verde, encuentra la probabilidad condicional de que se seleccionó la urna 1.
    Contestar
    1. \(\frac{9}{20}\)
    2. \(\frac{2}{3}\)

    La urna 1 contiene 4 bolas rojas y 6 verdes mientras que la urna 2 contiene 6 bolas rojas y 3 verdes. Una bola se selecciona al azar de la urna 1 y se transfiere a la urna 2. Después se selecciona una bola al azar de la urna 2.

    1. Encuentra la probabilidad de que el balón de la urna 2 sea verde.
    2. Dado que el balón de la urna 2 es verde, encuentra la probabilidad condicional de que el balón de la urna 1 sea verde.
    Contestar
    1. \(\frac{9}{25}\)
    2. \(\frac{2}{3}\)

    Una urna contiene inicialmente 6 bolas rojas y 4 verdes. Se elige una bola al azar de la urna y se registra su color. Luego se reemplaza en la urna y se agregan 2 bolas nuevas del mismo color a la urna. El proceso se repite. Encuentra la probabilidad de cada uno de los siguientes eventos:

    1. Las bolas 1 y 2 son rojas y la bola 3 es verde.
    2. Las bolas 1 y 3 son rojas y la bola 2 es verde.
    3. La bola 1 es verde y las bolas 2 y 3 son rojas.
    4. La bola 2 es roja.
    5. La bola 1 es roja dado que la bola 2 es roja.
    Contestar
    1. \(\frac{4}{35}\)
    2. \(\frac{4}{35}\)
    3. \(\frac{4}{35}\)
    4. \(\frac{3}{5}\)
    5. \(\frac{2}{3}\)

    Piense en los resultados del ejercicio anterior. Obsérvese en particular que las respuestas a las partes (a), (b) y (c) son las mismas, y que la probabilidad de que la segunda bola sea roja en la parte (d) es la misma que la probabilidad de que la primera bola sea roja. De manera más general, las probabilidades de eventos no dependen del orden de los sorteos. Por ejemplo, la probabilidad de que un evento involucre el primer, segundo y tercer sorteos es la misma que la probabilidad de que el evento correspondiente involucre el séptimo, décimo y quinto sorteos. Técnicamente, la secuencia de eventos\((R_1, R_2, \ldots)\) es intercambiable. El proceso aleatorio descrito en este ejercicio es un caso especial del esquema de urnas de Pólya, que lleva el nombre de George Pólya. Estudiamos la urna de Pólya con más detalle en el capítulo sobre Modelos de Muestreo Finito

    Una urna contiene inicialmente 6 bolas rojas y 4 verdes. Se elige una bola al azar de la urna y se registra su color. Luego se reemplaza en la urna y se agregan dos bolas nuevas del otro color a la urna. El proceso se repite. Encuentra la probabilidad de cada uno de los siguientes eventos:

    1. Las bolas 1 y 2 son rojas y la bola 3 es verde.
    2. Las bolas 1 y 3 son rojas y la bola 2 es verde.
    3. La bola 1 es verde y las bolas 2 y 3 son rojas.
    4. La bola 2 es roja.
    5. La bola 1 es roja dado que la bola 2 es roja.
    Contestar
    1. \(\frac{6}{35}\)
    2. \(\frac{6}{35}\)
    3. \(\frac{16}{105}\)
    4. \(\frac{17}{30}\)
    5. \(\frac{9}{17}\)

    Piense en los resultados del ejercicio anterior, y compare con la urna de Pólya. Obsérvese que las respuestas a las partes (a), (b) y (c) no son todas iguales, y que la probabilidad de que la segunda bola sea roja en la parte (d) no es la misma que la probabilidad de que la primera bola sea roja. En definitiva, la secuencia de eventos no\((R_1, R_2, \ldots)\) es intercambiable.

    Pruebas de diagnóstico

    Supongamos que tenemos un experimento aleatorio con un evento\(A\) de interés. Cuando ejecutamos el experimento, por supuesto, el evento\(A\) ocurrirá o no ocurrirá. Sin embargo, supongamos que no somos capaces de observar la ocurrencia o no ocurrencia de\(A\) directamente. En cambio tenemos una prueba diagnóstica diseñada para indicar la ocurrencia del evento\(A\); así la prueba que puede ser positiva\(A\) o negativa para\(A\). La prueba también tiene un elemento de aleatoriedad, y en particular puede estar en error. Estos son algunos ejemplos típicos del tipo de situación que tenemos en mente:

    • El evento es que una persona tiene cierta enfermedad y la prueba es un análisis de sangre para detectar la enfermedad.
    • El evento es que una mujer está embarazada y la prueba es una prueba de embarazo casera.
    • El suceso es que una persona está mintiendo y la prueba es una prueba de detector de mentiras.
    • El evento es que un dispositivo está defectuoso y la prueba consiste en una lectura de sensor.
    • El evento es que un misil se encuentra en una determinada región del espacio aéreo y la prueba consiste en señales de radar.
    • El hecho es que una persona ha cometido un delito, y la prueba es un juicio con jurado con pruebas presentadas a favor y en contra del evento.

    \(T\)Sea el evento de que la prueba sea positiva por la ocurrencia de\(A\). La probabilidad condicional\(\P(T \mid A)\) se llama la sensibilidad de la prueba. La probabilidad complementaria\[\P(T^c \mid A) = 1 - \P(T \mid A)\] es la probabilidad de falso negativo. La probabilidad condicional\(\P(T^c \mid A^c)\) se llama especificidad de la prueba. La probabilidad complementaria\[\P(T \mid A^c) = 1 - \P(T^c \mid A^c)\] es la probabilidad de falso positivo. En muchos casos, se conoce la sensibilidad y especificidad de la prueba, como resultado del desarrollo de la prueba. No obstante, el usuario de la prueba está interesado en las probabilidades condicionales opuestas, es decir\(\P(A \mid T)\), la probabilidad del evento de interés, dada una prueba positiva\(\P(A^c \mid T^c)\), y, la probabilidad del evento complementario, dada una prueba negativa. Por supuesto, si sabemos\( \P(A \mid T) \) entonces también tenemos\( \P(A^c \mid T) = 1 - \P(A \mid T) \), la probabilidad del evento complementario dado una prueba positiva. De igual manera, si sabemos\( \P(A^c \mid T^c) \) entonces también tenemos\( \P(A \mid T^c) \), la probabilidad del suceso dado una prueba negativa. El cálculo de las probabilidades de interés es simplemente un caso especial del teorema de Bayes.

    La probabilidad de que ocurra el evento, dada una prueba positiva es\[\P(A \mid T) = \frac{\P(A) \P(T \mid A)}{\P(A) \P(T \mid A) + \P(A^c) \P(T \mid A^c)}\] La probabilidad de que el evento no ocurra, dada una prueba negativa es\[\P(A^c \mid T^c) = \frac{\P(A^c) \P(T^c \mid A^c)}{\P(A) \P(T^c \mid A) + \P(A^c) \P(T^c \mid A^c)}\]

    A menudo existe un compromiso entre sensibilidad y especificidad. Un intento de hacer una prueba más sensible puede resultar en que la prueba sea menos específica, y un intento de hacer una prueba más específica puede resultar en que la prueba sea menos sensible. Como ejemplo extremo, considera la prueba sin valor que siempre devuelve positiva, sin importar cuál sea la evidencia. Entonces\( T = S \) así la prueba tiene sensibilidad 1, pero especificidad 0. En el extremo opuesto se encuentra la prueba sin valor que siempre devuelve negativa, sin importar cuál sea la evidencia. Entonces\( T = \emptyset \) así la prueba tiene especificidad 1 pero sensibilidad 0. Entre estos extremos hay pruebas útiles que en realidad se basan en evidencia de algún tipo.

    Supongamos que la sensibilidad\( a = \P(T \mid A) \in (0, 1)\) y la especificidad\( b = \P(T^c \mid A^c) \in (0, 1) \) son fijas. Dejar\( p = \P(A) \) denotar la probabilidad previa del evento\( A \) y\( P = \P(A \mid T) \) la probabilidad posterior de\( A \) dar una prueba positiva.

    \( P \)como una función de\( p \) es dada por\[ P = \frac{a p}{(a + b - 1) p + (1 - b)}, \quad p \in [0, 1] \]

    1. \( P \)aumenta continuamente de 0 a 1 a medida que\( p \) aumenta de 0 a 1.
    2. \( P \)es cóncavo hacia abajo si\( a + b \gt 1 \). En este caso\( A \) y\( T \) están correlacionados positivamente.
    3. \( P \)es cóncavo hacia arriba si\( a + b \lt 1 \). En este caso\( A \) y\( T \) se correlacionan negativamente.
    4. \( P = p \)si\( a + b = 1 \). En este caso,\( A \) y\( T \) son no correlacionados (independientes).
    Prueba

    La fórmula para\( P \) en términos de\( p \) sigue de (42) y álgebra. Para la parte (a), tenga en cuenta que\[ \frac{dP}{dp} = \frac{a (1 - b)}{[(a + b - 1) p + (1 - b)]^2} \gt 0\] Para las partes (b) - (d), tenga en cuenta que\[ \frac{d^2 P}{dp^2} = \frac{-2 a (1 - b)(a + b - 1)}{[(1 + b - 1)p + (1 - b)]^3} \] Si\( a + b \gt 1 \),\( d^2P/dp^2 \lt 0 \) así\( P \) es cóncavo hacia abajo sobre\( [0, 1] \) y por lo tanto\( P \gt p \) para\( 0 \lt p \lt 1 \). Si\( a + b \lt 1 \),\( d^2P/dp^2 \gt 0 \) así\( P \) es cóncavo hacia arriba\( [0, 1] \) y por lo tanto\( P \lt p \) para\( 0 \lt p \lt 1 \). Trivialmente si\( a + b = 1 \),\( P = p \) para\( 0 \le p \le 1 \).

    Por supuesto, la parte (b) es el caso típico, donde la prueba es útil. De hecho, esperaríamos que la sensibilidad y especificidad sean cercanas a 1. En el caso c), la prueba es peor que inútil ya que da la información equivocada sobre\( A \). Pero este caso podría convertirse en una prueba útil simplemente invirtiendo los roles de positivo y negativo. En el caso d), la prueba no tiene valor y no da ninguna información sobre\( A \). Es interesante que la amplia clasificación anterior sólo depende de la suma de la sensibilidad y especificidad.

    Diagnostic.png
    Figura\(\PageIndex{4}\):\( P = \P(A \mid T) \) en función de\( p = \P(A) \) en los tres casos

    Supongamos que una prueba diagnóstica tiene sensibilidad 0.99 y especificidad 0.95. Encuentra\( \P(A \mid T) \) para cada uno de los siguientes valores de\( \P(A) \):

    1. 0.001
    2. 0.01
    3. 0.2
    4. 0.5
    5. 0.7
    6. 0.9
    Contestar
    1. 0.0194
    2. 0.1667
    3. 0.8319
    4. 0.9519
    5. 0.9788
    6. 0.9944

    Con sensibilidad 0.99 y especificidad 0.95, la prueba en el último ejercicio se ve superficialmente bien. Sin embargo, el pequeño valor de\(\P(A \mid T)\) para valores pequeños de\(\P(A)\) es llamativo (pero inevitable dadas las propiedades anteriores). La moral, por supuesto, es que\(\P(A \mid T)\) depende críticamente\(\P(A)\) no sólo de la sensibilidad y especificidad de la prueba. Además, la comparación correcta es\(\P(A \mid T)\) con\(\P(A)\), como en el ejercicio, no\(\P(A \mid T)\) con\(\P(T \mid A)\) — ¡Cuidado con la falacia del condicional transpuesto! En términos de la comparación correcta, la prueba sí funciona bien;\(\P(A \mid T)\) es significativamente mayor que\(\P(A)\) en todos los casos.

    Una mujer inicialmente cree que existe una posibilidad par de que esté o no embarazada. Se hace una prueba de embarazo domiciliaria con sensibilidad 0.95 y especificidad 0.90 (que son valores razonables para una prueba de embarazo domiciliaria). Encuentra la probabilidad actualizada de que la mujer esté embarazada en cada uno de los siguientes casos.

    1. La prueba es positiva.
    2. La prueba es negativa.
    Contestar
    1. 0.905
    2. 0.053

    Supongamos que el 70% de los acusados llevados a juicio por cierto tipo de delito son culpables. Además, los datos históricos muestran que los jurados condenan a los culpables el 80% de las veces y condenan a personas inocentes el 10% de las veces. Supongamos que una persona es juzgada por un delito de este tipo. Encuentra la probabilidad actualizada de que la persona sea culpable en cada uno de los siguientes casos:

    1. La persona es condenada.
    2. Se absuelve a la persona.
    Contestar
    1. 0.949
    2. 0.341

    La luz Check Engine de tu auto se ha encendido. Sin la información de la luz, crees que hay un 10% de posibilidades de que tu auto tenga un problema grave con el motor. Se aprende que si el auto tiene tal problema, la luz se encenderá con probabilidad 0.99, pero si el auto no tiene un problema grave, la luz seguirá encendida, en circunstancias similares a las suyas, con probabilidad 0.3. Encuentra la probabilidad actualizada de que tengas un problema con el motor.

    Contestar

    0.268

    La prueba estándar para el VIH es la prueba ELISA (Enzyme-Linked Immunosorbent Assay). Tiene sensibilidad y especificidad de 0.999. Supongamos que una persona es seleccionada al azar de una población en la que 1% está infectada con VIH, y se le da la prueba ELISA. Encuentra la probabilidad de que la persona tenga VIH en cada uno de los siguientes casos:

    1. La prueba es positiva.
    2. La prueba es negativa.
    Contestar
    1. 0.9098
    2. 0.00001

    La prueba ELISA para VIH es muy buena. Veamos otra prueba, esta para cáncer de próstata, eso es bastante malo.

    La prueba de PSA para el cáncer de próstata se basa en un marcador sanguíneo conocido como el Antígeno Específico de Próstata. Un nivel elevado de PSA es evidencia de cáncer de próstata. Para tener una prueba diagnóstica, en el sentido que estamos discutiendo aquí, debemos decidir sobre un nivel definido de PSA, por encima del cual declaramos que la prueba es positiva. Una prueba positiva generalmente conduciría a otras pruebas más invasivas (como la biopsia) que, por supuesto, conllevan riesgos y costos. La prueba de PSA con corte 2.6 ng/ml tiene sensibilidad 0.40 y especificidad 0.81. La incidencia general de cáncer de próstata entre los varones es de 156 por cada 100000. Supongamos que un hombre, sin factores de riesgo particulares, tiene la prueba de PSA. Encuentra la probabilidad de que el hombre tenga cáncer de próstata en cada uno de los siguientes casos:

    1. La prueba es positiva.
    2. La prueba es negativa.
    Contestar
    1. 0.00328
    2. 0.00116

    Las pruebas diagnósticas están estrechamente relacionadas con un procedimiento estadístico general conocido como prueba de hipótesis. Un capítulo separado sobre las pruebas de hipótesis explora este procedimiento en detalle.

    Ejercicios de Análisis de Datos

    Para el conjunto de datos de M&M, encuentra la probabilidad empírica de que una bolsa tenga al menos 10 rojos, dado que el peso de la bolsa es de al menos 48 gramos.

    Contestar

    \(\frac{10}{23}\).

    Considera los datos de Cicada.

    1. Encuentra la probabilidad empírica de que una cigarra pese al menos 0.25 gramos dado que la cigarra es masculina.
    2. Encontrar la probabilidad empírica de que una cigarra pese al menos 0.25 gramos dado que la cigarra es la especie tredecula.
    Contestar
    1. \(\frac{2}{45}\)
    2. \(\frac{7}{44}\)

    This page titled 2.4: Probabilidad Condicional is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.