Saltar al contenido principal
LibreTexts Español

3.1: Probabilidad Condicional

  • Page ID
    151140
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    La medida de probabilidad original o anterior utiliza toda la información disponible para hacer asignaciones de probabilidad\(P(A)\)\(P(B)\), etc., sujetas a las condiciones definitorias (P1), (P2) y (P3). La probabilidad\(P(A)\) indica la probabilidad de que el evento A ocurra en cualquier ensayo.

    Con frecuencia, se recibe nueva información que conduce a una reevaluación de la probabilidad del evento A. Por ejemplo

    • Se está entrevistando a un aspirante a un empleo como gerente de un departamento de servicios. Su currículum muestra una experiencia adecuada y otras calificaciones. Se conduce con facilidad y es bastante articulado en su entrevista. Se le considera un prospecto muy probable de tener éxito. A la entrevista le sigue una extensa verificación de antecedentes. Su calificación crediticia, por deudas incobrables, se encuentra bastante baja. Con esta información, la probabilidad de que sea un candidato satisfactorio cambia radicalmente.
    • Una joven busca adquirir un auto usado. Ella encuentra uno que parece ser una excelente compra. Se ve “limpio”, tiene un kilometraje razonable y es un modelo confiable de una marca bien conocida. Antes de comprar, tiene un amigo mecánico mirarlo. Encuentra pruebas de que el auto ha sido destrozado con posibles daños en el marco que ha sido reparado. La probabilidad de que el automóvil sea satisfactorio se reduce así considerablemente.
    • Un médico está realizando un examen físico de rutina a una paciente de unos setenta años. Tiene un poco de sobrepeso. Él sospecha que ella puede ser propensa a problemas cardíacos. Entonces descubre que ella hace ejercicio regularmente, come una dieta baja en grasas, alta en fibra, variagada, y proviene de una familia en la que la supervivencia hasta bien entrados los noventa es común. A partir de esta nueva información, vuelve a evaluar la probabilidad de problemas cardíacos.

    La información nueva, pero parcial, determina un evento condicionamiento\(C\), lo que puede requerir reevaluar la probabilidad de suceso\(A\). Por un lado, esto significa que\(A\) ocurre si\(AC\) ocurre el evento. Efectivamente, esto convierte\(C\) en un nuevo espacio básico. La nueva unidad de masa probabilística es\(P(C)\). ¿Cómo se deben hacer las nuevas asignaciones de probabilidad? Una posibilidad es hacer que la nueva asignación sea\(A\) proporcional a la probabilidad\(P(AC)\). Estas consideraciones y experiencia con el caso clásico sugieren el siguiente procedimiento de reasignación. Si bien dicha reasignación no es lógicamente necesaria, los desarrollos posteriores dan pruebas sustanciales de que este es el procedimiento apropiado.

    Definición

    Si\(C\) es un par teniendo probabildad prositiva, la probabilidad condicional de\(A\), dada\(C\) es

    \(P(A|C) = \dfrac{P(AC)}{P(C)}\)

    Para un evento de condicionamiento fijo\(C\), tenemos una nueva asignación de verosimilitud para el evento\(A\). Ahora

    \(P(A|C) \ge 0\),\(P(\Omega |C) = 1\), y\(P(\bigvee_j A_j | C) = \dfrac{P(\bigvee_j A_j C}{P(C)} = \sum_j P(A_j C)/P(C) = \sum_j P(A_j | C)\)

    Así, la nueva función\(P(\cdot | C)\) satisface las tres propiedades definitorias (P1), (P2) y (P3) para probabilidad, de manera que para C fija, tenemos una nueva medida de probabilidad, con todas las propiedades de una medida de probabilidad ordinaria.

    Obración. Cuando escribimos\(P(A|C)\) estamos evaluando la probabilidad de evento\(A\) cuando se sabe que el evento\(C\) ha ocurrido. Esta no es la probabilidad de un evento condicional\(A|C\). Los eventos condicionales no tienen sentido en el modelo que estamos desarrollando.

    Ejemplo\(\PageIndex{1}\) Conditional probabilities from joint frequency data

    Una encuesta de opinión de los estudiantes sobre una propuesta de programa nacional de salud incluyó a 250 estudiantes, de los cuales 150 eran estudiantes de pregrado y 100 eran estudiantes de posgrado. Sus respuestas fueron categorizadas Y (afirmativa), N (negativa) y D (incierta o nula opinión). Los resultados se tabulan a continuación.

      Y N D
    U 60 40 50
    G 70 20 10

    Supongamos que la muestra es representativa, por lo que los resultados se pueden tomar como propios del alumnado. Un estudiante es escogido al azar. Que Y sea el evento que él o ella sea favorable al plan, N sea el evento que él o ella sea desfavorable, y D es el evento de no opinión (o incierto). Que U sea el evento el estudiante es un pregrado y G sea el evento que él o ella es un estudiante de posgrado. Los datos pueden interpretarse razonablemente

    \(P(G) = 100/250\),\(P(U) = 150/250\)\(P(Y) = (60 + 70)/250\),\(P(YU) = 60/250\),, etc.

    Entonces

    \(P(Y|U) = \dfrac{P(YU)}{P(U)} = \dfrac{60/250}{150/250} = \dfrac{60}{150}\)

    Del mismo modo, podemos calcular

    \(P(N|U) = 40/150\),\(P(D|U) = 50/150\),\(P(Y|G) = 70/100\),\(P(N|G) = 20/100\),\(P(D|G) = 10/100\)

    También podemos calcular directamente

    \(P(U|Y) = 60/130\),\(P(G|N) = 20/60\), etc.

    La probabilidad condicional a menudo proporciona una forma natural de tratar los ensayos compuestos realizados en varios pasos.

    Ejemplo\(\PageIndex{2}\) Jet aircraft with two engines

    Un avión tiene dos motores a reacción. Volará con un solo motor funcionando. \(F_1\)Sea el caso de que un motor falle en un vuelo de larga distancia, y\(F_2\) el evento el segundo falle. La experiencia lo indica\(P(F_1) = 0.0003\). Una vez que falla el primer motor, se coloca carga agregada en el segundo, de manera que eso\(P(F_2|F_1) = 0.001\). Ahora el segundo motor puede fallar sólo si el otro ya ha fallado. \(F_2 \subset F_1\)Así para que

    \(P(F_2) = P(F_1 F_2) = P(F_1) P(F_2|F_1) = 3 \times 10^{-7}\)

    Por lo tanto, la fiabilidad de cualquier motor puede ser menos que satisfactoria, sin embargo, la fiabilidad general puede ser bastante alta.

    El siguiente ejemplo está tomado del Módulo UMAP 576, de Paul Mullenix, reimpreso en UMAP Journal, vol. 2, núm. 4. Ahí se da un tratamiento más extenso del problema.

    Ejemplo\(\PageIndex{3}\) Responses to a sensitive question on a survey

    En una encuesta, si responder “sí” a una pregunta puede tender a incriminar o de otra manera avergonzar al sujeto, la respuesta dada puede ser incorrecta o engañosa. Sin embargo, puede ser deseable obtener respuestas correctas para fines de análisis social. El siguiente dispositivo para hacer frente a este problema se le atribuye a B. G. Greenberg. Por un proceso casual, a cada sujeto se le instruye a hacer una de tres cosas:

    1. Responda con una respuesta honesta a la pregunta.
    2. Responder “sí” a la pregunta, independientemente de la verdad en la materia.
    3. Responder “no” independientemente de la respuesta verdadera.

    Que A sea el evento al que se le diga al sujeto que responda honestamente, B sea el evento al que se le instruya al sujeto que responda “sí”, y C sea el evento que la respuesta sea “no”. Las probabilidades\(P(A)\),\(P(B)\), y\(P(C)\) están determinadas por un mecanismo de azar (es decir, a una fracción\(P(A)\) seleccionada aleatoriamente se le dice que responda honestamente, etc.). \(E\)Sea el evento la respuesta es “sí”. Deseamos calcular\(P(E|A)\), la probabilidad de que la respuesta sea “sí” dada la respuesta es honesta.

    Solución

    Desde entonces\(E = EA \bigvee B\), tenemos

    \(P(E) = P(EA) + P(B) = P(E|A) P(A) + P(B)\)

    que puede resolverse algebraicamente para dar

    \(P(E|A) = \dfrac{P(E) - P(B)}{P(A)}\)

    Supongamos que hay 250 sujetos. El mecanismo de azar es tal que\(P(A) = 0.7\),\(P(B) = 0.4\) y\(P(C) = 0.16\). Hay 62 respuestas “sí”, que tomamos como referencia\(P(E) = 62/250\). De acuerdo con el patrón anterior

    \(P(E|A) = \dfrac{62/250 - 14/100}{70/100} = \dfrac{27}{175} \approx 0.154\)

    La formulación de probabilidad condicional supone que el evento condicionamiento C está bien definido. A veces hay dificultades sutiles. Puede que no quede del todo claro a partir de la descripción del problema cuál es el evento de acondicionamiento. Esto suele deberse a alguna ambigüedad o malentendido de la información proporcionada.

    Ejemplo\(\PageIndex{4}\) What is the conditioning event?

    Cinco candidatos igualmente calificados para un empleo, Jim, Paul, Richard, Barry y Evan, son identificados a partir de entrevistas y se les dice que son finalistas. Tres de estos se van a seleccionar al azar, con resultados que se publicarán al día siguiente. Uno de ellos, Jim, tiene un amigo en la oficina de personal. Jim le pide al amigo que le diga el nombre de uno de los seleccionados (que no sea él mismo). El amigo le dice a Jim que Richard ha sido seleccionado. Jim analiza el problema de la siguiente manera.

    Análisis

    Que\(A_i\),\(1 \le i \le 5\) sea el evento se contrate el\(i\) th de estos (\(A_1\)es el evento que Jim es contratado,\(A_3\) es el evento que se contrata a Richard, etc.). Ahora\(P(A_i)\) (para cada uno\(i\)) es la probabilidad de que finalista\(i\) esté en una de las combinaciones de tres de cinco. Así, la probabilidad de Jim de ser contratado, antes de recibir la información sobre Richard, es

    \(P(A_1) = \dfrac{1 \times C(4,2)}{C(5,3)} = \dfrac{6}{10} = P(A_i)\),\(1 \le i \le 5\)

    La información de que Richard es uno de los contratados es información de que el suceso\(A_3\) ha ocurrido. Además, para cualquier par\(i \ne j\) el número de combinaciones de tres de cinco incluyendo estas dos es solo el número de formas de escoger una de las tres restantes. Por lo tanto,

    \(P(A_1 A_3) = \dfrac{C(3,1)}{C(5,3)} = \dfrac{3}{10} = P(A_i A_j), i \ne j\)

    La probabilidad condicional

    \(P(A_1 | A_3) = \dfrac{P(A_1A_3)}{P(A_3)} = \dfrac{3/10}{6/10} = 1/2\)

    Esto concuerda con el hecho de que si Jim sabe que Richard es contratado, entonces hay dos por seleccionar entre los cuatro finalistas restantes, de manera que

    \(P(A_1 | A_3) = \dfrac{1 \times C(3,1)}{C(4,2)} = \dfrac{3}{6} = 1/2\)

    Discusión

    Si bien esta solución parece sencilla, ha sido cuestionada por ser incompleta. Muchos sienten que debe haber información sobre cómo el amigo eligió nombrar a Richard. Muchos harían una suposición algo así como sigue. El amigo tomó los tres nombres seleccionados: si Jim era uno de ellos, se quitó el nombre de Jim y se hizo una elección igualmente probable entre los otros dos; de lo contrario, el amigo seleccionó con igual probabilidad a uno de los tres a contratar. Bajo este supuesto, la información asumida es un evento B 3 que no es lo mismo que A 3. De hecho, el cálculo (ver Ejemplo 5, a continuación) muestra

    \(P(A_1|B_3) = \dfrac{6}{10} = P(A_1) \ne P(A_1|A_3)\)

    Ambos resultados son matemáticamente correctos. La diferencia está en el evento condicionamiento, que corresponde a la diferencia en la información dada (o asumida).

    Algunas propiedades

    Además de sus propiedades como medida de probabilidad, la probabilidad condicional tiene propiedades especiales que son consecuencias de la forma en que se relaciona con la medida de probabilidad original\(P(\cdot)\). Los siguientes se derivan fácilmente de la definición de probabilidad condicional y propiedades básicas de la medida de probabilidad previa, y resultan útiles en una variedad de situaciones problemáticas.

    (CP1) Regla del producto Si\(P(ABCD) > 0\), entonces\(P(ABCD) = P(A) P(B|A) P(C|AB) P(D|ABC).\)

    Derivación

    La expresión definitoria puede escribirse en forma de producto:\(P(AB) = P(A) P(B|A)\). Del mismo modo

    \(P(ABC) = P(A) \dfrac{P(AB)}{P(A)} \cdot \dfrac{P(ABC)}{P(AB)} = P(A) P(B|A) P(C|AB)\)

    y

    \(P(ABCD) = P(A) \dfrac{P(AB)}{P(A)} \cdot \dfrac{P(ABC)}{P(AB)} \cdot \dfrac{P(ABCD)}{P(ABC)} = P(A) P(B|A) P(C|AB) P(D|ABC)\)

    Este patrón puede extenderse a la intersección de cualquier número finito de eventos. Además, los eventos podrán ser tomados en cualquier orden.

    — □

    Ejemplo\(\PageIndex{5}\) Selection of items from a lot

    Una tienda de electrónica tiene diez artículos de un tipo dado en stock. Uno es defectuoso. Cuatro clientes sucesivos compran uno de los artículos. Cada vez, la selección es sobre una base igualmente probable de las restantes. ¿Cuál es la probabilidad de que los cuatro clientes obtengan buenos artículos?

    Solución

    \(E_i\)Sea el evento en el\(i\) que el cliente reciba un buen artículo. Entonces el primero elige uno de los nueve de cada diez buenos, el segundo elige uno de los ocho de nueve goood, etc., para que

    \(P(E_1E_2E_3E_4) = P(E_1)P(E_2|E_1)P(E_3|E_1E_2)P(E_4|E_1E_2E_3) = \dfrac{9}{10} \cdot \dfrac{8}{9} \cdot \dfrac{7}{8} \cdot \dfrac{6}{7} = \dfrac{6}{10}\)

    Obsérvese que este resultado podría ser determinado por un argumento combinatorio: bajo los supuestos, cada combinación de cuatro de diez es igualmente probable; el número de combinaciones de cuatro buenas es el número de combinaciones de cuatro de las nueve. De ahí

    \(P(E_1E_2E_3E_4) = \dfrac{C(9,4)}{C(10,4)} = \dfrac{126}{210} = 3/5\)

    Ejemplo\(\PageIndex{6}\) A selection problem

    Se seleccionarán tres elementos (sobre una base igualmente probable en cada paso) de diez, dos de los cuales son defectuosos. Determinar la probabilidad de que el primero y el tercero seleccionados sean buenos.

    Solución

    Dejar\(G_i\),\(1 \le i \le 3\) ser el par la unidad\(i\) th seleccionada es buena. Entonces\(G_1 G_3 = G_1 G_2 G_3 \bigvee G_1 G_2^c G_3\). Por la regla del producto

    \(P(G_1 G_3) = P(G_1) P(G_2|G_1) P(G_3|G_1 G_2) + P(G_1) P(G_2^c | G_1) P(G_3|G_1 G_2^c) = \dfrac{8}{10} \cdot \dfrac{7}{9} \cdot \dfrac{6}{8} + \dfrac{8}{10} \cdot \dfrac{2}{9} \cdot \dfrac{7}{8} = \dfrac{28}{45} \approx 0.6\)

    (CP2) Ley de probabilidad total Supongamos que la clase\(\{A_i: 1 \le i \le n\}\) de eventos es mutuamente excluyente y cada resultado en E está en uno de estos eventos. Así,\(E = A_1 E \bigvee A_2 E \bigvee \cdot \cdot \cdot \bigvee A_n E\), una unión disjunta. Entonces

    \(P(E) = P(E|A_1) P(A_1) + P(E|A_2) P(A_2) + \cdot \cdot \cdot + P(E|A_n) P(A_n)\)

    Ejemplo\(\PageIndex{7}\) a compound experiment

    Cinco tarjetas están numeradas del uno al cinco. Se realiza un procedimiento de selección en dos etapas de la siguiente manera.

    1. Se seleccionan tres tarjetas sin reemplazo, sobre una base igualmente probable.
      • Si se saca la tarjeta 1, las otras dos se ponen en una caja
      • Si no se saca la tarjeta 1, los tres se ponen en una caja
    2. Una de las cartas de la caja se extrae sobre una base igualmente probable (de dos o tres)

    Let\(A_i\) be the event the\(i\) th card is drawn on the first selection and let\(B_i\) be the event the card numbered\(i\) is drawn on the second selection (from the box). Determinar\(P(B_5)\),\(P(A_1B_5)\), y\(P(A_1|B_5)\).

    Solución

    Del Ejemplo 3.1.4, tenemos\(P(A_i) = 6/10\) y\(P(A_iA_j) = 3/10\). Esto implica

    \(P(A_i A_j^c) = P(A_i) - P(A_i A_j) = 3/10\)

    Ahora podemos sacar la carta cinco en la segunda selección sólo si se selecciona en el primer dibujo, así que eso\(B_5 \subset A_5\). También\(A_5 = A_1 A_5 \bigvee A_1^c A_5\). Por lo tanto, tenemos\(B_5 = B_5 A_5 = B_5 A_1 A_5 \bigvee B_5 A_1^c A_5\). Por la ley de probabilidad total (CP2),

    \(P(B_5) = P(B_5|A_1A_5) P(A_1A_5) + P(B_5|A_1^cA_5) P(A_1^c A_5) = \dfrac{1}{2} \cdot \dfrac{3}{10} + \dfrac{1}{3} \cdot \dfrac{3}{10} = \dfrac{1}{4}\)

    Además, dado que\(A_1B_5 = A_1A_5B_5\),

    \(P(A_1B_5) = P(A_1A_5B_50 = P(A_1A_5)P(B_5|A_1A_5) = \dfrac{3}{10} \cdot \dfrac{1}{2} = \dfrac{3}{20}\)

    Por lo tanto, tenemos

    \(P(A_1|B_5) = \dfrac{3/20}{5/20} = \dfrac{6}{10} = P(A_1)\)

    Ocurrencia de evento no\(B_1\) tiene ningún efecto sobre la probabilidad de la ocurrencia de\(A_1\). Esta condición se examina más a fondo en el capítulo sobre "Independencia de los acontecimientos”.

    A menudo en las aplicaciones los datos conducen a condicionamiento con respecto a un evento pero el problema requiere “acondicionamiento en la dirección opuesta”.

    Ejemplo\(\PageIndex{8}\) Reversal of conditioning

    Los estudiantes de una clase de matemáticas de primer año provienen de tres escuelas secundarias diferentes. Su preparación matemática varía. Para agruparlos adecuadamente en secciones de clase, se les da una prueba diagnóstica. Que\(H_i\) sea el evento que un estudiante probado sea de secundaria\(i\),\(1 \le i \le 3\). Que F sea el evento en el que el alumno falle la prueba. Suponga que los datos indican

    \(P(H_1) = 0.2\),\(P(H_2) = 0.5\),\(P(H_3) = 0.3\),\(P(F|H_1) = 0.10\),\(P(F|H_2) = 0.02\),\(P(F|H_3) = 0.06\)

    Un alumno aprueba el examen. Determinar para cada uno\(i\) la probabilidad condicional de\(P(H_i|F^c)\) que el alumno sea de preparatoria\(i\).

    Solución

    \(P(F^c) = P(F^c|H_1) P(H_1) + P(F^c|H_2) P(H_2) + P(F^c|H_3) P(H_3) = 0.90 \cdot 0.2 + 0.98 \cdot 0.5 + 0.94 \cdot 0.3 = 0.952\)

    Entonces

    \(P(H_1|F^c) = \dfrac{P(F^c H_1)}{P(F^c)} = \dfrac{P(F^c|H_1) P(H_1)}{P(F^c)} = \dfrac{180}{952} = 0.1891\)

    Del mismo modo,

    \(P(H_2|F^c) = \dfrac{P(F^c|H_2)P(H_2)}{P(F^c)} = \dfrac{590}{952} = 0.5147\)y\(P(H_3|F^c) = \dfrac{P(F^c|H_3) P(H_3)}{P(F^c)} = \dfrac{282}{952} = 0.2962\)

    El patrón básico utilizado en la inversión es el siguiente.

    (CP3) Regla de Bayes Si\(E \subset \bigvee_{i = 1}^{n} A_i\) (como en la ley de probabilidad total), entonces

    \(P(A_i |E) = \dfrac{P(A_i E)}{P(E)} = \dfrac{P(E|A_i) P(A_i)}{P(E)}\)\(1 \le i \le n\)La ley de rendimientos probabilty totales\(P(E)\)

    Tales inversiones son deseables en una variedad de situaciones prácticas.

    Ejemplo\(\PageIndex{9}\) A compound selection and reversal

    Comience con artículos en dos lotes:

    1. Tres artículos, uno defectuoso.
    2. Cuatro artículos, uno defectuoso.

    Un artículo se selecciona del lote 1 (sobre una base igualmente probable); este artículo se agrega al lote 2; luego se realiza una selección del lote 2 (también sobre una base igualmente probable). Este segundo ítem es bueno. ¿Cuál es la probabilidad de que el artículo seleccionado del lote 1 fuera bueno?

    Solución

    Let\(G_1\) be the event the first item (from lot 1) was good, and\(G_2\) be the event the second item (from the augmented lot 2) is good. Queremos determinar\(P(G_1|G_2)\). Ahora los datos se interpretan como

    \(P(G_1) = 2/3\),\(P(G_2|G_1) = 4/5\),\(P(G_2|G_1^c) = 3/5\)

    Por la ley de probabilidad total (CP2),

    \(P(G_2) = P(G_1) P(G_2|G_1) + P(G_1^c)P(G_2|G_1^c) = \dfrac{2}{3} \cdot \dfrac{4}{5} + \dfrac{1}{3} \cdot \dfrac{3}{5} = \dfrac{11}{15}\)

    Por regla de Bayes (CP3),

    \(P(G_1|G_2) = \dfrac{P(G_2|G_1) P(G_1)}{P(G_2)} = \dfrac{4/5 \times 2/3}{11/15} = \dfrac{8}{11} \approx 0.73\)

    Ejemplo\(\PageIndex{10}\) Additional problems requiring reversals

    • Pruebas médicas. Supongamos que D es el evento que un paciente tiene una determinada enfermedad y T es el evento en el que una prueba de la enfermedad es positiva. Los datos suelen ser de la forma: probabilidad previa\(P(D)\) (o probabilidades previas\(P(D)/P(D^c)\)), probabilidad\(P(T|D^c)\) de un falso positivo y probabilidad\(P(T^c|D)\) de un falso negativo. Las probabilidades deseadas son\(P(D|T)\) y\(P(D^c|T^c)\).
    • Alarma de seguridad. Si D es el evento existe una condición peligrosa (digamos que una presión de vapor es demasiado alta) y T es el evento en que opera la alarma de seguridad, entonces los datos suelen ser de la forma\(P(D)\)\(P(T|D^c)\),, y\(P(T^c|D)\), o equivalentemente (por ejemplo,\(P(T^c|D^c)\) y\(P(T|D)\)). Nuevamente, las probabilidades deseadas son que las alarmas de seguridad señalen correctamente,\(P(D|T)\) y\(P(D^c|T^c)\).
    • Éxito laboral. Si H es el evento de éxito en un trabajo, y E es el evento en el que un individuo entrevistado tiene ciertas características deseables, los datos suelen ser previos\(P(H)\) y la confiabilidad de las características como predictores en la forma\(P(H)\) y\(P(E|H^c)\). La probabilidad deseada es\(P(H|E)\).
    • Presencia de aceite. Si H es el evento de la presencia de petróleo en un sitio de pozo propuesto, y E es el evento de cierta estructura geológica (cúpula de sal o falla), los datos suelen ser\(P(H)\) (o las probabilidades),\(P(E|H)\), y\(P(E|H^c)\). La probabilidad deseada es\(P(H|E)\).
    • Estado del mercado. Antes de lanzar un nuevo producto en el mercado nacional, una firma suele examinar la condición de un mercado de prueba como indicador del mercado nacional. Si H es el evento el mercado nacional es favorable y E es el evento el mercado de prueba es favorable, los datos son una estimación previa\(P(H)\) de la probabilidad de que el mercado nacional sea sólido,\(P(E|H)\) y datos e\(P(E|H^c)\) indicando la confiabilidad del mercado de prueba. Lo que se desea es\(P(H|E)\), la probabilidad de que el mercado nacional sea favorable, dado que el mercado de prueba es favorable.

    Los cálculos, como en el Ejemplo 3.8, son simples pero pueden ser tediosos. Contamos con un procedimiento m llamado bayes para realizar los cálculos fácilmente. \(P(A_i)\)Las probabilidades se ponen en una matriz PA y las probabilidades condicionales\(P(E|A_i)\) se ponen en matriz PEA. Las probabilidades deseadas\(P(A_i|E)\) y\(PA_i|E^c)\) se calculan y muestran

    Ejemplo\(\PageIndex{11}\) matlab calculations for

    >> PEA = [0.10 0.02 0.06];
    >> PA =  [0.2 0.5 0.3];
    >> bayes
    Requires input PEA = [P(E|A1) P(E|A2) ... P(E|An)]
    and PA = [P(A1) P(A2) ... P(An)]
    Determines PAE  = [P(A1|E) P(A2|E) ... P(An|E)]
           and PAEc = [P(A1|Ec) P(A2|Ec) ... P(An|Ec)]
    Enter matrix PEA of conditional probabilities  PEA
    Enter matrix  PA of probabilities  PA
    P(E) = 0.048
    P(E|Ai)   P(Ai)     P(Ai|E)   P(Ai|Ec)
    0.1000    0.2000    0.4167    0.1891
    0.0200    0.5000    0.2083    0.5147
    0.0600    0.3000    0.3750    0.2962
    Various quantities are in the matrices PEA, PA, PAE, PAEc, named above

    El procedimiento muestra los resultados en forma tabular, como se muestra. Además, las diversas cantidades se encuentran en el espacio de trabajo en las matrices nombradas, de manera que pueden ser utilizadas en cálculos posteriores sin volver a copiarse.

    La siguiente variación de la regla de Bayes es aplicable en muchas situaciones prácticas.

    (CP3*) Forma de relación de la regla de Bayes\(\dfrac{P(A|C)}{P(B|C)} = \dfrac{P(AC)}{P(BC)} = \dfrac{P(C|A)}{P(C|B)} \cdot \dfrac{P(A)}{P(B)}\)

    El miembro de la mano izquierda se llama las probabilidades posteriores, que son las probabilidades después del conocimiento de la ocurrencia del evento condicionamiento. La segunda fracción en el miembro derecho son las cuotas previas, que son las probabilidades antes del conocimiento de la ocurrencia del evento condicionamiento\(C\). La primera fracción en el miembro derecho se conoce como la razón de verosimilitud. Es la relación de las probabilidades (o probabilidades) de\(C\) para las dos medidas de probabilidad diferentes\(P(\cdot |A)\) y\(P(\cdot |B)\).

    Ejemplo\(\PageIndex{12}\) A performance test

    Como parte de un procedimiento de mantenimiento de rutina, se le da una prueba de rendimiento a una computadora. La máquina parece estar funcionando tan bien que las probabilidades previas es satisfactoria se toman para ser de diez a uno. La prueba tiene probabilidad 0.05 de un falso positivo y 0.01 de un falso negativo. Se realiza una prueba. El resultado es positivo. ¿Cuáles son las probabilidades posteriores de que el dispositivo esté funcionando correctamente?

    Solución

    \(S\)Sea el evento en el que la computadora esté funcionando satisfactoriamente y que\(T\) sea el evento la prueba sea favorable. Los datos son\(P(S)/P(S^c) = 10\),\(P(T|S^c) = 0.05\), y\(P(T^c|S) = 0.01\) .Luego por la forma de ratio de la regla de Bayes'

    \(\dfrac{P(S|T)}{P(S^c|T)} = \dfrac{P(T|S)}{P(T|S^c} \cdot \dfrac{P(S)}{P(S^c)} = \dfrac{0.99}{0.05} \cdot 10 = 198\)para que\(P(S|T) = \dfrac{198}{199} = 0.9950\)

    El siguiente inmueble sirve para establecer en los capítulos sobre “Independencia de los acontecimientos” e “Independencia condicional” una serie de propiedades importantes para el concepto de independencia y de independencia condicional de los acontecimientos.

    (CP4) Algunas condiciones equivalentes Si\(0 < P(A) < 1\) y\(0 < P(B) < 1\), entonces

    \(P(A|B) * P(A)\)iff\(P(B|A) * P(B)\) iff\(P(AB) * P(A) P(B)\) y

    \(P(AB) *P(A) P(B)\)\(P(A^cB^c) * P(A^c) P(B^c)\)iff\(P(AB^c) \diamond P(A) P(B^c)\)

    donde * es\(<, \le, =, \ge,\) o\(>\) y\(\diamond\) es\(>, \ge, =, \le,\) o\(<\), respectivamente.

    Debido al papel de esta propiedad en la teoría de la independencia y la independencia condicional, se examina la derivación de estos resultados.

    VERIFICACIÓN de (CP4)

    \(P(AB) * P(A) P(B)\)iff\(P(A|B) * P(A)\) (dividir por\(P(B)\) - puede intercambiar\(A\) e\(A^c\)
    \(P(AB) * P(A) P(B)\) iff\(P(B|A) * P(B)\) (dividir por\(P(A)\) - puede intercambiar\(B\) e\(B^c\)
    \(P(AB) * P(A) P(B)\) iff\([P(A) - P(AB^c)] * P(A)[1 - P(B^c)]\) iff\(-P(AB^c) * - P(A)P(B^c)\) iff\(P(AB^c) \diamond P(A) P(B^c)\)
    podemos usar c para obtener\(P(AB) * P(A) P(B)\) iff\(P(AB^C) \diamond P(A)P(B^c)\) iff\(P(A^cB^c)*P(A^c) P(B^c)\)

    — □

    De éstas se pueden derivar varias propositonas importantes y útiles.

    \(P(A|B) + P(A^c|B) = 1\), pero, en general,\(P(A|B) + P(A|B^c) \ne 1\).
    \(P(A|B) > P(A)\)iff\(P(A|B^c) < P(A)\).
    \(P(A^c|B) > P(A^c)\)iff\(P(A|B) < P(A)\).
    \(P(A|B) > P(A)\)iff\(P(A^c|B^c) > P(A^c)\).

    VERIFICACIÓN — Ejercicios (ver conjunto de problemas)

    — □

    Acondicionamiento repetido

    Supongamos que el condicionamiento por el evento\(C\) ha ocurrido. Luego se recibe información adicional de que el evento D ha ocurrido. Tenemos un nuevo evento de acondicionamiento\(CD\). Hay dos posibilidades:

    Reasignar las probabilidades condicionales. \(P_C(A)\)se convierte

    \(P_C(A|D) = \dfrac{P_C(AD)}{P_C(D)} = \dfrac{P(ACD)}{P(CD)}\)

    Reasignar las probabilidades totales:\(P(A)\) se convierte

    \(P_{CD}(A) = P(A|CD) = \dfrac{P(ACD)}{P(CD)}\)

    Resultado básico:\(P_C(A|D) = P(A|CD) = P_D(A|C)\). Así, el condicionamiento repetido por dos eventos se puede hacer en cualquier orden, o se puede hacer en un solo paso. Este resultado se extiende fácilmente al condicionamiento repetido por cualquier número finito de eventos. Este resultado es importante para extender el concepto de "Independencia de los Eventos" a "Independencia Condicional”. Estas condiciones son importantes para muchos problemas de probable inferencia.


    This page titled 3.1: Probabilidad Condicional is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.