Saltar al contenido principal
LibreTexts Español

27.5: Apéndice- Probabilidades inversas y regla de Bayes

  • Page ID
    93761
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Solo dos compañías de taxi operan en Belleville, KS. The Blue Company tiene cabinas azules, y la Compañía Verde tiene cabinas verdes. Exactamente el 85% de las cabinas son azules y el 15% son verdes. Un taxi estuvo involucrado en un accidente de atropello y fuga por la noche. Un testigo ocular, Wilbur, identificó el taxi como un taxi verde. Se realizaron pruebas cuidadosas para determinar la capacidad de las personas para distinguir entre cabinas azules y verdes por la noche. Las pruebas mostraron que las personas identificaron el color correctamente el 80% de las veces, pero se equivocaron el 20% de las veces. ¿Cuál es la probabilidad de que el taxi involucrado en el accidente fuera efectivamente un taxi verde, como dice Wilbur?

    Problemas como este requieren que integremos el conocimiento sobre el presente caso (aquí, lo que dice el testigo ocular) con información previa sobre las tarifas base (aquí, qué proporción de los taxis son verdes). En muchos casos, nos enfocamos demasiado en la información actual e ignoramos la información sobre las tasas base. La forma correcta de dar a ambas piezas de información su debido debido es usar la Regla de Bayes.

    Regla de Bayes

    La Regla de Bayes (que lleva el nombre del reverendo Thomas Bayes, quien la descubrió en el siglo XVIII) no es más que otra regla para calcular probabilidades. Nos dice cómo debemos modificar o actualizar las probabilidades cuando adquirimos nueva información. Da la probabilidad posterior de una hipótesis A dada una pieza de nueva evidencia B como:

    Pr (A | B) = Pr (A) × Pr (B | A)/Pr (B)

    Decimos que Pr (A) es la probabilidad previa de la hipótesis, Pr (B|A) la probabilidad de B dada A, y Pr (B) la probabilidad previa de evidencia B. Por ejemplo, A podría ser la hipótesis de que Smith está infectado por el virus VIH, y B podría ser el dato (pieza de evidencia) que su prueba volvió positivo.

    A modo de ilustración, vamos a trabajar a través del ejemplo uno anterior (trabajaremos a través del ejemplo dos a continuación). Este ejemplo involucró a la Compañía Azul, que tiene todos los taxis azules, y la Compañía Verde, que tiene todos los taxis verdes. Exactamente el 85% de las cabinas son azules y el otro 15% son verdes. Un taxi estuvo involucrado en un accidente de atropello y fuga por la noche. Un testigo ocular honesto, Wilbur, identificó el taxi como un taxi verde. Se realizaron pruebas cuidadosas para determinar la capacidad de los testigos para distinguir entre taxis azules y verdes por la noche; estas mostraron que las personas pudieron identificar el color correctamente el 80% de las veces, pero se equivocaron 20% de las veces. ¿Cuál es la probabilidad de que el taxi involucrado en el accidente fuera efectivamente un taxi verde? El hecho de que los testigos sean confiables lleva a mucha gente a suponer que Wilbur probablemente tenga razón, incluso que la probabilidad de que tenga razón es de 8. Pero, ¿es esto correcto? Una gran parte de la batalla suele establecer una notación clara, así que comencemos con eso:

    • Pr (G) = .15

    Esta es la tasa base de los taxs verdes en la ciudad. Da la probabilidad previa de que la cabina en el accidente sea verde. De igual manera, Pr (B) = .85.

    • Pr (SG|G) = .80

    Esta es la probabilidad de que el testigo tenga razón al decir verde cuando la cabina de hecho es verde, es decir, dado que la cabina realmente estaba verde. De igual manera, Pr (SB|B) = .80. Estas son las probabilidades de que los testigos sean correctos, así que por la regla de negación, las probabilidades de identificaciones erróneas son:

    • Pr (SG | B) = .2 y Pr (SB | G) = .2

    Lo que queremos saber es la probabilidad de que la cabina realmente estuviera verde, dado que Wilbur dijo que era verde, es decir, queremos saber Pr (G|SG). Según la Regla de Bayes, esta probabilidad viene dada por:

    Pr (G | SG) = Pr (G) × Pr (SG | G)/Pr (SG)

    Tenemos los valores para las dos expresiones en el numerador—PR (G) = .15 y Pr (SG|G) = .8— pero debemos hacer un poco de trabajo para determinar el valor de la expresión Pr (SG) en el denominador. Para ver cuál es este valor —la probabilidad de que un testigo diga que la cabina era verde— debe ser, tenga en cuenta que hay dos condiciones bajo las cuales Wilbur podría decir que la cabina del accidente era verde. Podría decir esto cuando el taxi era verde o cuando era azul. Esto es una disyunción, por lo que agregamos estas dos probabilidades. En el primer disjunto, Wilbur dice verde y la cabina es verde; en el segundo disjunto Wilbur dice verde y la cabina es azul. Armando esto obtenemos:

    Pr (SG) = Pr (G y SG) + Pr (B y SG)

    Ahora nuestra regla para las conjunciones nos dice que Pr (G & SG) = Pr (G) x Pr (SG|G) y Pr (B & SG) = Pr (B) x Pr (SG|B). Entonces,

    Pr (SG) = Pr (G) × (SG|G) + Pr (B) × Pr (SG|B)

    = (. 15 × .80) + (. 85 × .20)

    = .12 + .17

    = .29

    Por último, sustituimos este número, .29, en el denominador de la Regla de Bayes:

    Pr (G|SG) = Pr (G) × Pr (SG|G)/Pr (SG)

    =. 15 x. 80. 29

    = .414

    Entonces, la probabilidad de que el testigo tuviera razón al decir que la cabina era verde está un poco por encima del .4 —menos de cincuenta y cincuenta— y (por la regla de negación) la probabilidad de que se equivoque es casi .6. Esto es así a pesar de que los testigos son confiables. ¿Cómo puede ser esto? La respuesta es que la alta tasa base de los taxis azules, y la baja tasa base de los taxis verdes, hacen que sea algo probable que el testigo se equivocara en este caso.

    Regla para Probabilidades Totales

    Al calcular el valor del denominador en el problema anterior hicimos uso de la Regla para Probabilidades Totales. Vamos a utilizar una versión simple, pero ampliamente aplicable de esta regla aquí. Si una oración B es verdadera, entonces o B y A son verdaderas o bien B y ~A son verdaderas (ya que cualquier oración A es verdadera o falsa). Esto nos permite expresar la probabilidad de B — Pr (B) — de una manera más complicada. Esto puede parecer algo extraño de hacer, pero resulta que muchas veces es posible calcular la probabilidad de la expresión más complicada cuando no es posible obtener la probabilidad de B de manera más directa.

    Pr (B) = Pr [(B & A) o (B & ~A)]

    = Pr (B y A) + Pr (B & ~A)

    = [Pr (A) × Pr (B | A)] + [Pr (~A) × Pr (B | ~A)])

    En resumen:

    Pr (B) = [Pr (A) × Pr (B | A)] + [Pr (~A) × Pr (B | ~A)]

    Esta regla puede ser útil en los casos que no involucren a la Regla de Bayes, así como en muchos casos que sí. Es particularmente útil cuando nos ocupamos de un resultado que puede ocurrir de cualquiera de dos maneras.

    Ejemplo: Una fábrica tiene dos máquinas que hacen widgets. Máquina A hace 800 por día y 1% de ellos son defectuosos. La otra máquina, la llaman ~A, hace 200 al día y 2% son defectuosas. ¿Cuál es la probabilidad de que un widget producido por la fábrica sea defectuoso (D)? Conocemos lo siguiente:

    • Pr (A) = .8 — la probabilidad de que un widget sea hecho por la máquina A es .8 (ya que esta máquina hace 800 de los 1000 producidos todos los días).
    • Pr (~A) = .2 — la probabilidad de que un widget sea hecho por la otra máquina A es .2.
    • Pr (D|A) = .01 — la probabilidad de que un widget sea defectuoso dado que fue hecho por la máquina A, que resulta 1% de widgets defectuosos, es de .01p.
    • Pr (D|~A) = .02 — la probabilidad de que un widget sea defectuoso dado que fue hecho por la máquina A, que resulta 2% de widgets defectuosos, es de .02p.

    Al enchufar estos números en el teorema para la probabilidad total tenemos:

    Pr (D) = [Pr (A) × Pr (D | A)] + [Pr (~A) × Pr (D|~A)]

    = [. 8 × .01] + [.2 × .02]

    = 0.012

    Versión de probabilidades de la regla de Bayes'

    Particularmente cuando nos preocupa la hipótesis mutuamente excluyente y disjunta (cáncer vs. no cáncer), la versión odds de la regla de Bayes suele ser la versión más útil. También nos permite evitar la necesidad de un valor para Pr (e), que a menudo es difícil de conseguir. Que H sea alguna hipótesis bajo consideración, y e sea alguna pieza de evidencia recién adquirida (como el resultado de una prueba médica) que se apoye en ella. Entonces:

    Pr (H | e)/Pr (~H | e) = Pr (H) Pr (e | H)/Pr (~H) Pr (e | ~H)

    La expresión anterior da las probabilidades posteriores de las dos hipótesis, Pr (H) /Pr (~H) da sus probabilidades previas, y Pr (E|h) /Pr (E|~H) es la razón de verosimilitud (o diagnóstico). Al integrar la información, nuestro conocimiento previo de las tasas base se refleja en las probabilidades previas, y nuestro conocimiento sobre el caso específico se representa por la razón de verosimilitud. Por ejemplo, si e representa un resultado positivo en una prueba para detectar la presencia del virus VIH, entonces Pr (E|h) da la tasa de aciertos (sensibilidad) de la prueba, y Pr (E|~h) da la tasa de falsas alarmas. Como indica la relación multiplicativa en (2), cuando las probabilidades previas son bastante bajas, incluso una relación de verosimilitud relativamente alta no elevará drásticamente las probabilidades posteriores.

    La importancia de integrar las tasas base en nuestras inferencias se ilustra vívidamente con el ejemplo dos anterior. Supongamos que tenemos una prueba para el virus VIH. La probabilidad de que una persona que realmente tiene el virus dé positivo es de .90, mientras que la probabilidad de que una persona que no lo tiene dé positivo es de .20. Por último, supongamos que la probabilidad de que una persona en la población general tenga el virus (la tasa base del virus) es de .01. ¿Qué probabilidades hay de que Smith, cuya prueba dio positivo, se infecte?

    Debido a que la prueba es tolerablemente precisa, muchas personas suponen que las posibilidades son bastante altas de que Smith esté infectado, tal vez incluso hasta el 90%. En efecto, diversos estudios han demostrado que muchos médicos incluso lo suponen. Se ha encontrado que las personas tienden a confundir probabilidades y sus conversas. La probabilidad de que obtengamos la prueba positiva, e, si la persona tiene el virus es de .9, es decir, Pr (e|h) = .9. Pero queremos saber la probabilidad de lo contrario, la probabilidad de que la persona tenga el virus dado que dio positivo, es decir, Pr (H |e). Estos no tienen por qué ser iguales, ni siquiera cercanos a los mismos. De hecho, cuando conectamos los números a la Regla de Bayes, encontramos que la probabilidad de que alguien en esta situación esté infectado es bastante baja.

    Para ver esto, simplemente conectamos nuestros números a la versión de cuotas de la regla de Bayes. Se nos ha dicho que:

    • Pr (E|h) = .9
    • Pr (E|~H) = .2
    • Pr (H) = .01
    • Pr (~H) = .99.

    Por lo tanto,

    Pr (H | e)/Pr (~H | e) = Pr (H)/Pr (~H) × Pr (e | H)/Pr (e | ~H) =. 9/. 2 ×. 01/. 99 = 1/22

    Esto da las probabilidades: 22 a 1 contra que Smith esté infectado. Entonces, Pr (H |e) = 1/23. Aunque la prueba es relativamente precisa, la baja tasa base significa que solo hay 1 posibilidad en 23 de que Smith tenga el virus.

    Puntos similares se aplican a otras pruebas médicas y a pruebas de drogas, si la tasa base del padecimiento que se está probando es baja. No es difícil ver cómo los formuladores de políticas, o el público al que responden, pueden hacer evaluaciones muy inexactas de probabilidades, y de ahí malas decisiones sobre riesgos y remedios, si pasan por alto la importancia de las tasas base.

    Como señalamos anteriormente, te ayudará a pensar en estos asuntos de manera intuitiva si intentas reformular los problemas de probabilidad en términos de frecuencias o proporciones siempre que sea posible.

    Asuntos adicionales

    La Regla de Bayes deja claro cuándo una probabilidad condicional será igual a su inversa. Cuando nos fijamos en:

    Pr (A | B) = Pr (A) × Pr (B | A) Pr (B)

    vemos que Pr (A|B) = Pr (B|A) exactamente cuando Pr (A) = Pr (B), para que cancelen (asumiendo, como siempre, que no dividimos por cero). Dividir ambos lados de la Regla de Bayes por Pr (B|A) nos da la siguiente proporción:

    Pr (A | B)/Pr (B | A) = Pr (A)/Pr (B)

    lo cual suele ser útil.

    Actualización vía Condicionalización

    Una forma de actualizar o revisar nuestras creencias dada la nueva evidencia e es establecer nuestra nueva probabilidad (una vez que aprendamos sobre la evidencia) como:

    Pr Nuevo (H) = Pr Antiguo (H | e)

    con Pr Antiguo (H|e) determinado por la Regla de Bayes. Se dice que dicha actualización implica la condicionalización bayesiana.

    El problema de la clase de referencia

    Existen dificultades genuinas para seleccionar el grupo adecuado a considerar cuando usamos las tarifas base. Esto se conoce como el problema de la clase de referencia. Supongamos que estamos considerando los efectos del tabaquismo en el cáncer de pulmón. ¿Qué clase de referencia debemos considerar: todas las personas, solo fumadores, o simplemente fumadores empedernos?

    Problemas similares surgen cuando pensamos en la regresión a la media. Sabemos que los rendimientos y resultados extremos tienden a ser seguidos por aquellos que son más promedio (que retroceden a la media). Si Wilma golpea 86% de sus tiros en un juego de basquetbol, es probable que golpee un porcentaje menor la próxima vez que salga. La gente no parece tener una comprensión intuitiva de este fenómeno, y la dificultad se ve agravada por el hecho de que, al igual que con las tasas base, existe un problema sobre la clase de referencia. ¿A qué promedio retrocederán los puntajes: el promedio de Wilma, su promedio reciente o el promedio de su equipo?

    Hasta cierto punto, es probable que las clases de referencia más pequeñas apunten mejores predicciones, y también nos interesarán las clases de referencia que parezcan causalmente relevantes para la característica que nos importa. Pero si una clase de referencia se vuelve demasiado pequeña, no generará frecuencias estables, y a menudo será más difícil encontrar datos sobre clases más pequeñas que se adapten a nuestras preocupaciones. No hay una respuesta correcta sobre qué clase de referencia es la correcta. A menudo requiere un equilibrio juicioso de compensaciones. Con las tasas base, puede ser cuestión de ponderar los costos de una predicción incorrecta contra los pagos de extrema precisión, o el valor de información más precisa contra los costos de adquirirla o (si eres un creador de políticas) el hecho de que el número de clases de referencia crece exponencialmente con cada nuevo variable predictora. Pero si bien no existe una forma única y correcta de usar las tasas base, no se deduce que esté bien ignorarlas; no tener en cuenta la información de tasa base cuando la tenemos, a menudo conducirá a una mala política.

    Ejercicios sobre Teorema de Bayes y Probabilidades Condicionales

    1. En la sección sobre la Regla para Probabilidad Total nos encontramos con la fábrica con dos máquinas que hacen widgets. Máquina A hace 800 por día y 1% de ellos son defectuosos. La otra máquina, la llaman ~A, hace 200 al día y 2% son defectuosas. ¿Cuál es la probabilidad de que un widget sea producido por la máquina A, dado que es defectuoso? Sabemos la probabilidad de que sea defectuoso si es producido por A—Pr (D|A) = .01— pero esto pide la probabilidad opuesta o inversa; ¿qué es Pr (A|D)? Usa la Regla de Bayes para calcular la respuesta.
    2. Anteriormente se le pidió que hiciera un dibujo para resolver el siguiente problema; ahora resolverlo por cálculo y ver si sus respuestas están de acuerdo. Funcionarios del centro de prevención del suicidio saben que 2% de todas las personas que llaman por teléfono a su línea directa intentan suicidarse. Un psicólogo ha ideado una prueba verbal rápida y sencilla para ayudar a identificar a quienes llaman que intentarán suicidarse. Ella encontró que:
      1. El 80% de las personas que intentarán suicidarse tienen una puntuación positiva en esta prueba.
      2. Sólo el 5% de los que no intentarán suicidarse tienen una puntuación positiva en esta prueba.

    Si obtiene una identificación positiva de una persona que llama en esta prueba, ¿cuál es la probabilidad de que intente suicidarse?

    1. Una prueba clínica, diseñada para diagnosticar una enfermedad específica, resulta positiva para un determinado paciente. Se nos dice que:
      1. La prueba es 79% precisa: las posibilidades de que tengas la enfermedad si dice que sí es 79%, y las posibilidades de que no tengas la enfermedad si dice que no la tienes también son 79%.
      2. Esta enfermedad afecta al 1% de la población en el mismo grupo de edad que el paciente. Teniendo en cuenta estos dos hechos, y asumiendo que no sabe nada sobre los síntomas o signos del paciente, ¿cuál es la probabilidad de que este paciente en particular realmente tenga la enfermedad?
    2. Supongamos que te entregan dos bolsas de fichas de póquer, pero desde el exterior no se puede decir cuál es cuál.
      1. Bolsa 1:70 chips rojos y 30 chips azules
      2. Bolsa 2:30 chips rojos y 70 chips azules

    Escoges una de las dos bolsas al azar y sacas una ficha de ella. El chip es rojo. La reemplazas, vuelves a dibujar y obtener otra ficha, y así sucesivamente a través de doce pruebas (es decir, doce sorteos). En las doce pruebas, obtienes 8 chips rojos y 4 chips azules. ¿Cuál es la probabilidad de que hayas estado sacando fichas de la Bolsa Uno (con 70 rojos y 30 azules) en lugar de de la Bolsa Dos (con 30 rojos y 70 azules)? La mayoría de la gente responde que la probabilidad de que hayas estado dibujando de la Bolsa Uno es de alrededor de 75. De hecho, como mostrará la Regla de Bayes, es del 97. Pero la gente suele revisar sus probabilidades menos de lo que la Regla de Bayes dice que deberían. La gente es conservadora a la hora de actualizar sus probabilidades a la luz de nuevas evidencias. Usa la Regla de Bayes para demostrar que 97 es el valor correcto.

    1. Wilbur tiene dos hijos. Nos encontramos con él en el centro comercial con un adolescente que presenta como su hijo. ¿Cuál es la probabilidad de que el otro hijo de Wilbur sea un niño? Segundo escenario: Wilbur presenta al niño como su hijo mayor. Ahora, ¿cuál es la probabilidad de que su otro hijo sea un niño? (Pista: piensa en el problema de los dos ases anterior).
    2. Mil personas, incluyéndote a ti, compraron un boleto en la lotería local. Había diez ganadores, a todos los cuales se les notificó correctamente que habían ganado. Pero debido a un error clerical, el 1% de las personas que no ganaron también recibieron notificaciones de que sí. Recibió una carta diciendo que era un ganador. ¿Cuál es la probabilidad de que realmente ganaste?
    3. Problema de Monty Hall En un capítulo anterior, abordamos el Problema de Monty Hall de una manera intuitiva. Ahora verificaremos ahora nuestras respuestas anteriores usando la Regla de Bayes. Recuerda que en este problema imaginas que eres concursante en un programa de juegos y hay tres puertas frente a ti. No hay nada que valga la pena tener detrás de dos de ellos, pero hay 100 mil dólares detrás del tercero. Si escoges la puerta correcta, el dinero es tuyo. Tú eliges A. Pero antes de que el anfitrión, Monty Hall, te muestre lo que hay detrás de esa puerta, abre una de las otras dos puertas, escogiendo una que sabe que no tiene nada detrás de ella. Supongamos que abre la puerta B. Esto saca a B de la carrera, por lo que la única pregunta ahora es sobre la puerta A vs. la puerta C. Monty ('M', para abreviar) ahora te permite reconsiderar tu elección anterior: puedes quedarte con la puerta A o cambiar a la puerta C. ¿Deberías cambiar?
      1. ¿Cuál es la probabilidad de que el dinero esté detrás de la puerta A?
      2. ¿Cuál es la probabilidad de que el dinero esté detrás de la puerta C?

    Ya que estamos haciendo estas preguntas una vez que Monty ha abierto la puerta B, equivalen a preguntar por:

    Contestar

    1. Se nos dan todos los números relevantes excepto el de Pr (D), pero lo calculamos en la sección sobre probabilidades totales. Por regla de Bayes:

    Pr (A | D) = Pr (A) × Pr (D | A)/Pr (D)

    =. 8 × .01/. 012

    = 2/3

    7. Demos a las puertas nombres de letras para que no se confundan con nuestros números. Entonces, para resolver el problema de Monty Hall debemos calcular:

    1' Pr ($ detrás de A|M abierto B)

    2' Pr ($ detrás de C|M abierto B)

    La Regla de Bayes nos dice que Pr (Dinero detrás de A|M abrió B) =

    Pr ($ detrás A) × Pr (M abrió B | $ detrás A)/Pr (M abre B)

    Conocemos los valores para los dos ítems en el numerador:

    1. Pr ($ detrás de A): la probabilidad previa de que el dinero esté detrás de la puerta A es 1/3 (entrando, igualmente bien podría estar detrás de cualquiera de las tres puertas).
    2. Pr (M abrió B|$ detrás de A) es ½ (hay cincuenta o cincuenta posibilidades de que abra ya sea la puerta B o la puerta C, cuando el dinero está detrás de la puerta A).
    3. Pero Pr (M abre B), el número en el denominador, requiere de algún trabajo.

    Para ver el valor del denominador—PR (M abre B) —tenga en cuenta que Monty nunca abrirá la puerta B si el dinero está detrás de B. De ahí que pudiera abrir B exactamente en dos condiciones. Podría abrir B cuando el dinero está detrás de A o podría abrir B cuando el dinero está detrás de C. Entonces,

    Pr (M abre B) = [Pr ($ detrás A) × Pr (M abre B | $ detrás de A)]

    + [Pr ($ detrás de C) × Pr (M opnes B | $ detrás de C)]

    = [1/3 × 1/2] + [1/3 × 1]

    = [1/6] + [1/3]

    = 1/3

    Al enchufar esto al denominador de la Regla de Bayes, obtenemos:

    Pr ($ detrás A | M abierto B) = Pr ($ detrás A) × Pr (M abrió B | $ detrás A)/Pr (M abre B)

    = 1/3 × 1/2/1/2

    = 1/6/1/2

    = 1/3

    Entonces, la probabilidad de que el dinero esté detrás de tu puerta, puerta A, dado que Monty ha abierto la puerta B, es 1/3. Dado que la única otra puerta que queda es la puerta C, la probabilidad de que el dinero esté ahí, dado que Monty abrió la puerta B, debería ser 2/3. Usa la Regla de Bayes para probar que esto es correcto.

    Derivación de la Regla de Bayes

    ¿De dónde viene el teorema de Bayes? Es sencillo derivarlo de nuestras reglas para calcular probabilidades. No hace falta que te preocupes por la derivación, pero aquí es para cualquiera que le gusten esas cosas.

    Pr (A | B) = Pr (A y B)/Pr (B)

    = Pr (A) × Pr (B | A)/Pr (B)

    En aplicaciones reales muchas veces no tenemos conocimiento directo del valor del denominador, Pr (B), pero en muchos casos sí tenemos suficiente información para calcularlo usando la Regla de Probabilidad Total. Esto nos dice que:

    Pr (B) = Pr (B & A) + Pr (B & ~A)

    = [Pr (A) × Pr (B | A)] + [Pr (~A) × Pr (B | ~A)

    Entonces, la versión más útil de la Regla de Bayes suele ser

    Pr (A | B) = Pr (A) × Pr (B | A)/[Pr (A) × Pr (B | A) + [Pr (~A) × Pr (B |~A)]

    La Regla de Bayes puede tomar formas más complejas, pero esto es hasta donde la llevaremos en este libro.


    This page titled 27.5: Apéndice- Probabilidades inversas y regla de Bayes is shared under a CC BY-NC 4.0 license and was authored, remixed, and/or curated by Jason Southworth & Chris Swoyer via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.