Saltar al contenido principal
LibreTexts Español

10.10: Revertir una Probabilidad Condicional- Regla de Bayes

  • Page ID
    150541
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    En muchos casos, sabemosP(A|B)P (A|B)pero realmente queremos saberP(B|A)P (B|A). Esto ocurre comúnmente en los exámenes médicos, donde sabemosP(resultado positivo de la prueba| enfermedad)P (\ text {resultado positivo de la prueba| enfermedad})pero lo que queremos saber esP(enfermedad|resultado positivo de la prueba)P (\ text {enfermedad|resultado positivo de la prueba}). Por ejemplo, algunos médicos recomiendan que los hombres mayores de 50 años se sometan a exámenes de detección mediante una prueba llamada antígeno prostático específico (PSA) para detectar un posible cáncer de próstata. Antes de que se apruebe una prueba para su uso en la práctica médica, el fabricante necesita probar dos aspectos del rendimiento de la prueba. Primero, necesitan mostrar lo sensible que es, es decir, qué tan probable es que encuentre la enfermedad cuando está presente:sensibilidad=P(prueba positiva| enfermedad)\ text {sensibilidad} = P (\ text {prueba positiva| enfermedad}). También necesitan mostrar lo específico que es: es decir, qué tan probable es que dé un resultado negativo cuando no hay enfermedad presente:especificidad=P(prueba negativa|ninguna enfermedad)\ text {especificidad} = P (\ text {prueba negativa|sin enfermedad}). Para la prueba de PSA, sabemos que la sensibilidad es de aproximadamente 80% y la especificidad es de aproximadamente 70%. Sin embargo, estos no responden a la pregunta que el médico quiere responder para ningún paciente en particular: ¿cuál es la probabilidad de que realmente tengan cáncer, dado que la prueba vuelve positiva? Esto requiere que invertimos la probabilidad condicional que define la sensibilidad: en lugar deP (prueba positiva| enfermedad)queremos saberP (enfermedad|prueba positiva).

    Para revertir una probabilidad condicional, podemos usar la regla de Bayes:

    P(B|A)=P(A|B)*P(B)P(A)P (B|A) =\ frac {P (A|B) *P (B)} {P (A)}

    La regla de Bayes es bastante fácil de derivar, con base en las reglas de probabilidad que aprendimos anteriormente en el capítulo (ver el Apéndice para esta derivación).

    Si solo tenemos dos resultados, podemos expresar la regla de Bayes de una manera algo más clara, usando la regla de suma para redefinirP(A)P (A):

    P(A)=P(A|B)*P(B)+P(A|¬B)*P(¬B)P (A) = P (A|B) *P (B) + P (A|\ neg B) *P (\ neg B)

    Usando esto, podemos redefinir la regla de Bayes:

    P(B|A)=P(A|B)*P(B)P(A|B)*P(B)+P(A|¬B)*P(¬B)P (B|A) =\ frac {P (A|B) *P (B)} {P (A|B) *P (B) + P (A|\ neg B) *P (\ neg B)}

    Podemos enchufar los números relevantes en esta ecuación para determinar la probabilidad de que un individuo con un resultado positivo de PSA realmente tenga cáncer, pero tenga en cuenta que para ello, también necesitamos conocer la probabilidad general de cáncer en la persona, a la que a menudo nos referimos como la tasa base. Tomemos a un hombre de 60 años, para quien la probabilidad de cáncer de próstata en los próximos 10 años esP(cancer)=0.058P (\ texto {cáncer}) =0.058. Usando los valores de sensibilidad y especificidad que señalamos anteriormente, podemos calcular la probabilidad del individuo de tener cáncer dado una prueba positiva:

    P(cáncer|prueba)=P(prueba|cáncer)*P(cáncer)P(prueba|cáncer)*P(cáncer)+P(prueba|¬cáncer)*P(¬cáncer)P (\ text {cáncer|prueba}) =\ frac {P (\ text {prueba|cáncer}) *P (\ text {cáncer})} {P (\ text {prueba|cáncer}) *P (\ text {cáncer}) + P (\ text {prueba|}\ neg\ text {cáncer}) *P (\ neg\ text {cáncer})} =0.8*0.0580.8*0.058+0.3*0.942=0.14=\ frac {0.8*0.058} {0.8*0.058 +0.3*0.942} = 0.14Eso es bastante pequeño. ¿Eso te parece sorprendente? Muchas personas lo hacen, y de hecho existe una literatura psicológica sustancial que muestra que las personas descuidan sistemáticamente las tasas base (es decir, la prevalencia general) en sus juicios.


    This page titled 10.10: Revertir una Probabilidad Condicional- Regla de Bayes is shared under a not declared license and was authored, remixed, and/or curated by Russell A. Poldrack via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.