Saltar al contenido principal
Library homepage
 
LibreTexts Español

5.2: Patrones de Inferencia Probable

  • Page ID
    151069
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

     

    Algunos patrones de inferencia probable

    Nos preocupa la probabilidad de alguna condición hipotética. En general, tenemos pruebas de la condición que nunca puede ser absolutamente segura. Nos vemos obligados a evaluar las probabilidades (probabilidades) a partir de la evidencia. Algunos ejemplos típicos:

    Cuadro 5.3.
    HIPÓTESIS EVIDENCIAS
    Éxito laboral Rasgos personales
    Presencia de petróleo Estructuras geológicas
    Funcionamiento de un dispositivo Condición física
    Estado del mercado Condiciones del mercado de prueba
    Presencia de una enfermedad Pruebas para detectar síntomas

    Si\(H\) es el evento la condición hipotética existe y\(E\) es el evento en el que se produce la evidencia, las probabilidades disponibles suelen ser\(P(H)\) (o un valor de probabilidades),\(P(E|H)\), y. Lo que se desea es\(P(H|E)\) o, equivalentemente, las probabilidades\(P(H|E)/P(H^c|E)\). Simplemente usamos la regla de Bayes para invertir la dirección del condicionamiento.

    \(\dfrac{P(H|E)}{P(H^c|E)} = \dfrac{P(E|H)}{P(E|H^c)} \cdot \dfrac{P(H)}{P(H^c)}\)

    No hay independencia condicional involucrada en este caso.

    Evidencia independiente de la condición hipotética

    Supongamos que hay dos bits de evidencia “independientes”. Ahora la obtención de esta evidencia puede ser “operacionalmente” independiente, pero si ambos ítems se relacionan con la condición hipotética, entonces no pueden ser realmente independientes. La condición asumida suele ser de la forma\(P(E_1|H) = P(E_1|HE_2)\) —si\(H\) ocurre, entonces el conocimiento de\(E_2\) no afecta la probabilidad de\(E_1\). De igual manera, solemos tener\(P(E_1|H^c) = P(E_1|H^cE_2)\). Así\(\{E_1, E_2\}\) ci\(|H\) y\(\{E_1, E_2\}\) ci\(|H^c\).

    Ejemplo\(\PageIndex{1}\) Independent medical tests

    Supongamos que un médico piensa que las probabilidades son 2/1 de que un paciente tenga cierta enfermedad. Ella ordena dos pruebas independientes. Que\(H\) sea el evento que el paciente tenga la enfermedad y\(E_1\) y\(E_2\) sean los eventos que las pruebas sean positivas. Supongamos que la primera prueba tiene probabilidad 0.1 de un falso positivo y probabilidad 0.05 de un falso negativo. La segunda prueba tiene probabilidades 0.05 y 0.08 de falso positivo y falso negativo, respectivamente. Si ambas pruebas son positivas, ¿cuál es la probabilidad posterior de que el paciente tenga la enfermedad?

    Solución

    Suponiendo\(\{E_1, E_2\}\) ci\(|H\) y ci\(|H^c\), trabajamos primero en términos de las probabilidades, luego convertimos a probabilidad.

    \(\dfrac{P(H|E_1 E_2)}{P(H^c|E_1 E_2)} = \dfrac{P(H)}{P(H^c)} \cdot \dfrac{P(E_1E_2|H)}{P(E_1E_2|H^c)} = \dfrac{P(H)}{P(H^c)} \cdot \dfrac{P(E_1|H) P(E_2|H)}{P(E_1|H^c) P(E_2|H^c)}\)

    Los datos son

    \(P(H)/P(H^c) = 2\),\(P(E_1|H) = 0.95\),\(P(E_1|H^c) = 0.1\),\(P(E_2|H) = 0.92\),\(P(E_2|H^c) = 0.05\)

    Sustituyendo valores, obtenemos

    \(\dfrac{P(H|E_1E_2)}{P(H^c|E_1E_2} = 2 \cdot \dfrac{0.95 \cdot 0.92}{0.10 \cdot 0.05} = \dfrac{1748}{5}\)para que\(P(H|E_1E_2) = \dfrac{1748}{1753} = 1 - \dfrac{5}{1753} = 1 - 0.0029\)

    Evidencia de un síntoma

    En ocasiones la evidencia tratada no es evidencia de la condición hipotética, sino de alguna condición que está relacionada estocásticamente. Para fines de exposición, nos referimos a esta condición intermediaria como un síntoma. Consideremos nuevamente los ejemplos anteriores.

    Cuadro 5.4.
    HIPÓTESIS SÍNTOMA EVIDENCIAS
    Éxito laboral Rasgos personales Resultados de pruebas diagnósticas
    Presencia de petróleo Estructuras geológicas Resultados de encuestas geofísicas
    Funcionamiento de un dispositivo Condición física Informe de seguimiento
    Estado del mercado Condiciones del mercado de prueba Resultado de la encuesta de mercado
    Presencia de una enfermedad Síntoma físico Prueba de síntomas

    Dejamos que\(S\) sea el evento el síntoma está presente. El caso habitual es que la evidencia está directamente relacionada con el síntoma y no con la condición hipotética. Los resultados de la prueba diagnóstica pueden decir algo sobre los rasgos personales de un solicitante, pero no pueden tratar directamente con la condición hipotética. Los resultados de la prueba serían los mismos independientemente de que el candidato tenga éxito o no en el trabajo (todavía no tiene el trabajo). Un levantamiento geofísico aborda ciertas características estructurales debajo de la superficie. Si se presenta una falla o una cúpula de sal, los resultados geofísicos son los mismos tanto si hay aceite presente como si no. El reporte de monitoreo físico trata de ciertas características físicas. Su lectura es la misma independientemente de que el dispositivo falle o no. Una encuesta de mercado trata solo la condición en el mercado de prueba. Los resultados dependen del mercado de pruebas, no del mercado nacional. Un análisis de sangre puede ser para ciertas condiciones físicas que frecuentemente están relacionadas (al menos estadísticamente) con la enfermedad. Pero el resultado del análisis de sangre para la condición física no se ve afectado directamente por la presencia o ausencia de la enfermedad.

    Bajo condiciones de este tipo, podemos asumir

    \(P(E|SH) = P(E|SH^c)\)y\(P(E|S^cH) = P(E|S^cH^c)\)

    Estos implican\(\{E, H\}\) ci\(|S\) y ci\(|S^c\). Ahora

    \(\dfrac{P(H|E)}{P(H^c|E)} = \dfrac{P(HE)}{P(H^cE)} = \dfrac{P(HES) + P(HES^c)}{P(H^cES) + P(H^c E S^c)} = \dfrac{P(HS) P(E|HS) + P(HS^c) P(E|HS^c)}{P(H^cS)P(E|H^cS) + P(H^cS^c) P(E|H^cS^c)}\)

    \(=\dfrac{P(HS) P(E|S) P(HS^c) P(E|S^c)}{P(H^cS) P(E|S) + P(H^cS^c) P(E|S^c)}\)

    Cabe señalar que cada término en el denominador difiere del término correspondiente en el numerador por tener\(H^c\) en lugar de\(H\). Antes de completar el análisis, es necesario considerar cómo\(H\) y\(S\) se relacionan estocásticamente en los datos. Se pueden considerar cuatro casos.

     
    Los datos son\(P(S|H)\),\(P(S|H^c)\), y\(P(H)\).
    Los datos son\(P(S|H)\),\(P(S|H^c)\), y\(P(S)\).
    Los datos son\(P(H|S)\),\(P(H|S^c)\), y\(P(S)\).
    Los datos son\(P(H|S)\),\(P(H|S^c)\), y\(P(H)\).
     
    Caso a:
     
    \ dfrac {P (H|S)} {P (H^c|s)} =\ dfrac {P (H) P (S|H) P (E|S) + P (H) P (S^C|H) P (E|s^C)} {P (H^C) P (S|H^C) P (E|S) + P (H^C) P (S^C|H^C) P (E|s^C)}\)
     

    Ejemplo\(\PageIndex{2}\) Geophysical survey

    \(H\)Sea el evento de un pozo petrolero exitoso,\(S\) sea el evento que exista una estructura geofísica favorable a la presencia de petróleo, y\(E\) sea el evento que el levantamiento geofísico indique una estructura favorable. Suponemos\(\{H, E\}\) ci\(|S\) y ci\(|S^c\). Los datos son

    \(P(H)/P(H^c) = 3\),\(P(S|H) = 0.92\),\(P(S|H^c) = 0.20\),\(P(E|S) = 0.95\),\(P(E|S^c) = 0.15\)

    Entonces

    \(\dfrac{P(H|E)}{P(H^c|E)} = 3 \cdot \dfrac{0.92 \cdot 0.95 + 0.08 \cdot 0.15}{0.20 \cdot 0.95 + 0.80 \cdot 0.15} = \dfrac{1329}{155} = 8.5742\)

    para que\(P(H|E) = 1 - \dfrac{155}{1484}= 0.8956\)

    El resultado geofísico movió las probabilidades previas de 3/1 a las probabilidades posteriores de 8.6/1, con un cambio correspondiente de probabilidades de 0.75 a 0.90.

     
    Caso b: Los datos son\(P(S)\)\(P(S|H)\)\(P(S|H^c)\),\(P(E|S)\), y\(P(E|S^c)\). Si podemos determinar\(P(H)\), podemos proceder como en el caso a. ahora por la ley de probabilidad total

    \(P(S) = P(S|H) P(H) + P(S|H^c)[1 - P(H)]\)

    que puede resolverse algebraicamente para dar

    \(P(H) = \dfrac{P(S) - P(S|H^c)}{P(S|H) - P(S|H^c)}\)

    Ejemplo\(\PageIndex{3}\) Geophysical survey revisited

    En muchos casos se\(P(S)/P(S^c)\) puede hacer una mejor estimación\(P(S)\) o las probabilidades sobre la base de datos geofísicos previos. Supongamos que las probabilidades previas para\(S\) son 3/1, así que eso\(P(S) = 0.75\). Usando los otros datos en Ejemplo, tenemos

    \(P(H) = \dfrac{P(S) - P(S|H^c)}{P(S|H) - P(S|H^c)} = \dfrac{0.75-0.20}{0.92-0.20} = 55/72\), de manera que\(\dfrac{\(P(H)}{P(H^c)} = 55/17\)

    Usando el patrón del caso a, tenemos

    \(\dfrac{P(H|E)}{P(H^c|E)} = \dfrac{55}{17} \cdot \dfrac{0.92 \cdot 0.95 + 0.08 \cdot 0.15}{0.20 \cdot 0.95 + 0.80 \cdot 0.15} = \dfrac{4873}{527} = 9.2467\)

    para que\(P(H|E) = 1 - \dfrac{527}{5400} = 0.9024\)

    Generalmente, los datos que relacionan los resultados de las pruebas con los síntomas son de la forma\(P(E|S)\) y\(P(E|S^c)\), o equivalente. Los datos que relacionan el síntoma y la condición hipotética pueden ir en cualquier dirección. En los casos a y b, los datos están en la forma\(P(S|H)\) y\(P(S|H^c)\), o equivalente, derivados de datos que muestran la fracción de veces que se anota el síntoma cuando se identifica la condición hipotética. Pero estos datos pueden ir en la dirección opuesta, cediendo\(P(H|S)\) y\(P(H|S^c)\), o equivalente. Esta es la situación en los casos c y d.

    Datos c: Los datos son\(P(E|S)\)\(P(E|S^c)\),\(P(H|S)\),\(P(H|S^c)\) y\(P(S)\).

    Ejemplo\(\PageIndex{4}\) Evidence for a disease symptom with prior P(S)

    Cuando se observa cierto síndrome de la sangre, se indica una enfermedad determinada el 93 por ciento de las veces. La enfermedad se encuentra sin este síndrome sólo el tres por ciento de las veces. Una prueba para el síndrome tiene probabilidad 0.03 de un falso positivo y 0.05 de un falso negativo. Un examen preliminar indica una probabilidad 0.30 de que un paciente tenga el síndrome. Se realiza una prueba; el resultado es negativo. ¿Cuál es la probabilidad de que el paciente tenga la enfermedad?

    Solución

    En términos de la notación anterior, los datos son

    \(P(S) = 0.30\),\(P(E|S^c) = 0.03\),\(P(E^c|S) = 0.05\)

    \(P(H|S) = 0.93\), y\(P(H|S^c) = 0.03\)

    Suponemos\(\{H, E\}\) ci\(|S\) y ci\(|S^c\).

    \(\dfrac{P(H|E^c)}{P(H^c|E^c)} = \dfrac{P(S) P(H|S) P(E^c|S) + P(S^c) P(H|S^c) P(E^c|S^c)}{P(S) P(H^c|S) P(E^c|s) + P(S^c)P(H^c|S^c) P(E^c|S^c)}\)

    \(=\dfrac{0.30 \cdot 0.93 \cdot 0.05 + 0.07 \cdot 0.03 \cdot 0.97}{0.30 \cdot 0.07 \cdot 0.05 + 0.70 \cdot 0.97 \cdot 0.97} = \dfrac{429}{8246}\)

    lo que implica\(P(H|E^c) = 429/8675 \approx 0.05\)

    Caso d: Esto difiere del caso c sólo en el hecho de que\(H\) se asume una probabilidad previa para. En este caso, determinamos la probabilidad correspondiente para\(S\) por

    \(P(S) = \dfrac{P(H) - P(H|S^c)}{P(H|S) - P(H|S^c)}\)

    y utilizar el patrón de caso c.

    Ejemplo\(\PageIndex{5}\) Evidence for a disease symptom with prior P(h)

    Supongamos que para el paciente en Ejemplo el médico estima que las probabilidades que favorecen la presencia de la enfermedad son 1/3, de manera que eso\(P(H) = 0.25\). Nuevamente, el resultado de la prueba es negativo. Determinar las probabilidades posteriores, dadas\(E^c\).

    Solución

    Primero determinamos

    \(P(S) = \dfrac{P(H) - P(H|S^c)}{P(H|S) - P(H|S^c)} = \dfrac{0.25 - 0.03}{0.93 - 0.03} = 11/45\)

    Entonces

    \(\dfrac{P(H|E^c)}{P(H^c|E^c)} = \dfrac{(11/45) \cdot 0.93 \cdot 0.05 + (34/45) \cdot 0.03 \cdot 0.97}{(11/45) \cdot 0.07 \cdot 0.05 + (34/45) \cdot 0.97 \cdot 0.97} = \dfrac{15009}{320291} = 0.047\)

    El resultado de la prueba baja las probabilidades previas de 1/3 a aproximadamente 1/21.

    Evidencia independiente de un síntoma

    En los casos anteriores, consideramos solo un único elemento de evidencia para un síntoma. Pero puede ser deseable tener una “segunda opinión”. Suponemos que las pruebas son para el síntoma y no están directamente relacionadas con la condición hipotética. Si las pruebas son operacionalmente independientes, podríamos suponer razonablemente

    \(P(E_1|SE_2) = P(E_1 |SE_2^c)\)\(\{E_1, E_2\}\)ci\(|S\)
    \(P(E_1|SH) = P(E_1|SH^c)\)\(\{E_1, H\}\)\(|S\)
    \(P(E_2|SH) = P(E_2|SH^c)\)\(\{E_2, H\}\) ci\(|S\)
    \(P(E_1E_2|SH) = P(E_1E_2|SH^c)\)\(\{E_1, E_2, H\}\) ci\(|S\)

    Esto implica\(\{E_1, E_2, H\}\) ci\(|S\). Una condición similar se mantiene para\(S^c\). En cuanto a una sola prueba, hay cuatro casos, dependiendo del empate entre\(S\) y\(H\). Consideramos un “caso un” ejemplo.

    Ejemplo\(\PageIndex{6}\) A market survey problem

    Una empresa de alimentos planea comercializar a nivel nacional un nuevo cereal para el desayuno. Sus ejecutivos se sienten seguros de que las probabilidades son de al menos 3 a 1 el producto sería exitoso. Antes de lanzar el nuevo producto, la compañía decide investigar un mercado de pruebas. La experiencia previa indica que la confiabilidad del mercado de pruebas es tal que si el mercado nacional es favorable, hay probabilidad 0.9 de que el mercado de prueba también lo sea. Por otro lado, si el mercado nacional es desfavorable, existe una probabilidad de sólo 0.2 de que el mercado de prueba sea favorable. Estos hechos llevan al siguiente análisis. Let

    \(H\)ser el evento que el mercado nacional sea favorable (hipótesis)

    \(S\)ser el caso de que el mercado de pruebas sea favorable (síntoma)

    Los datos iniciales son las siguientes probabilidades, basadas en la experiencia pasada:

    • a) Cuotas anteriores:\(P(H)/P(H^c) = 3\)
    • b) Confiabilidad del mercado de pruebas:\(P(S|H) = 0.9\)\(P(S|H^c) = 0.2\)

    Si se supiera que el mercado de pruebas es favorable, deberíamos tener

    \(\dfrac{P(H|S)}{P(H^c|S)} = \dfrac{P(S|H) P(H)}{P(S|H^c)P(H^c)} = \dfrac{0.9}{0.2} \cdot 3 = 13.5\)

    Desafortunadamente, no es factible conocer con certeza el estado del mercado de pruebas. Los tomadores de decisiones de la compañía contratan a dos empresas de encuestas de mercado para realizar encuestas independientes del mercado de pruebas. La confiabilidad de las empresas podrá expresarse de la siguiente manera. Let

    \(E_1\)ser el evento la primera compañía reporta un mercado de pruebas favorable.
    \(E_2\)sea el evento que la segunda compañía reporta un mercado de pruebas favorable.

    A partir de la experiencia previa, la confiabilidad de la evidencia sobre el mercado de prueba (el síntoma) se expresa en las siguientes probabilidades condicionales.

    \(P(E_1|S) = 0.9\)\(P(E_1|S^c) = 0.3\)\(P(E_2|S) = 0.8\)\(B(E_2|S^c) = 0.2\)

    Ambas empresas encuestadoras reportan que el mercado de pruebas es favorable. ¿Cuál es la probabilidad de que el mercado nacional sea favorable, dado este resultado?

    Solución

    Las dos empresas encuestadoras trabajan de manera “operacionalmente independiente”. El reporte de cualquiera de las empresas no se ve afectado por el trabajo de la otra. Además, cada reporte se ve afectado únicamente por la condición del mercado de pruebas, independientemente de cuál sea el mercado nacional. De acuerdo con la discusión anterior, deberíamos poder asumir

    \(\{E_1, E_2, H\}\)ci\(|S\) y\(\{E_1, E_2, H\}\) ci\(S^c\)

    Podemos usar un patrón similar al del Ejemplo 2, de la siguiente manera:

    \(\dfrasc{P(H|E_1 E_2)}{P(H^c |E_1 E_2)} = \dfrac{P(H)}{P(H^c)} \cdot \dfrac{P(S|H) P(E_1|S)P(E_2|S) + P(S^c|H) P(E_1|S^c) P(E_2|S^2)}{P(S|H^c) P(E_1|S) P(E_2|S) + P(S^c|H^c) P(E_1|S^c) P(E_2|S^c)}\)

    \(= 3 \cdot \dfrac{0.9 \cdot 0.9 \cdot 0.8 + 0.1 \cdot 0.3 \cdot 0.2}{0.2 \cdot 0.9 \cdot 0.8 + 0.8 \cdot 0.3 \cdot 0.2} = \dfrac{327}{32} \approx 10.22\)

    en términos de probabilidad posterior, tenemos

    \(P(H|E_1E_2) = \dfrac{327/32}{1 + 327/32} = \dfrac{327}{359} = 1 - \dfrac{32}{359} \approx 0.91\)

    Observamos que las probabilidades que favorecen\(H\), dadas las indicaciones positivas de ambas empresas encuestadas, son 10.2 en comparación con las probabilidades que favorecen a H, dado un mercado de prueba favorable, de 13.5. La diferencia refleja la incertidumbre residual sobre el mercado de prueba después de las encuestas de mercado. Sin embargo, los resultados de las encuestas de mercado incrementan las probabilidades favoreciendo un mercado satisfactorio del anterior 3 al 1 a un posterior 10.2 a 1. En términos de probabilidades, las encuestas de mercado incrementan la probabilidad de un mercado favorable desde el original\(P(H) =0.75\) hasta el posterior\(P(H|E_1 E_2)\). La independencia condicional de los resultados de la encuesta posibilita el uso directo de los datos.

    Un problema de clasificación

    Una población está formada por miembros de dos subgrupos. Se desea formular una batería de preguntas para ayudar a identificar la pertenencia a la subclase de individuos seleccionados al azar en la población. Las preguntas están diseñadas para que para cada individuo las respuestas sean independientes, en el sentido de que las respuestas a cualquier subconjunto de estas preguntas no se vean afectadas y no afecten las respuestas a ningún otro subconjunto de las preguntas. Las respuestas son, sin embargo, afectadas por la pertenencia al subgrupo. Así, nuestro tratamiento de la idependencia condicional sugiere que es razonable suponer que las respuestas son condicionalmente independientes, dada la pertenencia al subgrupo. Considera el siguiente ejemplo numérico.

    Ejemplo\(\PageIndex{7}\) A classification problem

    Se toma una muestra de 125 sujetos de una población que tiene dos subgrupos. Se conoce la pertenencia a subgrupos de cada sujeto de la muestra. A cada individuo se le hace una batería de diez preguntas diseñadas para ser independientes, en el sentido de que la respuesta a cualquiera no se ve afectada por la respuesta a ninguna otra. Los sujetos responden de manera independiente. Los datos sobre los resultados se resumen en la siguiente tabla:

    Cuadro 5.5.
    GRUPO 1 (69 miembros) GRUPO 2 (56 miembros)
    Q No Unc. No Unc.
    1 42 22 5 20 31 5
    2 34 27 8 16 37 3
    3 15 45 9 33 19 4
    4 19 44 6 31 18 7
    5 22 43 4 23 28 5
    6 41 13 15 14 37 5
    7 9 52 8 31 17 8
    8 40 26 3 13 38 5
    9 48 12 9 27 24 5
    10 20 37 12 35 16 5

    Supongamos que los datos representan la población general que consta de estos dos grupos, de manera que los datos puedan ser utilizados para calcular probabilidades y probabilidades condicionales.

    Se entrevistó a varias personas. El resultado de cada entrevista es un “perfil” de respuestas a las preguntas. El objetivo es clasificar a la persona en uno de los dos subgrupos sobre la base del perfil de respuestas.

    Se tomaron los siguientes perfiles.

    • Y, N, Y, N, Y, U, N, U, Y. U
    • N, N, U, N, Y, Y, U, N, N, Y
    • Y, Y, N, Y, U, U, N, N, Y, Y

    Clasificar cada individuo en uno de los subgrupos.

    Solución

    Que\(G_1 =\) el evento de la persona seleccionada sea del grupo 1, y\(G_2 = G_1^c = \) el evento que la persona seleccionada sea del grupo 2. Let

    \(A_i\)= el evento la respuesta a\(i\) la pregunta es “Sí”

    \(B_i\)= el evento la respuesta a\(i\) la pregunta es “No”

    \(C_i\)= el evento la respuesta a la\(i\) pregunta es “Incierto”

    Los datos se toman para significar\(P(A_1|G_1) = 42/69\)\(P(B_3|G_2) = 19/56\),, etc. el perfil

    Y, N, Y, N, Y, U, N, U, Y. U corresponde al suceso\(E = A_1 B_2 A_3 B_4 A_5 C_6 B_7 C_8 A_9 C_{10}\)

    Utilizamos la forma de relación de la regla de Bayes para calcular las probabilidades posteriores

    \(\dfrac{P(G_1|E)}{P(G_2|E)} = \dfrac{P(E|G_1)}{P(E|G_2)} \cdot \dfrac{P(G_1)}{P(G_2)}\)

    Si la relación es mayor a uno, clasifíquelo en el grupo 1; de lo contrario clasifíquelo en el grupo 2 (suponemos que una relación exactamente uno es tan improbable que podamos descuidarla). Debido a la independencia condicional, somos capaces de determinar las probabilidades condicionales

    \(P(E|G_1) = \dfrac{42 \cdot 27 \cdot 15 \cdot 44 \cdot 22 \cdot 15 \cdot 52 \cdot 3 \cdot 48 \cdot 12}{69^{10}}\)y

    \(P(E|G_2) = \dfrac{29 \cdot 37 \cdot 33 \cdot 18 \cdot 23 \cdot 5 \cdot 17 \cdot 5 \cdot 24 \cdot 5}{56^{10}}\)

    Las probabilidades\(P(G_2)/P(G_2) = 69/56\). Encontramos que las probabilidades posteriores son

    \(\dfrac{P(G_1 |E)}{P(G_2|E)} = \dfrac{42 \cdot 27 \cdot 15 \cdot 44 \cdot 22 \cdot 15 \cdot 52 \cdot 3 \cdot 48 \cdot 12}{29 \cdot 37 \cdot 33 \cdot 18 \cdot 23 \cdot 5 \cdot 17 \cdot 5 \cdot 24 \cdot 5} \cdot \dfrac{56^9}{69^9} = 5.85\)

    El factor\(56^{9} /69^{9}\) viene de multiplicar\(56^{10}/69^{10}\) por las probabilidades\(P(G_1)/P(G_2) = 69/56\). Dado que las probabilidades posteriores resultantes que favorecen al Grupo 1 son mayores a uno, clasificamos al encuestado en el grupo 1.

    Si bien los cálculos son simples y directos, son tediosos y propensos a errores. Para hacer posible una solución rápida y fácil, digamos en una situación en la que se realizan entrevistas sucesivas, contamos con varios procedimientos m para realizar los cálculos. Las respuestas a las preguntas normalmente serían designadas por alguna designación como Y para sí, N para no y U para incierto. Para que el procedimiento m funcione, estas respuestas deben estar representadas por números que indiquen las columnas correspondientes en las matrices A y B. Así, en el ejemplo que se está considerando, cada Y debe traducirse en un 1, cada N en un 2, y cada U en un 3. La tarea no es particularmente difícil, pero es mucho más fácil tener MATLAB hacer la traducción así como hacer los cálculos. El siguiente enfoque de dos etapas para resolver el problema funciona bien.

    El primer procedimiento m oddsdf configura la información de frecuencia. Las siguientes cuotas del procedimiento m calculan las probabilidades para un perfil dado. La ventaja de dividirnos en dos m-procedimientos es que podemos configurar los datos una vez, luego llamar repetidamente para los cálculos para diferentes perfiles. Como siempre, es necesario tener los datos en una forma adecuada. El siguiente es un ejemplo en el que los datos se ingresan en términos de frecuencias reales de respuesta.

    % file oddsf4.m
    % Frequency data for classification
    A = [42 22 5; 34 27 8; 15 45 9; 19 44 6; 22 43 4;
         41 13 15; 9 52 8; 40 26 3; 48 12 9; 20 37 12];
    B = [20 31 5; 16 37 3; 33 19 4; 31 18 7; 23 28 5;
         14 37 5; 31 17 8; 13 38 5; 27 24 5; 35 16 5];
    disp('Call for oddsdf')
    

    Ejemplo\(\PageIndex{8}\) Classification using frequency data

    oddsf4              % Call for data in file oddsf4.m
    Call for oddsdf     % Prompt built into data file
    oddsdf              % Call for m-procedure oddsdf
    Enter matrix A of frequencies for calibration group 1  A
    Enter matrix B of frequencies for calibration group 2  B
    Number of questions = 10
    Answers per question = 3
     Enter code for answers and call for procedure "odds"
    y = 1;              % Use of lower case for easier writing
    n = 2;
    u = 3;
    odds                % Call for calculating procedure
    Enter profile matrix E  [y n y n y u n u y u]   % First profile
    Odds favoring Group 1:   5.845
    Classify in Group 1
    odds                % Second call for calculating procedure
    Enter profile matrix E  [n n u n y y u n n y]   % Second profile
    Odds favoring Group 1:   0.2383
    Classify in Group 2
    odds                % Third call for calculating procedure
    Enter profile matrix E  [y y n y u u n n y y]   % Third profile
    Odds favoring Group 1:   5.05
    Classify in Group 1
    

    La característica principal de las probabilidades del procedimiento m es el esquema para seleccionar los números de las\(B\) matrices\(A\) y. Si\(E\) = [\(yynyuunnyy\)], entonces la codificación traduce esto en la matriz numérica real

    [1 1 2 1 3 3 2 2 1 1] usado internamente. Entonces\(A(:, E)\) es una matriz con columnas correspondientes a elementos de\(E\). Por lo tanto

    e = A(:,E)
    e =   42    42    22    42     5     5    22    22    42    42
          34    34    27    34     8     8    27    27    34    34
          15    15    45    15     9     9    45    45    15    15
          19    19    44    19     6     6    44    44    19    19
          22    22    43    22     4     4    43    43    22    22
          41    41    13    41    15    15    13    13    41    41
           9     9    52     9     8     8    52    52     9     9
          40    40    26    40     3     3    26    26    40    40
          48    48    12    48     9     9    12    12    48    48
          20    20    37    20    12    12    37    37    20    20
    

    La entrada\(i\) th en la\(i\) ésima columna es el recuento correspondiente a la respuesta a la\(i\) ésima pregunta. Por ejemplo, la respuesta a la tercera pregunta es N (no), y el recuento correspondiente es la tercera entrada en la columna N (segunda) de\(A\). El elemento en la diagonal en la tercera columna de\(A(:, E)\) es el tercer elemento en esa columna, y de ahí la tercera entrada deseada de la columna N. Al seleccionar los elementos en la diagonal por el comando diag (A (:, E)), tenemos el conjunto deseado de recuentos correspondientes al perfil. Lo mismo es cierto para diag (B (:, E)).

    En ocasiones los datos se dan en términos de probabilidades condicionales y probabilidades. Una ligera modificación del procedimiento maneja este caso. Para fines de comparación, convertimos el problema anterior a esta forma convirtiendo los recuentos en matrices\(A\) y en\(B\) probabilidades condicionales. Esto lo hacemos dividiendo por el conteo total en cada grupo (69 y 56 en este caso). También,\(P(G_1) = 69/125 = 0.552\) y\(P(G_2) = 56/125 = 0.448\).

    Cuadro 5.6.
    GRUPO 1\(P(G_1) = 69/125\) GRUPO 2\(P(G_2) = 56/125\)
    \ (P (G_1) = 69/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">Q No Unc. \ (P (G_2) = 56/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">Si No Unc.
    \ (P (G_1) = 69/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">1 0.6087 0.3188 0.0725 \ (P (G_2) = 56/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">0.3571 0.5536 0.0893
    \ (P (G_1) = 69/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">2 0.4928 0.3913 0.1159 \ (P (G_2) = 56/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">0.2857 0.6607 0.0536
    \ (P (G_1) = 69/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">3 0.2174 0.6522 0.1304 \ (P (G_2) = 56/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">0.5893 0.3393 0.0714
    \ (P (G_1) = 69/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">4 0.2754 0.6376 0.0870 \ (P (G_2) = 56/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">0.5536 0.3214 0.1250
    \ (P (G_1) = 69/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">5 0.3188 0.6232 0.0580 \ (P (G_2) = 56/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">0.4107 0.5000 0.0893
    \ (P (G_1) = 69/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">6 0.5942 0.1884 0.2174 \ (P (G_2) = 56/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">0.2500 0.6607 0.0893
    \ (P (G_1) = 69/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">7 0.1304 0.7536 0.1160 \ (P (G_2) = 56/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">0.5536 0.3036 0.1428
    \ (P (G_1) = 69/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">8 0.5797 0.3768 0.0435 \ (P (G_2) = 56/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">0.2321 0.6786 0.0893
    \ (P (G_1) = 69/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">9 0.6957 0.1739 0.1304 \ (P (G_2) = 56/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-abajo:1px sólido; text-align:left! importante; ">0.4821 0.4286 0.0893
    \ (P (G_1) = 69/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-bottom:0! importante; text-align:left! importante; ">10 0.2899 0.5362 0.1739 \ (P (G_2) = 56/125\)” style="border-left:0! importante; border-top:0! importante; border-derecha:1px sólido; border-bottom:0! importante; text-align:left! importante; ">0.6250 0.2857 0.0893

    Estos datos están en un archivo m oddsp4.m. El procedimiento m de configuración modificado oddsdp usa las probabilidades condicionales, luego llama a las probabilidades m-procedimiento.

    Ejemplo\(\PageIndex{9}\) Calculation using conditional probability data

    oddsp4                 % Call for converted data (probabilities)
    oddsdp                 % Setup m-procedure for probabilities
    Enter conditional probabilities for Group 1  A
    Enter conditional probabilities for Group 2  B
    Probability p1 individual is from Group 1  0.552
     Number of questions = 10
     Answers per question = 3
     Enter code for answers and call for procedure "odds"
    y = 1;
    n = 2;
    u = 3;
    odds
    Enter profile matrix E  [y n y n y u n u y u]
    Odds favoring Group 1:  5.845
    Classify in Group 1
    

    La ligera discrepancia en las probabilidades que favorecen al Grupo 1 (5.8454 frente a 5.8452) puede atribuirse al redondeo de las probabilidades condicionales a cuatro lugares. La presentación anterior redondea los resultados a 5.845 en cada caso, por lo que la discrepancia no es aparente. Esto es bastante aceptable, ya que la discrepancia no afecta los resultados.


    This page titled 5.2: Patrones de Inferencia Probable is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.