Saltar al contenido principal
Library homepage
 
LibreTexts Español

5.1: Independencia Condicional

  • Page ID
    151068
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    5.1. Independencia Condicional *

    La idea de independencia estocástica (probabilística) se explora en la unidad Independencia de los Eventos. El concepto se aborda como falta de condicionamiento:\(P(A|B) = P(A)\). Esto equivale a la regla del producto\(P(AB) = P(A) P(B)\). Consideramos una extensión a la independencia condicional.

    El concepto

    El examen del concepto de independencia revela dos hechos matemáticos importantes:

    • La independencia de una clase de eventos no mutuamente excluyentes depende de la medida de probabilidad, y no de la relación entre los eventos. La independencia no se puede mostrar en un diagrama de Venn, a menos que se indiquen probabilidades. Para una medida de probabilidad, un par puede ser independiente mientras que para otra medida de probabilidad el par puede no ser independiente.
    • La probabilidad condicional es una medida de probabilidad, ya que tiene las tres propiedades definitorias y todas aquellas propiedades derivadas de ellas.

    Esto plantea la pregunta: ¿existe una independencia condicional útil, es decir, independencia con respecto a una medida de probabilidad condicional? En este capítulo exploramos esa cuestión de manera fructífera.

    Entre los ejemplos simples de “independencia operativa” en la unidad sobre independencia de eventos, que conducen naturalmente a una asunción de “independencia probabilística” se encuentran los siguientes:

    • Si los clientes entran en una tienda bien surtida en diferentes momentos, cada uno desconociendo la elección hecha por el otro, el artículo comprado por uno no debe verse afectado por la elección hecha por el otro.
    • Si dos alumnos están tomando exámenes en diferentes cursos, la nota que uno hace no debe afectar la calificación realizada por el otro.

    Ejemplo\(\PageIndex{1}\) Buying umbrellas and the weather

    Una tienda departamental tiene un buen stock de sombrillas. Dos clientes entran a la tienda “independientemente”. Que A sea el evento el primero compra un paraguas y B el evento el segundo compra un paraguas. Normalmente, deberíamos pensar que los eventos {\(A, B\)} forman una pareja independiente. Pero considere el efecto del clima en las compras. Que C sea el evento en el que el clima sea lluvioso (es decir, está lloviendo o amenazando con llover). Ahora debemos pensar\(P(A|C) > P(A|C^c)\) y\(P(B|C) > P(B|C^c)\). El clima tiene un efecto decidido sobre la probabilidad de comprar un paraguas. Pero dado el hecho de que el clima es lluvioso (se ha producido el evento C), parecería razonable que la compra de un paraguas por uno no afecte la probabilidad de tal compra por parte del otro. Por lo tanto, puede ser razonable suponer

    \(P(A|C) = P(A|BC)\)o, en otra notación,\(P_C(A) = P_C(A|B)\)

    Un examen de las dieciséis condiciones equivalentes para la independencia, con medida de probabilidad\(P\) reemplazada por medida de probabilidad\(P_C\), muestra que tenemos independencia del par {\(A, B\)} con respecto a la medida de probabilidad condicional\(P_C(\cdot) = P(\cdot |C)\). Por lo tanto,\(P(A|C^c) = P(A|BC^c)\). Para este ejemplo, también debemos esperar eso\(P(A|C^c = P(A|BC^c)\), para que haya independencia con respecto a la medida de probabilidad condicional\(P(\cdot |C^c)\). ¿Esto hace que el par {\(A, B\)} sea independiente (con respecto a la medida de probabilidad anterior\(P\))? Algunos ejemplos numéricos dejan claro que solo en los casos más inusuales la pareja sería independiente. Sin cálculos, podemos ver por qué esto debería ser así. Si el primer cliente compra un paraguas, esto indica una probabilidad mayor de lo normal de que el clima sea lluvioso, en cuyo caso es probable que el segundo cliente compre. La condición conduce a\(P(B|A) > P(B)\). Considera el siguiente caso numérico. Supongamos\(P(AB|C) = P(A|C)P(B|C)\) y\(P(AB|C^c) = P(A|C^c) P(B|C^c)\) y

    \(P(A|C) = 0.60\),\(P(A|C^c) = 0.20\),\(P(B|C) = 0.50\),\(P(B|C^c) = 0.15\), con\(P(C) = 0.30\).

    Entonces

    \(P(A) = P(A|C) P(C) + P(A|C^c) P(C^c) = 0.3200\)\(P(B) = P(B|C) P(C) + P(B|C^c) P(C^c) = 0.2550\)

    \(P(AB) = P(AB|C) P(C) + P(AB|C^c) P(C^c) = P(A|C) P(B|C) P(C) + P(A|C^c) P(C^c) = 0.1110\)

    Como consecuencia de ello,

    \(P(A) P(B) = 0.0816 \ne 0.1110 = P(AB)\)

    La regla del producto falla, por lo que el par no es independiente. Un examen del patrón de cómputos muestra que la independencia requeriría probabilidades muy especiales que probablemente no se encuentren.

    Ejemplo\(\PageIndex{2}\) Students and exams

    Dos alumnos realizan exámenes en diferentes cursos, En circunstancias normales, uno supondría que sus actuaciones forman una pareja independiente. Que A sea el evento el primer alumno hace grado 80 o mejor y B sea el evento el segundo tiene una calificación de 80 o mejor. El examen se realiza el lunes por la mañana. Es el semestre de otoño. Hay una probabilidad 0.30 de que hubo un partido de fútbol el sábado, y ambos estudiantes son fanáticos entusiastas. Que C sea el evento de un juego el sábado anterior. Ahora es razonable suponer

    \(P(A|C) = P(A|BC)\)y\(P(A|C^c) = P(A|BC^c)\)

    Si sabemos que hubo un juego de sábado, el conocimiento adicional de que se ha producido B no afecta la lielidad que se produzca A. Nuevamente, el uso de condiciones equivalentes muestra que la situación puede expresarse

    \(P(AB|C) = P(A|C) P(B|C)\)y\(P(AB|C^c) = P(A|C^c) P(B|C^c)\)

    Bajo estas condiciones, debemos suponer que\(P(A|C) < P(A|C^c)\) y\(P(B|C) < P(B|C^c)\). Si supiéramos que a uno le fue mal en el examen, esto aumentaría la probabilidad de que hubiera un juego de sábado y de ahí aumentaría la probabilidad de que al otro le fuera mal. La falta de independencia surge de un factor de azar común que afecta a ambos. Aunque sus actuaciones son “operacionalmente” independientes, no son independientes en el sentido de probabilidad. Como ejemplo numérico, supongamos

    \(P(A|C) = 0.7\)\(P(A|C^c) = 0.9\)\(P(B|C) = 0.6\)\(P(B|C^c) = 0.8\)\(P(C) = 0.3\)

    Los cálculos sencillos muestran\(P(A) = 0.8400\),\(P(B) = 0.7400\),\(P(AB) = 0.6300\). Obsérvese que\(P(A|B) = 0.8514 > P(A)\) como se esperaría.

    Dieciséis condiciones equivalentes

    Utilizando los hechos sobre el condicionamiento repetido y las condiciones equivalentes para la independencia, podemos producir una tabla similar de condiciones equivalentes para la independencia condicional. En la notación híbrida que usamos para condicionamiento repetido, escribimos

    \(P_C(A|B) = P_C(A)\)o\(P_C(AB) = P_C(A)P_C(B)\)

    Esto se traduce en

    \(P(A|BC) = P(A|C)\)o\(P(AB|C) = P(A|C) P(B|C)\)

    Si se sabe que\(C\) ha ocurrido, entonces el conocimiento adicional de la ocurrencia de\(B\) no cambia la probabilidad de\(A\).

    Si escribimos las dieciséis condiciones equivalentes para la independencia en términos de la medida de probabilidad condicional\(P_C(\cdot)\), luego traducimos como arriba, tenemos las siguientes condiciones equivalentes.

    Cuadro 5.1. Dieciséis condiciones equivalentes
    \(P(A|BC) = P(A|C)\) \(P(B|AC) = P(B|C)\) \(P(AB|C) = P(A|C) P(B|C)\)
    \(P(A|B^c C)\)= P (A|C)\) \(P(B^c|AC) = P(B^c|C)\) \(P(AB^c|C) = P(A|C) P(B^c|C)\)
    \(P(A^c| BC) = P(A^c|C)\) \(P(B|A^c C) = P(B|C)\) \(P(A^cB|C) = P(A^c|C) P(B|C)\)
    \(P(A^c|B^cC) = P(a^c|C)\) \(P(B^c|A^cC) = P(B^c|C)\) \(P(A^cB^c|C) = P(A^c|C) P(B^c|C)\)

     

    Cuadro 5.2.
    \(P(A|BC) = P(A|B^c C)\) \(P(A^c|B^cC) = P(A^c|B^c C)\) \(P(B|AC) = P(B|A^cC)\) \(P(B^c|AC) = P(B^c|A^cC)\)

    Los patrones de condicionamiento en los ejemplos anteriores pertenecen a este conjunto. En un problema dado, una u otra de estas condiciones puede parecer una suposición razonable. Tan pronto como se reconoce uno de estos patrones, entonces todos son supuestos igualmente válidos. Por su simplicidad y simetría, tomamos como condición definitoria la regla del producto\(P(AB|C) = P(A|C) = P(B|C)\).

    Definición

    Se dice que un par de eventos {\(A, B\)} son condicionalmente independientes, dado C, designado {\(A, B\)} si se mantiene la siguiente regla de producto:\(P(AB|C) = P(A|C) P(B|C)\).

    La equivalencia de las cuatro entradas en la columna derecha de la parte superior de la tabla, establecer

    La regla de reemplazo

    Si alguno de los pares {\(A, B\)}, {\(A, B^c\)}, {\(A^c, B\)} o {\(A^c, B^c\)} es condicionalmente independiente, dado C, entonces también lo son los demás.

    — □

    Esto se puede expresar diciendo que si un par es condicionalmente independiente, podemos reemplazar uno o ambos por sus complementos y seguir teniendo un par condicionalmente independiente.

    Para ilustrar más la utilidad de este concepto, observamos algunos otros ejemplos comunes en los que se mantienen condiciones similares: existe la independencia operativa, pero algún factor de probabilidad que afecta a ambos.

    • Dos contratistas trabajan de manera bastante independiente en trabajos en la misma ciudad. La independencia operativa sugiere independencia probabilística. No obstante, ambos trabajos están fuera y sujetos a retrasos debido al mal tiempo. Supongamos que A es el evento en el que el primer contracter completa su trabajo a tiempo y B es el evento que el segundo completa a tiempo. Si C es el evento de “buen” clima, entonces argumentos similares a los de los Ejemplos 1 y 2 hacen que parezca razonable suponer {\(A, B\)} ci\(|C\) y {\(A, B\)} ci\(|C^c\). OBLACIÓN. En la teoría formal de la probabilidad, un evento debe definirse claramente: en cualquier juicio ocurre o no ocurre. El evento de “buen tiempo” no está tan claramente definido. ¿Un rastro de lluvia o trueno en la zona constituyó mal tiempo? ¿El retraso de la lluvia en un proyecto de un día en un mes de duración constituyó mal tiempo? Incluso con esta ambigüedad, el patrón de análisis probabilístico puede ser útil.
    • Un paciente acude a un médico. Un examen preliminar lleva al médico a pensar que hay un treinta por ciento de probabilidades de que el paciente tenga cierta enfermedad. El médico ordena dos pruebas independientes para detectar afecciones que indiquen la enfermedad. ¿Los resultados de estas pruebas son realmente independientes? Ciertamente hay independencia operativa: las pruebas pueden ser realizadas por diferentes laboratorios, ni conscientes de las pruebas por los demás. Sin embargo, si las pruebas son significativas, ambas deben verse afectadas por el estado real del paciente. Supongamos que D es el evento en el que el paciente tiene la enfermedad, A es el evento en el que la primera prueba es positiva (indica las condiciones asociadas a la enfermedad) y B es el evento en que la segunda prueba es positiva. Entonces parecería razonable suponer {\(A, B\)} ci\(|D\) y {\(A, B\)} ci\(|D^c\).

    En los ejemplos considerados hasta el momento, ha sido razonable asumir la independencia condicional, dado un evento C, y la independencia condicional, dado el suceso complementario. Pero hay casos en los que el efecto del evento condicionamiento es asimétrico. Consideramos varios ejemplos.

    • Dos estudiantes están trabajando en un trabajo de término. Trabajan bastante por separado. Ambos necesitan tomar prestado cierto libro de la biblioteca. Que C sea el evento en que la biblioteca tenga dos ejemplares disponibles. Si A es el evento el primero se completa a tiempo y B el evento el segundo es exitoso, entonces parece razonable asumir {\(A, B\)} ci\(|C\). No obstante, si solo se dispone de un libro, entonces las dos condiciones no serían condicionalmente independientes. En general\(P(B|AC^c) < P(B|C^c)\), ya que si el primer alumno completa a tiempo, entonces debió haber tenido éxito en conseguir el libro, en detrimento del segundo.
    • Si los dos contratistas del ejemplo anterior necesitan ambos material que puede estar en escaso suministro, entonces la terminación exitosa sería condicionalmente independiente, daría un suministro adecuado, mientras que no serían condicionalmente independientes, dado un escaso suministro.
    • Dos alumnos del mismo curso toman un examen. Si se preparaban por separado, el evento de que ambos obtuvieran buenas calificaciones debería ser condicionalmente independiente. Si estudian juntos, entonces las probabilidades de tener buenas calificaciones no serían independientes. Sin hacer trampa ni colaborar en la propia prueba, si a uno le va bien, al otro también debería.

    Dado que la independencia condicional es la independencia ordinaria con respecto a una medida de probabilidad condicional, debe quedar claro cómo extender el concepto a clases de conjuntos más grandes.

    Definición

    Una clase\(\{A_i: i \in J\}\), donde\(J\) es un conjunto de índices arbitrarios, es condicionalmente independiente, dado evento\(C\), denotado\(\{A_i: i \in J\}\) ci\(|C\), iff la regla de producto tiene para cada subclase finita de dos o más.

    Al igual que en el caso de la simple independencia, la regla de reemplazo se extiende.

    La regla de reemplazo

    Si la clase\(\{A_i: i \in J\}\) ci\(|C\), entonces cualquiera o todos los eventos A i pueden ser reemplazados por sus complementos y aún así tener una clase condicionalmente independiente.

    El uso de técnicas de independencia

    Dado que la independencia condicional es independencia, podemos utilizar técnicas de independencia en la solución de problemas. Consideramos dos tipos de problemas: un problema de inferencia y una secuencia condicional de Bernoulli.

    Ejemplo\(\PageIndex{3}\) Use of independence techniques

    Sharon está investigando un emprendimiento comercial que cree que tiene una probabilidad 0.7 de tener éxito. Ella verifica con cinco asesores “independientes”. Si los prospectos son sólidos, las probabilidades son 0.8, 0.75, 0.6, 0.9 y 0.8 que los asesores le asesoren para proceder; si la aventura no es sólida, las probabilidades respectivas son 0.75, 0.85, 0.7, 0.9, y 0.7 que la asesoría sea negativa. Dada la calidad del proyecto, los asesores son independientes unos de otros en el sentido de que nadie se ve afectado por los demás. Por supuesto, no son independientes, pues todos están relacionados con la solidez de la empresa. Podemos asumir razonablemente la independencia condicional de la asesoría, dado que la empresa es sólida y también dado que la empresa no es sólida. Si Sharon va con la mayoría de los asesores, ¿cuál es la probabilidad de que tome la decisión correcta?

    Solución

    Si el proyecto es sólido, Sharon toma la decisión correcta si tres o más de los cinco asesores son positivos. Si la empresa no es sólida, toma la decisión correcta si tres o más de los cinco asesores son negativos. Que\(H = \) el evento el proyecto sea sólido,\(F = \) el evento tres o más asesores sean positivos,\(G = F^c = \) el evento tres o más sean negativos, y\(E =\) el evento de la decisión correcta. Entonces

    \(P(E) = P(FH) + P(GH^c) = P(F|H) P(H) + P(G|H^c) P(H^c)\)

    \(E_i\)Sea el evento el asesor\(i\) th es positivo. Después\(P(F|H) = \) la suma de probabilidades de la forma\(P(M_k|H)\), donde\(M_k\) son minterms generados por la clase\(\{E_i : 1 \le i \le 5\}\). Debido a la supuesta independencia condicional,

    \(P(E_1 E_2^c E_3^c E_4 E_5|H) = P(E_1|H) P(E_2^c|H) P(E_3^c|H) P(E_4|H) P(E_5|H)\)

    con expresiones similares para cada uno\(P(M_k|H)\) y\(P(M_k|H^c)\). Esto significa que si queremos la probabilidad de tres o más éxitos, dado\(H\), podemos usar ckn con la matriz de probabilidades condicionales. Se indica la siguiente solución MATLAB del problema de inversión.

    P1 = 0.01*[80 75 60 90 80];
    P2 = 0.01*[75 85 70 90 70];
    PH = 0.7;
    PE = ckn(P1,3)*PH + ckn(P2,3)*(1 - PH)
    PE =    0.9255
    

    A menudo, una secuencia de Bernoulli se relaciona con algún evento condicionamiento H. En este caso es razonable asumir la secuencia\(\{E_i : 1 \le i \le n\}\) ci\(|H\) y ci\(|H^c\). Consideramos un ejemplo sencillo.

    Ejemplo\(\PageIndex{4}\) Test of a claim

    Un regular de pista de carreras afirma que puede elegir al caballo ganador en cualquier carrera el 90 por ciento del tiempo. Para poner a prueba su afirmación, elige un caballo para ganar en cada una de las diez carreras. Hay cinco caballos en cada carrera. Si simplemente está adivinando, la probabilidad de éxito en cada carrera es de 0.2. Considera que los ensayos constituyen una secuencia de Bernoulli. \(H\)Sea el suceso que tenga razón en su reclamo. Si\(S\) es el número de éxitos en la selección de los ganadores en las diez carreras, determine\(P(H|S = k)\) para varios números\(k\) de selecciones correctas. Supongamos que es igualmente probable que su reclamo sea válido o que simplemente esté adivinando. Asumimos dos juicios condicionales de Bernoulli:

    reclamo es válido: Diez juicios, probabilidad\(p = P(E_i | H) = 0.9\).

    Adivinar al azar: Diez ensayos, probabilidad\(p = P(E_i|H^c) = 0.2\).

    Dejar\(S=\) número de selecciones correctas en diez ensayos. Entonces

    \(\dfrac{P(H|S = k}{P(H^c|S = k)} = \dfrac{P(H)}{P(H^c)} \cdot \dfrac{P(S = k|H)}{P(S = k|H^c)}\),\(0 \le k \le 10\)

    Dándole el beneficio de la duda, suponemos\(P(H)/P(H^c) = 1\) y calculamos las cuotas condicionales.

    k = 0:10;
    Pk1 = ibinom(10,0.9,k);    % Probability of k successes, given H
    Pk2 = ibinom(10,0.2,k);    % Probability of k successes, given H^c
    OH  = Pk1./Pk2;            % Conditional odds-- Assumes P(H)/P(H^c) = 1
    e   = OH > 1;              % Selects favorable odds
    disp(round([k(e);OH(e)]'))
               6           2      % Needs at least six to have creditability
               7          73      % Seven would be creditable,
               8        2627      % even if P(H)/P(H^c) = 0.1
               9       94585
              10     3405063

    Bajo estos supuestos, tendría que elegir al menos siete correctamente para dar una validación razonable de su reclamo.


    This page titled 5.1: Independencia Condicional is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.