Saltar al contenido principal

# 5.1: Independencia Condicional

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$

## 5.1. Independencia Condicional *

La idea de independencia estocástica (probabilística) se explora en la unidad Independencia de los Eventos. El concepto se aborda como falta de condicionamiento:$$P(A|B) = P(A)$$. Esto equivale a la regla del producto$$P(AB) = P(A) P(B)$$. Consideramos una extensión a la independencia condicional.

### El concepto

El examen del concepto de independencia revela dos hechos matemáticos importantes:

• La independencia de una clase de eventos no mutuamente excluyentes depende de la medida de probabilidad, y no de la relación entre los eventos. La independencia no se puede mostrar en un diagrama de Venn, a menos que se indiquen probabilidades. Para una medida de probabilidad, un par puede ser independiente mientras que para otra medida de probabilidad el par puede no ser independiente.

Esto plantea la pregunta: ¿existe una independencia condicional útil, es decir, independencia con respecto a una medida de probabilidad condicional? En este capítulo exploramos esa cuestión de manera fructífera.

Entre los ejemplos simples de “independencia operativa” en la unidad sobre independencia de eventos, que conducen naturalmente a una asunción de “independencia probabilística” se encuentran los siguientes:

• Si los clientes entran en una tienda bien surtida en diferentes momentos, cada uno desconociendo la elección hecha por el otro, el artículo comprado por uno no debe verse afectado por la elección hecha por el otro.
• Si dos alumnos están tomando exámenes en diferentes cursos, la nota que uno hace no debe afectar la calificación realizada por el otro.

Ejemplo$$\PageIndex{1}$$ Buying umbrellas and the weather

Una tienda departamental tiene un buen stock de sombrillas. Dos clientes entran a la tienda “independientemente”. Que A sea el evento el primero compra un paraguas y B el evento el segundo compra un paraguas. Normalmente, deberíamos pensar que los eventos {$$A, B$$} forman una pareja independiente. Pero considere el efecto del clima en las compras. Que C sea el evento en el que el clima sea lluvioso (es decir, está lloviendo o amenazando con llover). Ahora debemos pensar$$P(A|C) > P(A|C^c)$$ y$$P(B|C) > P(B|C^c)$$. El clima tiene un efecto decidido sobre la probabilidad de comprar un paraguas. Pero dado el hecho de que el clima es lluvioso (se ha producido el evento C), parecería razonable que la compra de un paraguas por uno no afecte la probabilidad de tal compra por parte del otro. Por lo tanto, puede ser razonable suponer

$$P(A|C) = P(A|BC)$$o, en otra notación,$$P_C(A) = P_C(A|B)$$

Un examen de las dieciséis condiciones equivalentes para la independencia, con medida de probabilidad$$P$$ reemplazada por medida de probabilidad$$P_C$$, muestra que tenemos independencia del par {$$A, B$$} con respecto a la medida de probabilidad condicional$$P_C(\cdot) = P(\cdot |C)$$. Por lo tanto,$$P(A|C^c) = P(A|BC^c)$$. Para este ejemplo, también debemos esperar eso$$P(A|C^c = P(A|BC^c)$$, para que haya independencia con respecto a la medida de probabilidad condicional$$P(\cdot |C^c)$$. ¿Esto hace que el par {$$A, B$$} sea independiente (con respecto a la medida de probabilidad anterior$$P$$)? Algunos ejemplos numéricos dejan claro que solo en los casos más inusuales la pareja sería independiente. Sin cálculos, podemos ver por qué esto debería ser así. Si el primer cliente compra un paraguas, esto indica una probabilidad mayor de lo normal de que el clima sea lluvioso, en cuyo caso es probable que el segundo cliente compre. La condición conduce a$$P(B|A) > P(B)$$. Considera el siguiente caso numérico. Supongamos$$P(AB|C) = P(A|C)P(B|C)$$ y$$P(AB|C^c) = P(A|C^c) P(B|C^c)$$ y

$$P(A|C) = 0.60$$,$$P(A|C^c) = 0.20$$,$$P(B|C) = 0.50$$,$$P(B|C^c) = 0.15$$, con$$P(C) = 0.30$$.

Entonces

$$P(A) = P(A|C) P(C) + P(A|C^c) P(C^c) = 0.3200$$$$P(B) = P(B|C) P(C) + P(B|C^c) P(C^c) = 0.2550$$

$$P(AB) = P(AB|C) P(C) + P(AB|C^c) P(C^c) = P(A|C) P(B|C) P(C) + P(A|C^c) P(C^c) = 0.1110$$

Como consecuencia de ello,

$$P(A) P(B) = 0.0816 \ne 0.1110 = P(AB)$$

La regla del producto falla, por lo que el par no es independiente. Un examen del patrón de cómputos muestra que la independencia requeriría probabilidades muy especiales que probablemente no se encuentren.

Ejemplo$$\PageIndex{2}$$ Students and exams

Dos alumnos realizan exámenes en diferentes cursos, En circunstancias normales, uno supondría que sus actuaciones forman una pareja independiente. Que A sea el evento el primer alumno hace grado 80 o mejor y B sea el evento el segundo tiene una calificación de 80 o mejor. El examen se realiza el lunes por la mañana. Es el semestre de otoño. Hay una probabilidad 0.30 de que hubo un partido de fútbol el sábado, y ambos estudiantes son fanáticos entusiastas. Que C sea el evento de un juego el sábado anterior. Ahora es razonable suponer

$$P(A|C) = P(A|BC)$$y$$P(A|C^c) = P(A|BC^c)$$

Si sabemos que hubo un juego de sábado, el conocimiento adicional de que se ha producido B no afecta la lielidad que se produzca A. Nuevamente, el uso de condiciones equivalentes muestra que la situación puede expresarse

$$P(AB|C) = P(A|C) P(B|C)$$y$$P(AB|C^c) = P(A|C^c) P(B|C^c)$$

Bajo estas condiciones, debemos suponer que$$P(A|C) < P(A|C^c)$$ y$$P(B|C) < P(B|C^c)$$. Si supiéramos que a uno le fue mal en el examen, esto aumentaría la probabilidad de que hubiera un juego de sábado y de ahí aumentaría la probabilidad de que al otro le fuera mal. La falta de independencia surge de un factor de azar común que afecta a ambos. Aunque sus actuaciones son “operacionalmente” independientes, no son independientes en el sentido de probabilidad. Como ejemplo numérico, supongamos

$$P(A|C) = 0.7$$$$P(A|C^c) = 0.9$$$$P(B|C) = 0.6$$$$P(B|C^c) = 0.8$$$$P(C) = 0.3$$

Los cálculos sencillos muestran$$P(A) = 0.8400$$,$$P(B) = 0.7400$$,$$P(AB) = 0.6300$$. Obsérvese que$$P(A|B) = 0.8514 > P(A)$$ como se esperaría.

### Dieciséis condiciones equivalentes

Utilizando los hechos sobre el condicionamiento repetido y las condiciones equivalentes para la independencia, podemos producir una tabla similar de condiciones equivalentes para la independencia condicional. En la notación híbrida que usamos para condicionamiento repetido, escribimos

$$P_C(A|B) = P_C(A)$$o$$P_C(AB) = P_C(A)P_C(B)$$

$$P(A|BC) = P(A|C)$$o$$P(AB|C) = P(A|C) P(B|C)$$

Si se sabe que$$C$$ ha ocurrido, entonces el conocimiento adicional de la ocurrencia de$$B$$ no cambia la probabilidad de$$A$$.

Si escribimos las dieciséis condiciones equivalentes para la independencia en términos de la medida de probabilidad condicional$$P_C(\cdot)$$, luego traducimos como arriba, tenemos las siguientes condiciones equivalentes.

 $$P(A|BC) = P(A|C)$$ $$P(B|AC) = P(B|C)$$ $$P(AB|C) = P(A|C) P(B|C)$$ $$P(A|B^c C)$$= P (A|C)\) $$P(B^c|AC) = P(B^c|C)$$ $$P(AB^c|C) = P(A|C) P(B^c|C)$$ $$P(A^c| BC) = P(A^c|C)$$ $$P(B|A^c C) = P(B|C)$$ $$P(A^cB|C) = P(A^c|C) P(B|C)$$ $$P(A^c|B^cC) = P(a^c|C)$$ $$P(B^c|A^cC) = P(B^c|C)$$ $$P(A^cB^c|C) = P(A^c|C) P(B^c|C)$$

 $$P(A|BC) = P(A|B^c C)$$ $$P(A^c|B^cC) = P(A^c|B^c C)$$ $$P(B|AC) = P(B|A^cC)$$ $$P(B^c|AC) = P(B^c|A^cC)$$

Los patrones de condicionamiento en los ejemplos anteriores pertenecen a este conjunto. En un problema dado, una u otra de estas condiciones puede parecer una suposición razonable. Tan pronto como se reconoce uno de estos patrones, entonces todos son supuestos igualmente válidos. Por su simplicidad y simetría, tomamos como condición definitoria la regla del producto$$P(AB|C) = P(A|C) = P(B|C)$$.

Definición

Se dice que un par de eventos {$$A, B$$} son condicionalmente independientes, dado C, designado {$$A, B$$} si se mantiene la siguiente regla de producto:$$P(AB|C) = P(A|C) P(B|C)$$.

La equivalencia de las cuatro entradas en la columna derecha de la parte superior de la tabla, establecer

La regla de reemplazo

Si alguno de los pares {$$A, B$$}, {$$A, B^c$$}, {$$A^c, B$$} o {$$A^c, B^c$$} es condicionalmente independiente, dado C, entonces también lo son los demás.

— □

Esto se puede expresar diciendo que si un par es condicionalmente independiente, podemos reemplazar uno o ambos por sus complementos y seguir teniendo un par condicionalmente independiente.

Para ilustrar más la utilidad de este concepto, observamos algunos otros ejemplos comunes en los que se mantienen condiciones similares: existe la independencia operativa, pero algún factor de probabilidad que afecta a ambos.

• Dos contratistas trabajan de manera bastante independiente en trabajos en la misma ciudad. La independencia operativa sugiere independencia probabilística. No obstante, ambos trabajos están fuera y sujetos a retrasos debido al mal tiempo. Supongamos que A es el evento en el que el primer contracter completa su trabajo a tiempo y B es el evento que el segundo completa a tiempo. Si C es el evento de “buen” clima, entonces argumentos similares a los de los Ejemplos 1 y 2 hacen que parezca razonable suponer {$$A, B$$} ci$$|C$$ y {$$A, B$$} ci$$|C^c$$. OBLACIÓN. En la teoría formal de la probabilidad, un evento debe definirse claramente: en cualquier juicio ocurre o no ocurre. El evento de “buen tiempo” no está tan claramente definido. ¿Un rastro de lluvia o trueno en la zona constituyó mal tiempo? ¿El retraso de la lluvia en un proyecto de un día en un mes de duración constituyó mal tiempo? Incluso con esta ambigüedad, el patrón de análisis probabilístico puede ser útil.
• Un paciente acude a un médico. Un examen preliminar lleva al médico a pensar que hay un treinta por ciento de probabilidades de que el paciente tenga cierta enfermedad. El médico ordena dos pruebas independientes para detectar afecciones que indiquen la enfermedad. ¿Los resultados de estas pruebas son realmente independientes? Ciertamente hay independencia operativa: las pruebas pueden ser realizadas por diferentes laboratorios, ni conscientes de las pruebas por los demás. Sin embargo, si las pruebas son significativas, ambas deben verse afectadas por el estado real del paciente. Supongamos que D es el evento en el que el paciente tiene la enfermedad, A es el evento en el que la primera prueba es positiva (indica las condiciones asociadas a la enfermedad) y B es el evento en que la segunda prueba es positiva. Entonces parecería razonable suponer {$$A, B$$} ci$$|D$$ y {$$A, B$$} ci$$|D^c$$.

En los ejemplos considerados hasta el momento, ha sido razonable asumir la independencia condicional, dado un evento C, y la independencia condicional, dado el suceso complementario. Pero hay casos en los que el efecto del evento condicionamiento es asimétrico. Consideramos varios ejemplos.

• Dos estudiantes están trabajando en un trabajo de término. Trabajan bastante por separado. Ambos necesitan tomar prestado cierto libro de la biblioteca. Que C sea el evento en que la biblioteca tenga dos ejemplares disponibles. Si A es el evento el primero se completa a tiempo y B el evento el segundo es exitoso, entonces parece razonable asumir {$$A, B$$} ci$$|C$$. No obstante, si solo se dispone de un libro, entonces las dos condiciones no serían condicionalmente independientes. En general$$P(B|AC^c) < P(B|C^c)$$, ya que si el primer alumno completa a tiempo, entonces debió haber tenido éxito en conseguir el libro, en detrimento del segundo.
• Si los dos contratistas del ejemplo anterior necesitan ambos material que puede estar en escaso suministro, entonces la terminación exitosa sería condicionalmente independiente, daría un suministro adecuado, mientras que no serían condicionalmente independientes, dado un escaso suministro.
• Dos alumnos del mismo curso toman un examen. Si se preparaban por separado, el evento de que ambos obtuvieran buenas calificaciones debería ser condicionalmente independiente. Si estudian juntos, entonces las probabilidades de tener buenas calificaciones no serían independientes. Sin hacer trampa ni colaborar en la propia prueba, si a uno le va bien, al otro también debería.

Dado que la independencia condicional es la independencia ordinaria con respecto a una medida de probabilidad condicional, debe quedar claro cómo extender el concepto a clases de conjuntos más grandes.

Definición

Una clase$$\{A_i: i \in J\}$$, donde$$J$$ es un conjunto de índices arbitrarios, es condicionalmente independiente, dado evento$$C$$, denotado$$\{A_i: i \in J\}$$ ci$$|C$$, iff la regla de producto tiene para cada subclase finita de dos o más.

Al igual que en el caso de la simple independencia, la regla de reemplazo se extiende.

La regla de reemplazo

Si la clase$$\{A_i: i \in J\}$$ ci$$|C$$, entonces cualquiera o todos los eventos A i pueden ser reemplazados por sus complementos y aún así tener una clase condicionalmente independiente.

### El uso de técnicas de independencia

Dado que la independencia condicional es independencia, podemos utilizar técnicas de independencia en la solución de problemas. Consideramos dos tipos de problemas: un problema de inferencia y una secuencia condicional de Bernoulli.

Ejemplo$$\PageIndex{3}$$ Use of independence techniques

Solución

Si el proyecto es sólido, Sharon toma la decisión correcta si tres o más de los cinco asesores son positivos. Si la empresa no es sólida, toma la decisión correcta si tres o más de los cinco asesores son negativos. Que$$H =$$ el evento el proyecto sea sólido,$$F =$$ el evento tres o más asesores sean positivos,$$G = F^c =$$ el evento tres o más sean negativos, y$$E =$$ el evento de la decisión correcta. Entonces

$$P(E) = P(FH) + P(GH^c) = P(F|H) P(H) + P(G|H^c) P(H^c)$$

$$E_i$$Sea el evento el asesor$$i$$ th es positivo. Después$$P(F|H) =$$ la suma de probabilidades de la forma$$P(M_k|H)$$, donde$$M_k$$ son minterms generados por la clase$$\{E_i : 1 \le i \le 5\}$$. Debido a la supuesta independencia condicional,

$$P(E_1 E_2^c E_3^c E_4 E_5|H) = P(E_1|H) P(E_2^c|H) P(E_3^c|H) P(E_4|H) P(E_5|H)$$

con expresiones similares para cada uno$$P(M_k|H)$$ y$$P(M_k|H^c)$$. Esto significa que si queremos la probabilidad de tres o más éxitos, dado$$H$$, podemos usar ckn con la matriz de probabilidades condicionales. Se indica la siguiente solución MATLAB del problema de inversión.

P1 = 0.01*[80 75 60 90 80];
P2 = 0.01*[75 85 70 90 70];
PH = 0.7;
PE = ckn(P1,3)*PH + ckn(P2,3)*(1 - PH)
PE =    0.9255


A menudo, una secuencia de Bernoulli se relaciona con algún evento condicionamiento H. En este caso es razonable asumir la secuencia$$\{E_i : 1 \le i \le n\}$$ ci$$|H$$ y ci$$|H^c$$. Consideramos un ejemplo sencillo.

Ejemplo$$\PageIndex{4}$$ Test of a claim

Un regular de pista de carreras afirma que puede elegir al caballo ganador en cualquier carrera el 90 por ciento del tiempo. Para poner a prueba su afirmación, elige un caballo para ganar en cada una de las diez carreras. Hay cinco caballos en cada carrera. Si simplemente está adivinando, la probabilidad de éxito en cada carrera es de 0.2. Considera que los ensayos constituyen una secuencia de Bernoulli. $$H$$Sea el suceso que tenga razón en su reclamo. Si$$S$$ es el número de éxitos en la selección de los ganadores en las diez carreras, determine$$P(H|S = k)$$ para varios números$$k$$ de selecciones correctas. Supongamos que es igualmente probable que su reclamo sea válido o que simplemente esté adivinando. Asumimos dos juicios condicionales de Bernoulli:

reclamo es válido: Diez juicios, probabilidad$$p = P(E_i | H) = 0.9$$.

Adivinar al azar: Diez ensayos, probabilidad$$p = P(E_i|H^c) = 0.2$$.

Dejar$$S=$$ número de selecciones correctas en diez ensayos. Entonces

$$\dfrac{P(H|S = k}{P(H^c|S = k)} = \dfrac{P(H)}{P(H^c)} \cdot \dfrac{P(S = k|H)}{P(S = k|H^c)}$$,$$0 \le k \le 10$$

Dándole el beneficio de la duda, suponemos$$P(H)/P(H^c) = 1$$ y calculamos las cuotas condicionales.

k = 0:10;
Pk1 = ibinom(10,0.9,k);    % Probability of k successes, given H
Pk2 = ibinom(10,0.2,k);    % Probability of k successes, given H^c
OH  = Pk1./Pk2;            % Conditional odds-- Assumes P(H)/P(H^c) = 1
e   = OH > 1;              % Selects favorable odds
disp(round([k(e);OH(e)]'))
6           2      % Needs at least six to have creditability
7          73      % Seven would be creditable,
8        2627      % even if P(H)/P(H^c) = 0.1
9       94585
10     3405063

Bajo estos supuestos, tendría que elegir al menos siete correctamente para dar una validación razonable de su reclamo.

This page titled 5.1: Independencia Condicional is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform.