Saltar al contenido principal
LibreTexts Español

4.2: Probabilidad condicional

  • Page ID
    149866
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Hemos descrito todo el fundamento de la teoría de la probabilidad como proveniente del conocimiento imperfecto, en el sentido de que no sabemos con certeza si un evento\(A\) va a suceder en algún momento en particular hacemos el experimento pero sí sabemos, a la larga, en qué fracción de los tiempos\(A\) van a pasar. O, al menos, afirmamos que hay algún número\(P(A)\) tal que después de ejecutar el experimento los\(N\) tiempos, de los cuales\(n_A\) de estos tiempos son cuando\(A\) ocurrió,\(P(A)\) es aproximadamente\(n_A/N\) ( y esta relación se acerca cada vez más a\(P(A)\) medida que\(N\) se hace cada vez más grande).

    Pero, ¿y si tenemos algún conocimiento? En particular, ¿qué pasa si sabemos con certeza que el suceso\(B\) ha ocurrido — ¿influirá eso en nuestro conocimiento de si\(A\) sucede o no? Como antes, cuando hay aleatoriedad involucrada, no podemos decir con certeza si\(A\) va a suceder, pero esperamos que, dado el conocimiento que\(B\) sucedió, podamos hacer una conjetura más precisa sobre la probabilidad de\(A\).

    [eg:condprob1] Si elige a una persona al azar en un país determinado en una fecha determinada, es posible que pueda estimar la probabilidad de que la persona tenga cierta altura si conoce lo suficiente sobre el rango de alturas de toda la población de ese país. [De hecho, a continuación haremos estimaciones de este tipo.] Es decir, si definimos el evento\[A=\text{``the random person is taller than 1.829 meters (6 feet)''}\] entonces podríamos estimar\(P(A)\).

    Pero considera el suceso\[B=\text{``the random person's parents were both taller than 1.829 meters''}\ .\] Porque hay un componente genético a la altura, si sabes que eso\(B\) pasó, cambiaría tu idea de cuán probable, dado ese conocimiento, eso\(A\) sucedió. Debido a que la genética no es lo único que determina la altura de una persona, no estarías seguro de que eso\(A\) sucedió, incluso dado el conocimiento de\(B\).

    Usemos el enfoque frecuentista para derivar una fórmula para este tipo de probabilidad de\(A\) dado que\(B\) se sabe que sucedió. Entonces piensa en hacer el experimento repetible muchas veces, digamos\(N\) veces. De todas esas veces, algunas veces\(B\) pasa, dicen que pasa\(n_B\) veces. De esos tiempos, los que\(B\) pasaban, a veces\(A\) también pasaban. Estos son los casos en los que ambos\(A\) y\(B\) sucedieron —o, convirtiendo esto a descripciones más matemáticas, los tiempos que\(A\cap B\) sucedieron— así lo escribiremos\(n_{A\cap B}\).

    Sabemos que la probabilidad de que\(A\) ocurra en los casos en los que sabemos con certeza que\(B\) sucedió es aproximadamente\(n_{A\cap B}/n_B\). Hagamos ese truco favorito de multiplicar y dividir por el mismo número, así encontrar que la probabilidad en la que nos interesa es aproximadamente\[\frac{n_{A\cap B}}{n_B} = \frac{n_{A\cap B}\cdot N}{N\cdot n_B} = \frac{n_{A\cap B}}{N}\cdot\frac{N}{n_B} = \frac{n_{A\cap B}}{N} \Bigg/ \frac{n_B}{N} \approx P(A\cap B) \Big/ P(B)\]

    Es por eso que hacemos el

    [def:condprob] La probabilidad condicional es\[P(A|B) = \frac{P(A\cap B)}{P(B)}\ .\] Aquí\(P(A|B)\) se pronuncia la probabilidad de\(A\) dado\(B\).

    Hagamos un simple

    EJEMPLO 4.2.3. A partir del Ejemplo 4.1.19, tenga en cuenta que la probabilidad de rodar a\(2\) es\(P(\{2\})=1/6\) (como lo es la probabilidad de rodar cualquier otra cara, es un dado justo). Pero supongamos que le dijeron que el rollo era parejo, que es el evento\(\{2, 4, 6\}\), y pidió la probabilidad de que el rollo fuera un\(2\) dado este conocimiento previo. La respuesta sería\[P(\{2\}\mid\{2, 4, 6\})=\frac{P(\{2\}\cap\{2, 4, 6\})}{P(\{2, 4, 6\})} =\frac{P(\{2\})}{P(\{2, 4, 6\})} = \frac{1/6}{1/2} = 1/3\ .\] En otras palabras, la probabilidad de rodar un\(2\) sobre un dado justo sin otra información es\(1/6\), que es la probabilidad de rodar un\(2\) dado que rodamos un número par\(1/3\). Entonces la probabilidad se duplicó con la información dada.

    A veces la probabilidad cambia incluso más que simplemente duplicar: la probabilidad de que rodamos un\(1\) sin otro conocimiento es\(1/6\), mientras que la probabilidad de que rodamos un\(1\) dado que rodamos un número par es\[P(\{1\}\mid\{2, 4, 6\})=\frac{P(\{1\}\cap\{2, 4, 6\})}{P(\{2, 4, 6\})} =\frac{P(\emptyset)}{P(\{2, 4, 6\})} = \frac{0}{1/2} = 0\ .\]

    Pero, en realidad, a veces la probabilidad condicional para algún evento es la misma que la probabilidad incondicionada. Es decir, a veces saber que eso\(B\) sucedió no cambia nuestra estimación de la probabilidad de\(A\) en absoluto, no son eventos realmente relacionados, al menos desde el punto de vista de la probabilidad. Esto motiva a la

    [def:independent] Dos eventos\(A\) y\(B\) se llaman independientes si\(P(A\mid B)=P(A)\).

    Al conectar la fórmula definitoria para\(P(A\mid B)\) en la definición de independiente, es fácil ver que

    HECHO 4.2.5. Eventos\(A\) y\(B\) son independientes si y solo si\(P(A\cap B)=P(A)\cdot P(B)\).

    EJEMPLO 4.2.6. Todavía usando la situación del Ejemplo 4.1.19, vimos en el Ejemplo 4.2.3 que los eventos\(\{2\}\) y no\(\{2, 3, 4\}\) son independientes ya que\[P(\{2\}) = 1/6 \neq 1/3 = P(\{2\}\mid\{2, 4, 6\})\] ni lo son\(\{1\}\) y\(\{2, 3, 4\}\), ya que\[P(\{1\}) = 1/6 \neq 0 = P(\{1\}\mid\{2, 4, 6\})\ .\] Sin embargo, mirar los eventos\(\{1, 2\}\) y \(\{2, 4, 6\}\): ¡\[\begin{aligned} P(\{1, 2\}) = P(\{1\}) + P(\{2\}) &= 1/6 + 1/6\\ &= 1/3\\ &= \frac{1/6}{1/2}\\ &= \frac{P(\{1\})}{P(\{2, 4, 6\})}\\ &= \frac{P(\{1, 2\}\cap\{2, 4, 6\})}{P(\{2, 4, 6\})}\\ &= P(\{1, 2\}\mid\{2, 4, 6\})\end{aligned}\]lo que significa que son independientes!

    EJEMPLO 4.2.7. Ahora podemos explicar completamente lo que estaba pasando en el Ejemplo 4.1.21. Se suponía que los dos dados justos debían ser lanzados de una manera que el primer tirado no tuvo ningún efecto en el segundo; esto significa exactamente que los dados se rodaron de forma independiente. Como vimos, esto significa entonces que cada resultado individual del espacio muestral\(S\) tenía probabilidad\(\frac{1}{36}\). Pero el primer rollo que tiene algún valor particular es independiente de que el segundo rollo tenga otro, por ejemplo, si\(A=\{11, 12, 13, 14, 15, 16\}\) es el evento en ese espacio de muestra de obtener un\(1\) en el primer rollo y\(B=\{14, 24, 34, 44, 54, 64\}\) es el evento de obtener un \(4\)en la segunda tirada, luego los eventos\(A\) y\(B\) son independientes, ya que comprobamos mediante el uso de Fact 4.2.5:\[\begin{aligned} P(A\cap B) &= P(\{14\})\\ &= \frac{1}{36}\\ &= \frac16\cdot\frac16\\ &= \frac{6}{36}\cdot\frac{6}{36}\\ &=P(A)\cdot P(B)\ .\end{aligned}\] Por otro lado, el evento “la suma de los rollos es\(4\), que es\(C=\{13, 22, 31\}\) como un conjunto, no es independiente del valor del primer rollo, ya que\(P(A\cap C)=P(\{13\})=\frac{1}{36}\) pero\(P(A)\cdot P(C)=\frac{6}{36}\cdot\frac{3}{36}=\frac16\cdot\frac{1}{12}=\frac{1}{72}\).


    This page titled 4.2: Probabilidad condicional is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jonathan A. Poritz via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.