Saltar al contenido principal
LibreTexts Español

4.3: Teoría Básica de Probabilidad

  • Page ID
    150463
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    A pesar de los argumentos ideológicos entre bayesianos y frecuencistas, resulta que la mayoría de las personas coinciden en las reglas que las probabilidades deben obedecer. Hay muchas maneras diferentes de llegar a estas reglas. El enfoque más utilizado se basa en el trabajo de Andrey Kolmogorov, uno de los grandes matemáticos soviéticos del siglo XX. No voy a entrar en muchos detalles, pero voy a tratar de darle un poco de idea de cómo funciona. Y para poder hacerlo voy a tener que hablar de mis pantalones.

     

    Introducción a las distribuciones de probabilidad

    Una de las verdades inquietantes de mi vida es que solo tengo 5 pares de pantalones: tres pares de jeans, la mitad inferior de un traje y un par de pantalones de chándal. Aún más triste, les he dado nombres: Yo los llamo\(X_1\),\(X_2\),\(X_3\),\(X_4\) y\(X_5\). De verdad lo hago: por eso me llaman Señor Imaginativo. Ahora, en un día cualquiera, elijo exactamente uno de par de pantalones para ponerme. Ni siquiera soy tan estúpida como para tratar de ponerme dos pares de pantalones, y gracias a años de entrenamiento nunca salgo a la calle sin usar más pantalón. Si tuviera que describir esta situación usando el lenguaje de la teoría de la probabilidad, me referiría a cada par de pantalones (es decir, cada uno\(X\)) como un evento elemental. La característica clave de los eventos elementales es que cada vez que hacemos una observación (por ejemplo, cada vez que me pongo un par de pantalones), entonces el resultado será uno y solo uno de estos eventos. Como dije, en estos días siempre llevo exactamente un par de pantalones, así que mis pantalones satisfacen esta restricción. Del mismo modo, el conjunto de todos los eventos posibles se denomina espacio de muestra. Concedido, algunas personas lo llamarían un “vestuario”, pero eso es porque se niegan a pensar en mis pantalones en términos probabilísticos. Triste.

    Bien, ahora que tenemos un espacio de muestra (un armario), que se construye a partir de muchos eventos elementales posibles (pantalones), lo que queremos hacer es asignar una probabilidad de uno de estos eventos elementales. Para un evento\(X\), la probabilidad de ese evento\(P(X)\) es un número que se encuentra entre 0 y 1. Cuanto mayor sea el valor de\(P(X)\), más probable es que ocurra el evento. Entonces, por ejemplo, si\(P(X) = 0\), significa que el evento\(X\) es imposible (es decir, nunca me pongo esos pantalones). Por otro lado, si significa\(P(X) = 1\) que ese evento\(X\) es seguro que ocurrirá (es decir, siempre llevo esos pantalones). Para valores de probabilidad en el medio, significa que a veces llevo esos pantalones. Por ejemplo, si\(P(X) = 0.5\) significa que llevo esos pantalones la mitad del tiempo.

    En este punto, ya casi terminamos. Lo último que debemos reconocer es que “siempre pasa algo”. Cada vez que me pongo pantalones, realmente termino usando pantalones (loco, ¿verdad?). Lo que significa esta afirmación algo trillada, en términos probabilísticos, es que las probabilidades de los eventos elementales tienen que sumar hasta 1. Esto se conoce como la ley de la probabilidad total, no es que a ninguno de nosotros realmente nos importe. Más importante aún, si se cumplen estos requisitos, entonces lo que tenemos es una distribución de probabilidad. Por ejemplo, este es un ejemplo de una distribución de probabilidad

    ¿Qué pantalón? Etiqueta Probabilidad
    Vaqueros azules \(X_1\) \(P(X_1) = .5\)
    Vaqueros grises \(X_2\) \(P(X_2) = .3\)
    Jeans negros \(X_3\) \(P(X_3) = .1\)
    Traje negro \(X_4\) \(P(X_4) = 0\)
    Chándal azul \(X_5\) \(P(X_5) = .1\)

    Cada uno de los eventos tiene una probabilidad que se encuentra entre 0 y 1, y si sumamos la probabilidad de todos los eventos, suman a 1. Impresionante. Incluso podemos dibujar un bonito gráfico de barras para visualizar esta distribución, como se muestra en la Figura\(\PageIndex{1}\). Y en este punto, todos hemos logrado algo. Has aprendido lo que es una distribución de probabilidad, y finalmente he logrado encontrar la manera de crear una gráfica que se centre completamente en mis pantalones. ¡Todos ganan!

    Una representación visual de la distribución de probabilidad del pantalón.
    Figura\(\PageIndex{1}\): Una representación visual de la distribución de probabilidad del pantalón. Hay cinco eventos elementales, correspondientes a los cinco pares de pantalones que tengo. Cada evento tiene alguna probabilidad de ocurrir: esta probabilidad es un número entre 0 y 1. La suma de estas probabilidades es 1.

    La única otra cosa que necesito señalar es que la teoría de probabilidad permite hablar tanto de eventos no elementales como de elementales. La forma más fácil de ilustrar el concepto es con un ejemplo. En el ejemplo de los pantalones, es perfectamente legítimo referirse a la probabilidad de que use jeans. En este escenario, el evento de “Dan lleva jeans” que se dice que ocurrió siempre y cuando el evento elemental que realmente ocurrió sea uno de los apropiados; en este caso “blue jeans”, “black jeans” o “grey jeans”. En términos matemáticos, definimos el evento “jeans”\(E\) para que se corresponda con el conjunto de eventos elementales\((X_1, X_2, X_3)\). Si ocurre alguno de estos eventos elementales, entonces también\(E\) se dice que ocurrió. Habiendo decidido anotar la definición de\(E\) esta manera, es bastante sencillo afirmar cuál\(P(E)\) es la probabilidad: simplemente sumamos todo. En este caso particular

    \[P(E) = P(X_1) + P(X_2) + P(X_3) \nonumber \]

    y, dado que las probabilidades de los vaqueros azules, grises y negros respectivamente son .5, .3 y .1, la probabilidad de que use jeans es igual a .9.

    En este punto podrías estar pensando que todo esto es terriblemente obvio y simple y tendrías razón. Todo lo que realmente hemos hecho es envolver algunas matemáticas básicas alrededor de algunas intuiciones de sentido común. Sin embargo, a partir de estos simples comienzos es posible construir algunas herramientas matemáticas extremadamente poderosas. Definitivamente no voy a entrar en los detalles en este libro, pero lo que voy a hacer es enumerar algunas de las otras reglas que las probabilidades satisfacen. Estas reglas pueden derivarse de los simples supuestos que he esbozado anteriormente, pero como en realidad no usamos estas reglas para nada en este libro, no lo haré aquí.

    Tabla\(\PageIndex{1}\): Algunas reglas básicas que las probabilidades deben satisfacer. Realmente no necesitas conocer estas reglas para entender los análisis de los que hablaremos más adelante en el libro, pero son importantes si quieres entender un poco más a fondo la teoría de la probabilidad.
    Inglés Notación   Fórmula
    no\(A\) \(P(\neg A)\) \(=\) \(1-P(A)\)
    \(A\)o\(B\) \(P(A \cup B)\) \(=\) \(P(A) + P(B) - P(A \cap B)\)
    \(A\)y\(B\) \(P(A \cap B)\) \(=\) \(P(A|B) P(B)\)

    Ahora que tenemos la capacidad de “definir” eventos no elementales en términos de elementales, en realidad podemos usar esto para construir (o, si quieres ser todo matemático, “derivar”) algunas de las otras reglas de probabilidad. Estas reglas están listadas arriba, y aunque estoy bastante seguro de que muy pocos de mis lectores realmente se preocupan por cómo se construyen estas reglas, te voy a mostrar de todos modos: aunque es aburrido y probablemente nunca tendrás mucho uso para estas derivaciones, si lo lees una o dos veces y tratas de ver cómo funciona, encontrarás que la probabilidad empieza a sentirse un poco menos misteriosa, y con un poco de suerte mucho menos desalentadora. Así que aquí va. En primer lugar, para construir las reglas voy a necesitar un espacio de muestra\(X\) que consiste en un montón de eventos elementales\(x\), y dos eventos no elementales, a los que voy a llamar\(A\) y\(B\). Digamos:

    \[\begin{array}{rcl} X &=& (x_1, x_2, x_3, x_4, x_5) \\ A &=& (x_1, x_2, x_3) \\ B &=& (x_3, x_4) \end{array} \nonumber \]

    Para que esto sea un poco más concreto, supongamos que seguimos hablando de la distribución de los pantalones. Si es así,\(A\) corresponde al evento “jeans”, y\(B\) corresponde al evento “negro”:

    \[\begin{array}{rcl} \mbox{"jeans''} &=& (\mbox{"blue jeans''}, \mbox{"grey jeans''}, \mbox{"black jeans''}) \\ \mbox{"black''} &=& (\mbox{"black jeans''}, \mbox{"black suit''}) \end{array} \nonumber \]

    Entonces ahora comencemos a revisar las reglas que he enumerado en la tabla.

    En la primera línea, la tabla dice que

    \[P(\neg A) = 1- P(A) \nonumber \]

    y lo que significa es que la probabilidad de “no\(A\)” es igual a 1 menos la probabilidad de\(A\). Un momento de pensamiento (y un tedioso ejemplo) hacen evidente por qué esto debe ser cierto. Si\(A\) responde al par que uso jeans (es decir, uno de\(x_1\)\(x_2\) o\(x_3\) sucede), entonces la única definición significativa de “no\(A\)” (que se denota matemáticamente como\(\neg A\)) es decir que\(\neg A\) consiste en todos los eventos elementales que don' t pertenecen a\(A\). En el caso de la distribución de pantalones significa eso\(\neg A = (x_4, x_5)\), o, para decirlo en inglés: “not jeans” consiste en todos los pares de pantalones que no son jeans (es decir, el traje negro y el chandal azul). En consecuencia, cada evento elemental pertenece a uno\(A\) o\(\neg A\), pero no a ambos. Bien, entonces ahora reorganicemos nuestra declaración anterior:

    \[P(\neg A) + P(A) = 1 \nonumber \]

    lo cual es una manera trillada de decir o llevo jeans o no uso jeans: la probabilidad de “no jeans” más la probabilidad de “jeans” es 1. Matemáticamente:

    \[\begin{array}{rcl} P(\neg A) &=& P(x_4) + P(x_5) \\ P(A) &=& P(x_1) + P(x_2) + P(x_3) \end{array} \nonumber \]

    por lo tanto

    \[\begin{array}{rcl} P(\neg A) + P(A) &=& P(x_1) + P(x_2) + P(x_3) + P(x_4) + P(x_5) \\ &=& \sum_{x \in X} P(x) \\ &=& 1 \end{array} \nonumber \]

    Excelente. Todo parece funcionar.

    Guau, puedo oírte decir. Eso es un montón de\(x\) s para decirme lo jodidamente obvio. Y tienes razón: esto es jodidamente obvio. Todo el punto de la teoría de la probabilidad para formalizar y matematizar algunas intuiciones de sentido común muy básicas. Entonces, llevemos adelante esta línea de pensamiento un poco más allá. En la última sección definí un evento correspondiente a no A, que denoté\(\neg A\). Ahora definamos dos nuevos eventos que corresponden a importantes conceptos cotidianos:\(A\) y\(B\), y\(A\) o\(B\). Para ser precisos:

    Declaración en inglés: Notación matemática:
    \(A\)y\(B\)” ambos suceden \(A \cap B\)
    al menos uno de “\(A\)o\(B\)” sucede \(A \cup B\)

    Dado que\(A\) y\(B\) ambos se definen en términos de nuestros eventos elementales (los\(x\) s) vamos a necesitar tratar de describir\(A \cap B\) y\(A \cup B\) en términos de nuestros eventos elementales también. ¿Podemos hacer esto? Si podemos La única manera que ambas\(A\) y\(B\) pueden ocurrir es si el suceso elemental que observamos resulta pertenecer a ambos\(A\) y\(B\). Así “\(A \cap B\)” incluye únicamente aquellos eventos elementales que pertenecen a ambos\(A\) y\(B\)...

    \[\begin{array}{rcl} A &=& (x_1, x_2, x_3) \\ B &=& (x_3, x_4) \\ A \cap B & = & (x_3) \end{array} \nonumber \]

    Entonces, um, la única forma en que puedo usar “jeans”\((x_1, x_2, x_3)\) y “pantalones negros”\((x_3, x_4)\) es si uso “jeans negros”\((x_3)\). Otra victoria para los sangrientos obvios.

    En este punto, no te va a sorprender en absoluto la definición de\(A \cup B\), aunque probablemente te va a quedar extremadamente aburrido por ella. La única forma en que puedo usar “jeans” o “pantalones negros” es si los pantalones elementales que realmente llevo pertenecen a\(A\) o a\(B\), o a ambos. Entonces...

    \[\begin{array}{rcl} A &=& (x_1, x_2, x_3) \\ B &=& (x_3, x_4) \\ A \cup B & = & (x_1, x_2, x_3, x_4) \end{array} \nonumber \]

    Oh, sí, nena. Matemáticas en su máxima expresión.

    Entonces, hemos definido lo que queremos decir con\(A \cap B\) y\(A \cup B\). Ahora asignemos probabilidades a estos eventos. Más específicamente, comencemos verificando la regla que afirma que:

    \[P(A \cup B) = P(A) + P(B) - P(A \cap B) \nonumber \]

    Usando nuestras definiciones anteriores, lo sabemos\(A \cup B = (x_1, x_2, x_3, x_4)\), entonces

    \[P(A \cup B) = P(x_1) + P(x_2) + P(x_3) + P(x_4) \nonumber \]

    y haciendo uso similar del hecho de que sabemos a qué pertenecen los eventos elementales\(A\),\(B\) y\(A \cap B\)...

    \[\begin{array}{rcl} P(A) &=& P(x_1) + P(x_2) + P(x_3) \\ P(B) &=& P(x_3) + P(x_4) \\ P(A \cap B) &=& P(x_3) \end{array} \nonumber \]

    y por lo tanto

    \[\begin{array}{rcl} P(A) + P(B) - P(A \cap B) &=& P(x_1) + P(x_2) + P(x_3) + P(x_3) + P(x_4) - P(x_3) \\ &=& P(x_1) + P(x_2) + P(x_3) + P(x_4) \\ &=& P(A \cup B) \end{array} \nonumber \]

    Hecho.

    El siguiente concepto que necesitamos definir es la noción de “\(B\)dado\(A\)”, que normalmente se escribe\(B | A\). Esto es lo que quiero decir: supongamos que me levanto una mañana, y me pongo un par de pantalones. Se\(x\) ha producido un suceso elemental. Supongamos además le grito a mi esposa (que está en la otra habitación, y así no puedo ver mis pantalones) “¡Hoy llevo jeans!”. Asumiendo que ella cree que estoy diciendo la verdad, ella sabe que eso\(A\) es cierto. Dado que sabe que eso\(A\) ha pasado, ¿cuál es la probabilidad condicional que también\(B\) es cierta? Bueno, pensemos en lo que ella sabe. Aquí están los hechos:

    • Los eventos que no son jeans son imposibles. Si\(A\) es cierto, entonces sabemos que los únicos eventos elementales posibles que podrían haber ocurrido son\(x_1\),\(x_2\) y\(x_3\) (es decir, los jeans). Los eventos no vaqueros\(x_4\) y ahora\(x_5\) son imposibles, y se les debe asignar probabilidad cero. En otras palabras, nuestro espacio de muestra se ha restringido a los eventos de jeans. Pero sigue siendo el caso que las probabilidades de estos hechos deben sumar a 1: sabemos con certeza que estoy usando jeans.
    • Ella no ha aprendido nada sobre qué jeans llevo puesto. Antes de hacer mi anuncio de que llevaba jeans, ella ya sabía que tenía cinco veces más probabilidades de estar usando jeans azules (\(P(x_1) = 0.5\)) que de estar usando jeans negros (\(P(x_3) = 0.1\)). Mi anuncio no cambia esto... No dije nada sobre qué color eran mis jeans, por lo que debe seguir siendo el caso que\(P(x_1) / P(x_3)\) se quede igual, a un valor de 5.

    Solo hay una manera de satisfacer estas restricciones: establecer los eventos imposibles para que tengan probabilidad cero (es decir,\(P(x | A) = 0\) si no\(x\) está adentro\(A\)), y luego dividir las probabilidades de todos los demás por\(P(A)\). En este caso, ya que\(P(A) = 0.9\), dividimos por 0.9. Esto da:

    ¿qué pantalón? evento elemental viejo problema,\(P(x)\) nuevo problema,\(P(x | A)\)
    vaqueros azules \(x_1\) \ (P (x)\) ">0.5 \ (P (x | A)\) ">0.556
    jeans grises \(x_2\) \ (P (x)\) ">0.3 \ (P (x | A)\) ">0.333
    jeans negros \(x_3\) \ (P (x)\) ">0.1 \ (P (x | A)\) ">0.111
    traje negro \(x_4\) \ (P (x)\) ">0 \ (P (x | A)\) ">0
    Chándal azul \(x_5\) \ (P (x)\) ">0.1 \ (P (x | A)\) ">0

    En términos matemáticos, decimos que

    \[P(x | A) = \frac{P(x)}{P(A)} \nonumber \]

    si\(x \in A\), y de\(P(x|A) = 0\) otra manera. Y por lo tanto...

    \[\begin{array}{rcl} P(B | A) &=& P(x_3 | A) + P(x_4 | A) \\ &=& \displaystyle\frac{P(x_3)}{P(A)} + 0 \\ &=& \displaystyle\frac{P(x_3)}{P(A)} \end{array} \nonumber \]

    Ahora, recordando eso\(A \cap B = (x_3)\), podemos escribir esto como

    \[P(B | A) = \frac{P(A \cap B)}{P(A)} \nonumber \]

    y si multiplicamos ambos lados por\(P(A)\) obtenemos:

    \[P(A \cap B) = P(B| A) P(A) \nonumber \]

    que es la tercera regla que habíamos enumerado en la tabla.


    This page titled 4.3: Teoría Básica de Probabilidad is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Matthew J. C. Crump via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.