Saltar al contenido principal
LibreTexts Español

1.2: Distribución de probabilidad discreta

  • Page ID
    150216
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    En este libro estudiaremos muchos experimentos diferentes desde un punto de vista probabilístico. Lo que implica este estudio se hará evidente a medida que se desarrolle la teoría y se analicen los ejemplos. Sin embargo, la idea general puede describirse e ilustrarse de la siguiente manera: a cada experimento que consideremos se asociará una variable aleatoria, que representa el resultado de cualquier experimento en particular. El conjunto de posibles resultados se denomina espacio muestral. En la primera parte de esta sección, consideraremos el caso donde el experimento solo tiene finitamente muchos resultados posibles, es decir, el espacio muestral es finito. Entonces generalizaremos al caso de que el espacio muestral sea finito o contablemente infinito. Esto nos lleva a la siguiente definición.

    Variables aleatorias y espacios de muestreo

    Definición\(\PageIndex{1}\)

    Supongamos que tenemos un experimento cuyo resultado depende del azar. Representamos el resultado del experimento mediante una letra romana mayúscula, tal como\(X\), llamada variable aleatoria. El del experimento es el conjunto de todos los resultados posibles. Si el espacio muestral es finito o contablemente infinito, se dice que la variable aleatoria es discreta.

    Generalmente denotamos un espacio de muestra por la letra griega mayúscula\(\Omega\). Como se indicó anteriormente, en la correspondencia entre un experimento y la teoría matemática mediante la cual se estudia, el espacio muestral\(\Omega\) corresponde al conjunto de posibles resultados del experimento.

    Ahora hacemos dos definiciones adicionales. Estos son subsidiarios de la definición de espacio muestral y sirven para precisar parte de la terminología común utilizada en conjunto con los espacios muestrales. En primer lugar, definimos los elementos de un espacio muestral como resultados. Segundo, cada subconjunto de un espacio de muestra se define como un evento. Normalmente, denotaremos los resultados en minúsculas y los eventos por letras mayúsculas.

    Ejemplo\(\PageIndex{1}\)

    Un dado se enrolla una vez. Dejamos\(X\) denotar el resultado de este experimento. Entonces el espacio de muestra para este experimento es el conjunto de 6 elementos

    \[\Omega = \{1,2,3,4,5,6\}\ ,\]

    donde cada desenlace\(i\), para\(i = 1\),..., 6, corresponde al número de puntos en la cara que aparece hacia arriba. El evento\[E = \{2,4,6\}\] corresponde a la afirmación de que el resultado del rollo es un número par. El evento también se\(E\) puede describir diciendo que\(X\) es parejo. A menos que haya razones para creer que el dado está cargado, la suposición natural es que cada resultado es igualmente probable. Adoptar esta convención significa que asignamos una probabilidad de 1/6 a cada uno de los seis resultados, es decir\(m(i) = 1/6\), para\(1 \le i \le 6\).

    Funciones de distribución

    A continuación se describe la asignación de probabilidades. Las definiciones están motivadas por el ejemplo anterior, en el que asignamos a cada resultado del espacio muestral un número no negativo tal que la suma de los números asignados es igual a 1.

    Definición\(\PageIndex{2}\)

    \(X\)Sea una variable aleatoria que denota el valor del resultado de un determinado experimento, y supongamos que este experimento sólo tiene finitamente muchos resultados posibles. \(\Omega\)Sea el espacio muestral del experimento (es decir, el conjunto de todos los valores posibles de\(X\), o equivalentemente, el conjunto de todos los resultados posibles del experimento). A for\(X\) es una función de valor real\(m\) cuyo dominio es\(\Omega\) y que satisface:

    1. \(m(\omega) \geq 0\ , \qquad\)para todos\( \omega\in\Omega\), y
    2. \(\sum_{\omega \in \Omega} m(\omega) = 1\).

    Para cualquier subconjunto\(E\) de\(\Omega\), definimos el\(E\) de como el número\(P(E)\) dado por

    \[P(E) = \sum_{\omega\in E} m(\omega) .\]

    Ejemplo\(\PageIndex{2\)

    Considera un experimento en el que una moneda es arrojada dos veces. \(X\)Sea la variable aleatoria que corresponde a este experimento. Observamos que existen varias formas de registrar los resultados de este experimento. Podríamos, por ejemplo, grabar los dos tirados, en el orden en que ocurrieron. En este caso, tenemos\(\Omega =\) {HH, HT, TH, TT}. También podríamos registrar los resultados simplemente señalando el número de cabezas que aparecieron. En este caso, tenemos\(\Omega =\) {0,1,2}. Por último, podríamos registrar los dos resultados, sin tener en cuenta el orden en que ocurrieron. En este caso, tenemos\(\Omega =\) {HH, HT, TT}.

    Utilizaremos, por el momento, el primero de los espacios muestrales dados anteriormente. Supondremos que los cuatro resultados son igualmente probables, y definimos la función de distribución\(m(\omega)\) por\[m(\mbox{HH}) = m(\mbox{HT}) = m(\mbox{TH}) = m(\mbox{TT}) = \frac14\ .\]

    Que\(E =\) {HH, HT, TH} sea el evento de que al menos una cabeza surja. Entonces, la probabilidad de\(E\) puede calcularse de la siguiente manera:\[\begin{aligned} P(E) &=& m(\mbox{HH}) + m(\mbox{HT}) + m(\mbox{TH}) \\ &=& \frac14 + \frac14 + \frac14 = \frac34\ .\end{aligned}\]

    De igual manera, si\(F =\) {HH, HT} es el evento que las cabezas surge en el primer lanzamiento, entonces tenemos\[\begin{aligned} P(F) &=& m(\mbox{HH}) + m(\mbox{HT}) \\ &=& \frac14 + \frac14 = \frac12\ .\end{aligned}\]

    Ejemplo\(\PageIndex{3}\)

    El espacio de muestra para el experimento en el que se enrolla la matriz es el conjunto de 6 elementos\(\Omega = \{1,2,3,4,5,6\}\). Supusimos que el dado era justo, y elegimos la función de distribución definida por\[m(i) = \frac16, \qquad {\rm{for}}\,\, i = 1, \dots, 6\ .\] Si\(E\) es el evento de que el resultado del rollo sea un número par, entonces\(E = \{2,4,6\}\) y\[\begin{aligned} P(E) &=& m(2) + m(4) + m(6) \\ &=& \frac16 + \frac16 + \frac16 = \frac12\ .\end{aligned}\]

    Observe que es una consecuencia inmediata de las definiciones anteriores que, para cada\(\omega \in \Omega\), es\[P(\{\omega\}) = m(\omega)\ .\] decir, la probabilidad del evento elemental\(\{\omega\}\), consistente en un solo resultado\(\omega\), es igual al valor\(m(\omega)\) asignado al resultado\(\omega\) por la función de distribución.

    Ejemplo\(\PageIndex{4}\)

    Tres personas, A, B y C, se postulan para el mismo cargo, y asumimos que una y sólo una de ellas gana. El espacio muestral puede tomarse como el conjunto de 3 elementos\(\Omega =\) {A, B, C} donde cada elemento corresponde al resultado de la victoria de ese candidato. Supongamos que A y B tienen las mismas posibilidades de ganar, pero que C tiene sólo 1/2 la probabilidad de A o B. Luego asignamos

    \[m(\mbox{A}) = m(\mbox{B}) = 2m(\mbox{C})\ .\]

    Desde\[m(\mbox{A}) + m(\mbox{B}) + m(\mbox{C}) = 1\ ,\]

    vemos que

    \[2m(\mbox{C}) + 2m(\mbox{C}) + m(\mbox{C}) = 1\ ,\]

    lo que implica eso\(5m(\mbox{C}) = 1\). Por lo tanto,

    \[m(\mbox{A}) = \frac25\ , \qquad m(\mbox{B}) = \frac25\ , \qquad m(\mbox{C}) = \frac15\ .\]

    \(E\)Sea el evento que gane ya sea A o C. Luego\(E =\) {A, C}, y

    \[P(E) = m(\mbox{A}) + m(\mbox{C}) = \frac25 + \frac15 = \frac35\ .\]

    En muchos casos, los eventos pueden describirse en términos de otros eventos a través del uso de las construcciones estándar de la teoría de conjuntos. Repasaremos brevemente las definiciones de estas construcciones. Se hace referencia al lector a la Figura [fig 1.6] para diagramas de Venn que ilustran estas construcciones.

    Dejar\(A\) y\(B\) ser dos conjuntos. Entonces la unión de\(A\) y\(B\) es el conjunto

    \[A \cup B = \{x\,|\, x \in A\ \mbox{or}\ x \in B\}\ .\]

    La intersección de\(A\) y\(B\) es el conjunto

    \[A \cap B = \{x\,|\, x \in A\ \mbox{and}\ x \in B\}\ .\]

    La diferencia de\(A\) y\(B\) es el conjunto

    \[A - B = \{x\,|\, x \in A\ \mbox{and}\ x \not \in B\}\ .\]

    El conjunto\(A\) es un subconjunto de\(B\), escrito\(A \subset B\), si cada elemento de\(A\) es también un elemento de\(B\). Por último, el complemento de\(A\) es el conjunto

    \[\tilde A = \{x\,|\, x \in \Omega\ \mbox{and}\ x \not \in A\}\ .\]

    La razón por la que estas construcciones son importantes es que suele darse el caso de que los eventos complicados descritos en inglés se puedan descomponer en eventos más simples utilizando estas construcciones. Por ejemplo, si\(A\) es el evento de que “va a nevar mañana y va a llover al día siguiente”,\(B\) es el evento de que “nevará mañana”, y\(C\) es el evento de que “va a llover dentro de dos días”, entonces\(A\) es la intersección de los hechos\(B\) y\(C\). De igual manera, si\(D\) es el evento que “va a nevar mañana o va a llover al día siguiente”, entonces\(D = B \cup C\). (Tenga en cuenta que aquí se debe tener cuidado, porque a veces la palabra “or” en inglés significa que exactamente una de las dos alternativas ocurrirá. El significado suele ser claro a partir del contexto. En este libro, siempre usaremos la palabra “o” en el sentido inclusivo, es decir,\(A\) o\(B\) significa que al menos uno de los dos eventos\(A\),\(B\) es cierto). El evento\(\tilde B\) es el evento que “no va a nevar mañana”. Por último, si\(E\) es el evento que “va a nevar mañana pero no va a llover al día siguiente”, entonces\(E = B - C\).

    Propiedades

    Teorema\(\PageIndex{1}\)

    Las probabilidades asignadas a eventos por una función de distribución en un espacio de muestra\(\Omega\) satisfacen las siguientes propiedades:

    1. \(P(E) \geq 0\)para cada\(E \subset \Omega\\).
    2. \(P( \Omega) = 1\).
    3. Si\(E \subset F \subset \Omega\), entonces\(P(E) \leq P(F)\\).
    4. Si\(A\) y\(B\) son subconjuntos de\(\Omega\), entonces\(P(A \cup B) = P(A) + P(B)\\).
    5. \(P(\tilde A) = 1 - P(A)\)para cada\(A \subset \Omega\).

    Para cualquier evento\(E\) la probabilidad\(P(E)\) se determina a partir de la distribución\(m\) por\[P(E) = \sum_{\omega \in E} m(\omega)\ ,\] para cada\(E \subset \Omega\). Dado que la función no\(m\) es negativa, se deduce que también\(P(E)\) es no negativa. Así, la Propiedad 1 es verdadera.

    La propiedad 2 es probada por las ecuaciones\[P(\Omega) = \sum_{\omega \in \Omega} m(\omega) = 1\ .\]

    Supongamos que\(E \subset F \subset \Omega\). Entonces cada elemento al\(\omega\) que pertenece pertenece\(E\) también\(F\). Por lo tanto,\[\sum_{\omega \in E} m(\omega) \leq \sum_{\omega \in F} m(\omega)\ ,\] ya que cada término en la suma de la izquierda está en la suma de la derecha, y todos los términos en ambas sumas son no negativos. Esto implica que\[P(E) \le P(F)\ ,\] y se acredita la Propiedad 3.

    Supongamos que a continuación eso\(A\) y\(B\) son subconjuntos disjuntos de\(\Omega\). Entonces cada elemento\(\omega\) de\(A \cup B\) yace ya sea en\(A\) y no en\(B\) o dentro\(B\) y no en\(A\). De ello se deduce que\[\begin{array}{ll} P(A \cup B) &= \sum_{\omega \in A \cup B} m(\omega) = \sum_{\omega \in A} m(\omega) + \sum_{\omega \in B} m(\omega) \\ & \\ &= P(A) + P(B)\ , \end{array}\] y se acredita la Propiedad 4.

    Por último, para acreditar la Propiedad 5, considerar la unión disjunta\[\Omega = A \cup \tilde A\ .\] Desde\(P(\Omega) = 1\), la propiedad de aditividad disjunta (Propiedad 4) implica que de\[1 = P(A) + P(\tilde A)\ ,\] dónde\(P(\tilde A) = 1 - P(A)\).

    Es importante darse cuenta que la Propiedad 4 en Teorema [thm 1.1] puede extenderse a más de dos conjuntos. La propiedad general de aditividad finita viene dada por el siguiente teorema.

    Teorema\(\PageIndex{2}\)

    Si\(A_1\),...,\(A_n\) son subconjuntos disjuntos por pares de\(\Omega\) (es decir, no hay dos de los\(A_i\)'s tienen un elemento en común), entonces\[P(A_1 \cup \cdots \cup A_n) = \sum_{i = 1}^n P(A_i)\ .\] Let\(\omega\) be cualquier elemento en la unión\[A_1 \cup \cdots \cup A_n\ .\] Entonces\(m(\omega)\) ocurre exactamente una vez a cada lado de la igualdad en la declaración del teorema.

    A menudo utilizaremos la siguiente consecuencia del teorema anterior.

    Teorema\(\PageIndex{3}\)

    Que\(A_1\),...,\(A_n\) sean eventos disjuntos por parejas con\(\Omega = A_1 \cup \cdots \cup A_n\), y que\(E\) sea cualquier evento. Entonces\[P(E) = \sum_{i = 1}^n P(E \cap A_i)\ .\] Los conjuntos\(E \cap A_1\),...,\(E \cap A_n\) son disjuntos por pares, y su unión es el conjunto\(E\). El resultado ahora se desprende del Teorema [thm 1.1.5].

    Corolario\ (\ pageIndex {1}\)

    Para dos eventos cualesquiera\(A\) y\(B\),\[P(A) = P(A \cap B) + P(A \cap \tilde B)\ .\]

    La propiedad 4 puede generalizarse de otra manera. Supongamos que\(A\) y\(B\) son subconjuntos de los\(\Omega\) cuales no son necesariamente disjuntos. Entonces:

    Teorema\(\PageIndex{4}\)

    Si\(A\) y\(B\) son subconjuntos de\(\Omega\), entonces

    \[P(A \cup B) = P(A) + P(B) - P(A \cap B)\ \label{eq 1.1}\]

    Prueba

    El lado izquierdo de Ecuación\(\PageIndex{1}\) es la suma de\(m(\omega)\) for\(\omega\) en cualquiera\(A\) o\(B\). Debemos demostrar que el lado derecho de la Ecuación\(\PageIndex{1}\) también suma\(m(\omega)\) para\(\omega\) en\(A\) o\(B\). Si\(\omega\) está exactamente en uno de los dos conjuntos, entonces se cuenta en solo uno de los tres términos del lado derecho de la Ecuación [eq 1.1]. Si está en ambos\(A\) y\(B\), se suma dos veces de los cálculos de\(P(A)\) y\(P(B)\) y se resta una vez para\(P(A \cap B)\). Así se cuenta exactamente una vez por el lado derecho. Por supuesto, si\(A \cap B = \emptyset\), entonces la Ecuación\(\PageIndex{1}\) reduce a la Propiedad 4. (La ecuación también\(\PageIndex{1}\) puede generalizarse; ver Teorema [thm 3.10].)

    Diagramas de árbol

    Ejemplo\(\PageIndex{1}\)

    Ilustremos las propiedades de las probabilidades de eventos en términos de tres tiradas de una moneda. Cuando tenemos un experimento que se lleva a cabo en etapas como esta, a menudo nos resulta conveniente representar los resultados mediante una como se muestra en la Figura\(\PageIndex{7}\)

    A través del árbol corresponde a un posible resultado del experimento. Para el caso de tres tiradas de una moneda, tenemos ocho caminos\(\omega_1\),\(\omega_2\),...,\(\omega_8\) y, suponiendo que cada resultado sea igualmente probable, asignamos igual peso, 1/8, a cada camino. Que\(E\) sea el evento “al menos aparece una cabeza”. Entonces\(\tilde E\) es el evento “no aparecen cabezas”. Este evento se produce por un solo resultado, a saber,\(\omega_8 = \mbox{TTT}\). Así,\(\tilde E = \{\mbox{TTT}\}\) y tenemos

    \[P(\tilde E) = P(\{\mbox{TTT}\}) = m(\mbox{TTT}) = \frac18\ .\]

    Por Propiedad 5 del Teorema\(\PageIndex{1}\),

    \[P(E) = 1 - P(\tilde E) = 1 - \frac18 = \frac78\ .\]

    Tenga en cuenta que a menudo encontraremos que es más fácil calcular la probabilidad de que un evento no ocurra en lugar de la probabilidad de que lo haga. Luego usamos la Propiedad 5 para obtener la probabilidad deseada.

    Que\(A\) sea el evento “el primer desenlace es una cabeza”, y\(B\) el evento “el segundo resultado es una cola”. Al observar los caminos en la Figura [fig 1.7], vemos que\[P(A) = P(B) = \frac12\ .\] Además,\(A \cap B = \{\omega_3,\omega_4\}\), y así\(P(A \cap B) = 1/4.\) Usando el Teorema\(\PageIndex{5}\), obtenemos

    \[\begin{aligned} P(A \cup B) & = & P(A) + P(B) - P(A \cap B) \\ & = & \frac 12 + \frac 12 - \frac 14 = \frac 34\ .\end{aligned}\]

    Ya que\(A \cup B\) es el conjunto de 6 elementos,\[A \cup B = \{\mbox{HHH,HHT,HTH,HTT,TTH,TTT}\}\ ,\] vemos que obtenemos el mismo resultado por enumeración directa.

    En nuestros ejemplos de lanzamiento de monedas y en el ejemplo de troquelado, hemos asignado una probabilidad igual a cada posible resultado del experimento. Correspondiente a este método de asignación de probabilidades, tenemos las siguientes definiciones.

    Distribución Uniforme

    Definición\(\PageIndex{3}\)

    La distribución uniforme en un espacio muestral\(\Omega\) que contiene\(n\) elementos es la función\(m\) definida por

    \[m(\omega) = \frac1n\ ,\]

    para cada\(\omega \in \Omega\).

    Es importante darse cuenta de que cuando se analiza un experimento para describir sus posibles resultados, no existe una sola elección correcta del espacio muestral. Para el experimento de lanzar una moneda dos veces\(\PageIndex{1}\), seleccionamos el conjunto de 4 elementos\(\Omega = \{HH,HT,TH,TT\}\) como espacio muestral y asignamos la función de distribución uniforme. Estas elecciones son ciertamente intuitivamente naturales.

    Por otro lado, para algunos propósitos puede ser más útil considerar el espacio muestral de 3 elementos\(\bar\Omega = \{0,1,2\}\) en el que 0 es el resultado “no aparecen cabezas”, 1 es el resultado “exactamente una cabeza aparece” y 2 es el resultado “dos cabezas aparecen”. La función de distribución\(\bar m\) en\(\bar\Omega\) definida por las ecuaciones

    \[\bar m(0) = \frac14\ ,\qquad \bar m(1) = \frac12\ , \qquad \bar m(2) = \frac14\]

    es la correspondiente a la densidad de probabilidad uniforme en el espacio muestral original\(\Omega\). Observe que es perfectamente posible elegir una función de distribución diferente. Por ejemplo, podemos considerar la función de distribución uniforme on\(\bar\Omega\), que es la función\(\bar q\) definida por

    \[\bar q(0) = \bar q(1) = \bar q(2) = \frac13\ .\]

    Aunque\(\bar q\) es una función de distribución perfectamente buena, no es consistente con los datos observados sobre el lanzamiento de monedas.

    Ejemplo\(\PageIndex{4}\):

    Considera el experimento que consiste en rodar un par de dados. Tomamos como espacio de muestra\(\Omega\) el conjunto de todos los pares ordenados\((i,j)\) de enteros con\(1\leq i\leq 6\) y\(1\leq j\leq 6\). Así,

    \[\Omega = \{\,(i,j):1\leq i,\space j \leq 6\,\}\ .\]

    (Hay al menos otra opción “razonable” para un espacio de muestra, a saber, el conjunto de todos los pares desordenados de números enteros, cada uno entre 1 y 6. Para una discusión de por qué no usamos este conjunto, ver Ejemplo\(\PageIndex{15}\).) Para determinar el tamaño de\(\Omega\), observamos que hay seis opciones para\(i\), y para cada elección de\(i\) hay seis opciones para\(j\), lo que lleva a 36 resultados diferentes. Supongamos que los dados no están cargados. En términos matemáticos, esto significa que asumimos que cada uno de los 36 resultados es igualmente probable, o equivalentemente, de que adoptemos la función de distribución uniforme\(\Omega\) estableciendo\[m((i,j)) = \frac1{36},\qquad 1\leq i,\space j \leq 6\ .\] ¿Cuál es la probabilidad de obtener una suma de 7 en el rollo de dos dados, o de obtener una suma de 11? El primer evento, denotado por\(E\), es el subconjunto

    \[E = \{(1,6),(6,1),(2,5),(5,2),(3,4),(4,3)\}\ .\]

    Una suma de 11 es el subconjunto\(F\) dado por\[F = \{(5,6),(6,5)\}\ .\] Consecuentemente,

    \[\begin{array}{ll} P(E) = &\sum_{\omega \in E} m(\omega) = 6\cdot\frac1{36} = \frac16\ , \\ & \\ P(F) = &\sum_{\omega \in F} m(\omega) = 2\cdot\frac1{36} = \frac1{18}\ . \end{array}\]

    ¿Cuál es la probabilidad de obtener ni ojos de serpiente (dobles) ni (seis dobles)? El evento de obtener cualquiera de estos dos resultados es el conjunto

    \[E = \{(1,1),(6,6)\}\ .\]

    De ahí que la probabilidad de obtener ninguno de los dos viene dada por\[P(\tilde E) = 1 - P(E) = 1 - \frac2{36} = \frac{17}{18}\ .\]

    En los experimentos anteriores de lanzamiento de monedas y de lanzamiento de dados, hemos asignado una probabilidad igual a cada resultado. Es decir, en cada ejemplo, hemos elegido la función de distribución uniforme. Estas son las elecciones naturales siempre que la moneda sea justa y los dados no estén cargados. Sin embargo, la decisión sobre qué función de distribución seleccionar para describir un experimento es parte de la teoría matemática básica de la probabilidad. Este último comienza sólo cuando ya se han definido el espacio muestral y la función de distribución.

    Determinación de Probabilidades

    Es importante considerar formas en las que se determinan las distribuciones de probabilidad en la práctica. Una manera es por simetría. Para el caso del lanzamiento de una moneda, no vemos ninguna diferencia física entre las dos caras de una moneda que deba afectar la posibilidad de que una cara u otra gire hacia arriba. De igual manera, con un dado ordinario no hay diferencia esencial entre dos lados del dado, y así por simetría asignamos la misma probabilidad para cualquier posible resultado. En general, las consideraciones de simetría suelen sugerir la función de distribución uniforme. Aquí se debe tener cuidado. No siempre debemos asumir que, solo porque no conocemos ninguna razón para sugerir que un resultado es más probable que otro, es apropiado asignar probabilidades iguales. Por ejemplo, considere el experimento de adivinar el sexo de un recién nacido. Se ha observado que la proporción de niños recién nacidos que son niños es de aproximadamente .513. Por lo tanto, es más apropiado asignar una función de distribución que asigne probabilidad .513 al niño de resultado y probabilidad .487 a la chica de resultado que asignar probabilidad 1/2 a cada resultado. Este es un ejemplo donde utilizamos observaciones estadísticas para determinar las probabilidades. Tenga en cuenta que estas probabilidades pueden cambiar con nuevos estudios y pueden variar de un país a otro. La ingeniería genética podría incluso permitir que un individuo influya en esta probabilidad para un caso particular.

    Cuotas

    Las estimaciones estadísticas de probabilidades están bien si el experimento considerado puede repetirse varias veces en circunstancias similares. No obstante, supongamos que, al inicio de una temporada futbolística, se quiere asignar una probabilidad al evento de que Dartmouth le gane a Harvard. Realmente no tienes datos que se relacionen con el equipo de futbol de este año. Sin embargo, puedes determinar tu propia probabilidad personal viendo qué tipo de apuesta estarías dispuesto a hacer. Por ejemplo, supongamos que está dispuesto a hacer una apuesta de 1 dólar dando 2 a 1 probabilidades de que Dartmouth gane. Entonces estás dispuesto a pagar 2 dólares si Dartmouth pierde a cambio de recibir 1 dólar si Dartmouth gana. Esto significa que crees que la probabilidad apropiada para que Dartmouth gane es 2/3.

    Veamos con más detenimiento la relación entre las probabilidades y las probabilidades. Supongamos que hacemos una apuesta\(r\) a\(1\) probabilidades de que\(E\) ocurra un evento. Esto quiere decir que pensamos que son\(r\) tiempos tan probables que\(E\) ocurran como eso\(E\) no ocurrirá. En general,\(r\) a\(s\) las cuotas se tomará como que signifique lo mismo que\(r/s\) a 1, es decir, la relación entre los dos números es la única cantidad de importancia a la hora de declarar las cuotas.

    Ahora bien, si son\(r\) tiempos tan probables que\(E\) ocurran como eso\(E\) no ocurrirá, entonces la probabilidad que\(E\) ocurra debe ser\(r/(r+1)\), ya que tenemos\[P(E) = r\,P(\tilde E)\] y\[P(E) + P(\tilde E) = 1\ .\] en general, la afirmación de que las probabilidades son\(r\) a\(s\) favor de un evento \(E\)ocurriendo es equivalente a la afirmación de que\[\begin{aligned} P(E) & = & \frac{r/s}{(r/s) + 1}\\ & = & \frac {r}{r+s}\ .\end{aligned}\] Si dejamos\(P(E) = p\), entonces la ecuación anterior se puede resolver fácilmente\(r/s\) en términos de\(p\); obtenemos\(r/s = p/(1-p)\). Resumimos la discusión anterior en la siguiente definición.

    Definición\ (\ pageIndex {4}\)

    Si\(P(E) = p\), los a favor del suceso\(E\) ocurriendo son\(r : s\) (\(r\)a\(s\)) donde\(r/s = p/(1-p)\). Si\(r\) y\(s\) se dan, entonces se\(p\) pueden encontrar usando la ecuación\(p = r/(r+s)\).

    Ejemplo\ (\ pageIndex {5}\)

    En Ejemplo\(\PageIndex{7}\) asignamos probabilidad 1/5 al evento de que el candidato C gane la carrera. Así son las probabilidades a favor de ganar C\(1/5 : 4/5\). Estas probabilidades también podrían haberse escrito como\(1 : 4\),\(2 : 8\), y así sucesivamente. Una apuesta que gana C es justa si recibimos 4 dólares si C gana y pagamos 1 dólar si C pierde.

    Espacios de muestra infinitos

    Si un espacio de muestra tiene un número infinito de puntos, entonces la forma en que se define una función de distribución depende de si el espacio de muestra es contable o no. Un espacio de muestra es contablemente infinito si los elementos se pueden contar, es decir, se puede poner en correspondencia uno a uno con los enteros positivos, e incontablemente infinito de lo contrario. Los espacios de muestra infinitos requieren nuevos conceptos en general, pero contablemente los espacios infinitos no lo hacen. Si

    \[\Omega = \{\omega_1,\omega_2,\omega_3, \dots\}\]

    es un espacio muestral infinitamente contable, entonces una función de distribución se define exactamente como en Definición\(\PageIndex{2}\), excepto que la suma debe ser ahora una suma infinita. El teorema\(\PageIndex{1}\) sigue siendo cierto, al igual que sus extensiones Teoremas\(\PageIndex{5}\) y\(\PageIndex{5}\) Una cosa que no podemos hacer en un espacio muestral contablemente infinito que podríamos hacer en un espacio muestral finito es definir una función de distribución uniforme como en Definición\(\PageIndex{3}\). Se le pide en Ejercicio\(\PageIndex{19}\) que explique por qué esto no es posible.

    Ejemplo\(\PageIndex{6}\):

    Se lanza una moneda hasta la primera vez que aparece una cabeza. Que el resultado del experimento,\(\omega\), sea la primera vez que aparezca una cabeza. Entonces los posibles resultados de nuestro experimento son\[\Omega = \{1,2,3, \dots\}\ .\] Tenga en cuenta que a pesar de que la moneda podría subir colas cada vez que no hemos permitido esta posibilidad. Vamos a explicar por qué en un momento. La probabilidad de que aparezcan cabezas en el primer lanzamiento es de 1/2. La probabilidad de que las colas surjan en el primer lanzamiento y las cabezas en el segundo es 1/4. La probabilidad de que tengamos dos colas seguidas de una cabeza es 1/8, y así sucesivamente. Esto sugiere asignar la función de distribución\(m(n) = 1/2^n\) para\(n = 1\), 2, 3,... Para ver que esta es una función de distribución debemos demostrar que

    \[\sum_{\omega} m(\omega) = \frac12 + \frac14 + \frac18 + \cdots = 1 .\]

    Que esto sea cierto se desprende de la fórmula para la suma de una serie geométrica,\[1 + r + r^2 + r^3 + \cdots = \frac1{1-r}\ ,\] o\[r + r^2 + r^3 + r^4 + \cdots = \frac r{1-r}\ , \label{eq 1.2}\] para\(-1 < r < 1\).

    Poniendo\(r = 1/2\), vemos que tenemos una probabilidad de 1 de que la moneda finalmente aparezca de cabeza. El posible resultado de colas cada vez tiene que asignarse probabilidad 0, por lo que omitimos de nuestro espacio muestral de posibles resultados.

    \(E\)Sea el evento de que la primera vez que una cabeza aparece es después de un número par de tiradas. Entonces

    \[E = \{2,4,6,8, \dots\}\ ,\]y\[P(E) = \frac14 + \frac1{16} + \frac1{64} +\cdots\ .\]

    Poniendo\(r = 1/4\) en Ecuación\(\PageIndex{2}\) ver que\[P(E) = \frac{1/4}{1 - 1/4} = \frac13\ .\] Así la probabilidad de que una cabeza aparezca por primera vez después de un número par de tiradas es 1/3 y después de un número impar de tiradas es 2/3.

    Observaciones Históricas

    Una pregunta interesante en la historia de la ciencia es: ¿Por qué la probabilidad no se desarrolló hasta el siglo XVI? Sabemos que en el siglo XVI los problemas en el juego y los juegos de azar hicieron que la gente empezara a pensar en la probabilidad. Pero los juegos de azar y los juegos de azar son casi tan antiguos como la civilización misma. En el antiguo Egipto (en la época de la Primera Dinastía, ca. 3500 a.C.) se jugaba un juego ahora llamado “Sabuesos y chacales”. En este juego el movimiento de los sabuesos y chacales se basó en el resultado del rollo de dados de cuatro lados hechos de huesos de animales llamados astragali. Los dados de seis caras hechos de una variedad de materiales se remontan al siglo XVI a.C. El juego estaba muy extendido en la antigua Grecia y Roma. En efecto, en el Imperio Romano a veces se consideró necesario invocar leyes contra el juego. ¿Por qué, entonces, no se calcularon las probabilidades hasta el siglo XVI?

    Se han avanzado varias explicaciones para este desarrollo tardío. Una es que las matemáticas relevantes no se desarrollaron y no fueron fáciles de desarrollar. La notación matemática antigua complicó el cálculo numérico, y nuestra notación algebraica familiar no se desarrolló hasta el siglo XVI. Sin embargo, como veremos, muchas de las ideas combinatorias necesarias para calcular las probabilidades se discutieron mucho antes del siglo XVI. Dado que muchos de los eventos fortuitos de aquellos tiempos tenían que ver con loterías relacionadas con asuntos religiosos, se ha sugerido que puede haber barreras religiosas para el estudio del azar y el juego de azar. Otra sugerencia es que era necesario un incentivo más fuerte, como el desarrollo del comercio. Sin embargo, ninguna de estas explicaciones parece completamente satisfactoria, y la gente todavía se pregunta por qué tomó tanto tiempo para que la probabilidad se estudiara en serio. Una interesante discusión sobre este problema la puede encontrar en Hacking. 14

    La primera persona en calcular probabilidades sistemáticamente fue Gerolamo Cardano (1501—1576) en su libro Esto fue traducido del latín por Gould y aparece en el libro de Ore. 15 El mineral proporciona una fascinante discusión sobre la vida de este erudito colorido con relatos de sus intereses en muchos campos diferentes, incluyendo la medicina, la astrología y las matemáticas. También encontrarás allí un relato detallado de la famosa batalla de Cardano con Tartaglia sobre la solución a la ecuación cúbica.

    En su libro sobre probabilidad Cardano se ocupó únicamente del caso especial que hemos denominado la función de distribución uniforme. Esta restricción a los resultados equiprobables debía continuar por mucho tiempo. En este caso Cardano se dio cuenta de que la probabilidad de que ocurra un evento es la relación entre el número de resultados favorables y el número total de resultados.

    Muchos de los ejemplos de Cardano se referían a rodar dados. Aquí se dio cuenta de que los resultados para dos rollos deben tomarse para ser los 36 pares ordenados\((i,j)\) en lugar de los 21 pares desordenados. Este es un punto sutil que seguía causando problemas mucho después para otros escritores sobre la probabilidad. Por ejemplo, en el siglo XVIII el famoso matemático francés d'Alembert, autor de varias obras sobre probabilidad, afirmó que cuando una moneda es arrojada dos veces el número de cabezas que aparecen sería 0, 1, o 2, y de ahí deberíamos asignar probabilidades iguales para estos tres posibles resultados. 16 Cardano eligió el espacio de muestra correcto para sus problemas de dados y calculó las probabilidades correctas para una variedad de eventos.

    El trabajo matemático de Cardano se entremezcla con muchos consejos al jugador potencial en breves párrafos, titulados, por ejemplo: “¿Quién debería jugar y cuándo”, “Por qué el juego fue condenado por Aristóteles”, “¿Los que enseñan también juegan bien?” y así sucesivamente. En un párrafo titulado “El principio fundamental del juego”, Cardano escribe:

    El principio más fundamental de todos en los juegos de azar es simplemente igualdad de condiciones, por ejemplo, de oponentes, de transeúntes, de dinero, de situación, de la caja de dados, y del dado mismo. En la medida en que te apartes de esa igualdad, si está a favor de tu oponente, eres un tonto, y si en la tuya, eres injusto. 17

    Cardano sí cometió errores, y si se dio cuenta más tarde no volvió y cambió su error. Por ejemplo, para un evento que es favorable en tres de cada cuatro casos, Cardano asignó las cuotas correctas de\(3 : 1\) que ocurrirá el evento. Pero luego asignó cuotas al cuadrar estos números (es decir,\(9 : 1\)) para que el evento sucediera dos veces seguidas. Posteriormente, al considerar el caso donde están las probabilidades\(1 : 1\), se dio cuenta de que esto no puede ser correcto y se llevó al resultado correcto de que cuando\(f\) fuera de\(n\) los resultados son favorables, las probabilidades para un resultado favorable dos veces seguidas son\(f^2 : n^2 - f^2\). Ore señala que esto equivale a la constatación de que si la probabilidad de que ocurra un evento en un experimento es\(p\), la probabilidad de que ocurra dos veces es\(p^2\). Cardano procedió a establecer que para tres éxitos la fórmula debería ser\(p^3\) y para cuatro éxitos\(p^4\), dejando claro que entendió que la probabilidad es\(p^n\) de\(n\) éxitos en repeticiones\(n\) independientes de tal experimento. Esto se derivará del concepto de independencia que introducimos en la Sección 4.1.

    El trabajo de Cardano fue un notable primer intento de anotar las leyes de la probabilidad, pero no fue la chispa la que inició un estudio sistemático del tema. Esto vino de una famosa serie de letras entre Pascal y Fermat. Esta correspondencia fue iniciada por Pascal para consultar a Fermat sobre problemas que le había dado Chevalier de Méré, un conocido escritor, una figura destacada en la corte de Luis XIV, y un jugador ardiente.

    El primer problema que planteó de Méré fue un problema de dados. La historia cuenta que había estado apostando a que al menos un seis aparecería en cuatro tiradas de un dado y ganando con demasiada frecuencia, por lo que luego apostó a que un par de seises aparecería en 24 tiradas de un par de dados. La probabilidad de un seis con un dado es 1/6 y, según la ley de producto para experimentos independientes, la probabilidad de dos seises cuando se lanza un par de dados es\((1/6)(1/6) = 1/36\). Ore 18 afirma que una regla de juego de la época sugería que, dado que cuatro repeticiones eran favorables para la ocurrencia de un evento con probabilidad 1/6, para un evento seis veces más improbable,\(6 \cdot 4 = 24\) las repeticiones serían suficientes para una apuesta favorable. Pascal demostró, por cálculo exacto, que se requieren 25 rollos para una apuesta favorable para un par de seises.

    El segundo problema era mucho más difícil: era un problema viejo y se refería a la determinación de una división justa de las apuestas en un torneo cuando la serie, por alguna razón, se interrumpe antes de que se complete. A este problema se le conoce ahora como el problema de los puntos. El problema había sido un problema estándar en los textos matemáticos; apareció en el libro de Fra Luca Paccioli, impreso en Venecia en 1494, 19 en la forma:

    Un equipo juega pelota de tal manera que se requieren un total de 60 puntos para ganar el juego, y cada entrada cuenta 10 puntos. Las estacas son 10 ducados. Por algún incidente no pueden terminar el juego y un lado tiene 50 puntos y el otro 20. Uno quiere saber qué parte del dinero del premio pertenece a cada bando. En este caso he encontrado que las opiniones difieren una a otra pero todas me parecen insuficientes en sus argumentos, pero voy a exponer la verdad y dar el camino correcto.

    Se habían propuesto soluciones razonables, como dividir las apuestas según la proporción de juegos ganados por cada jugador, pero no se había encontrado una solución correcta al momento de la correspondencia Pascal-Fermat. Las cartas tratan principalmente de los intentos de Pascal y Fermat de resolver este problema. Blaise Pascal (1623—1662) era un niño prodigio, habiendo publicado su tratado sobre secciones cónicas a los dieciséis años, y habiendo inventado una máquina calculadora a los dieciocho años. Al momento de las cartas, su demostración del peso de la atmósfera ya había establecido su posición a la vanguardia de los físicos contemporáneos. Pierre de Fermat (1601—1665) fue un jurista erudito en Toulouse, quien estudió matemáticas en su tiempo libre. Ha sido llamado por algunos el príncipe de los aficionados y uno de los más grandes matemáticos puros de todos los tiempos.

    Las letras, traducidas por Maxine Merrington, aparecen en el fascinante relato histórico de Florence David sobre la probabilidad, los dioses y el juego. 20 En carta fechada el miércoles 29 de julio de 1654, Pascal escribe a Fermat:

    Señor,

    Al igual que usted, estoy igualmente impaciente, y aunque de nuevo estoy enfermo en la cama, no puedo dejar de decirle que ayer por la tarde recibí de M. de Carcavi su carta sobre el problema de los puntos, que admiro más de lo que puedo decir. No tengo el tiempo libre para escribir largamente, pero, en una palabra, has resuelto los dos problemas de puntos, uno con dados y el otro con conjuntos de juegos con perfecta justicia; estoy totalmente satisfecho con ello porque no dudo que me equivoqué, viendo el admirable acuerdo en el que me encuentro contigo ahora...

    Su método es muy sólido y es el que primero me vino a la mente en esta investigación; pero debido a que el trabajo de la combinación es excesivo, he encontrado un atajo y de hecho otro método que es mucho más rápido y ordenado, que me gustaría decirles aquí en pocas palabras: para ahora me gustaría abre mi corazón a ti, si me permite, ya que estoy tan contento con nuestro acuerdo. Veo que la verdad es lo mismo en Toulouse que en París.

    Aquí, más o menos, es lo que hago para mostrar el valor justo de cada juego, cuando dos oponentes juegan, por ejemplo, en tres juegos y cada persona ha apostado 32 pistolas.

    Digamos que el primer hombre había ganado dos veces y el otro una vez; ahora juegan otro juego, en el que las condiciones son que, si el primero gana, se lleve todas las apuestas; es decir 64 pistolas; si el otro lo gana, entonces cada uno ha ganado dos juegos, y por tanto, si desean dejar de jugar, cada uno debe llevarse respaldan su propia estaca, es decir, 32 pistolas cada una.

    Entonces considere, señor, si gana el primer hombre, obtiene 64 pistolas; si pierde obtiene 32. Así, si no desean arriesgar este último juego pero desean separarse sin jugarlo, el primer hombre debe decir: 'Estoy seguro de que conseguiré 32 pistolas, aunque perdiera las sigo recibiendo; pero en cuanto a las otras 32, quizá las consiga, quizá las consiga, las posibilidades son iguales. Entonces dividamos estas 32 pistolas por la mitad y demos la mitad a mí así como a mis 32 que son mías seguro”. Entonces tendrá 48 pistolas y las otras 16...

    El argumento de Pascal produce la tabla ilustrada en la Figura\(\PageIndex{1.9}\) para la cantidad adeudada jugador A en cualquier punto de abandono.

    Cada entrada en la tabla es el promedio de los números justo arriba y a la derecha del número. Este hecho, junto con los valores conocidos cuando se completa el torneo, determina todos los valores en esta tabla. Si el jugador A gana el primer juego, entonces necesita dos juegos para ganar y B necesita tres juegos para ganar; y así, si se cancela el torneo, A debería recibir 44 pistolas.

    Se ha perdido la carta en la que Fermat presentó su solución; pero afortunadamente, Pascal describe el método de Fermat en una carta fechada el lunes 24 de agosto de 1654. De la carta de Pascal: 21

    Este es tu procedimiento cuando hay dos jugadores: Si dos jugadores, jugando varios juegos, se encuentran en esa posición cuando el primer hombre necesita juegos y el segundo necesita, entonces para encontrar la división justa de apuestas, dices que uno debe saber en cuántos juegos se decidirá absolutamente la jugada.

    Es fácil calcular que esto será en juegos, de los cuales se puede concluir que es necesario ver de cuántas formas se pueden arreglar cuatro juegos entre dos jugadores, y uno debe ver cuántas combinaciones harían ganar al primer hombre y cuántas el segundo y para repartir las apuestas en esta proporción. A mí me hubiera resultado difícil entender esto si yo no lo hubiera sabido ya; de hecho usted lo había explicado con esta idea en mente.

    Fermat se dio cuenta de que la cantidad de formas en que el juego podría estar terminado puede no ser igual de probable. Por ejemplo, si A necesita dos juegos más y B necesita tres para ganar, dos posibles formas en que el torneo podría ir para que A gane son WLW y LWLW. Estas dos secuencias no tienen la misma probabilidad de ocurrir. Para evitar esta dificultad, Fermat extendió la jugada, sumando jugadas ficticias, para que todas las formas en que pudieran ir los juegos tengan la misma duración, es decir, cuatro. Fue lo suficientemente astuto como para darse cuenta de que esta extensión no cambiaría al ganador y que ahora simplemente podía contar el número de secuencias favorables a cada jugador ya que las había hecho todas igualmente probables. Si enumeramos todas las formas posibles en las que podría ir el juego extendido de cuatro jugadas, obtenemos los siguientes 16 posibles resultados de la jugada:

    WWWW WLWW LWWW LLWW
    WWWL WLWL LWWL LLWL
    WWLW WLLW LWLW LLLW
    WWLL WLLL LWLL LLLL.

    El jugador A gana en los casos en que haya al menos dos victorias (los 11 casos subrayados), y B gana en los casos en que haya al menos tres derrotas (los otros 5 casos). Desde que A gana en 11 de los 16 casos posibles Fermat argumentó que la probabilidad de que A gane es 11/16. Si las estacas son 64 pistolas, A debería recibir 44 pistolas de acuerdo con el resultado de Pascal. Pascal y Fermat desarrollaron métodos más sistemáticos para contar el número de resultados favorables para problemas como este, y este será uno de nuestros problemas centrales. Dichos métodos de conteo caen bajo el tema de, que es el tema del Capítulo 3.

    Vemos que estos dos matemáticos llegaron a dos formas muy distintas de resolver el problema de los puntos. El método de Pascal fue desarrollar un algoritmo y usarlo para calcular la división justa. Este método es fácil de implementar en una computadora y fácil de generalizar. El método de Fermat, por otro lado, era cambiar el problema en un problema equivalente para el cual pudiera usar métodos de conteo o combinatorios. Veremos en el Capítulo 3 que, de hecho, ¡Fermat utilizó lo que se ha dado a conocer como el triángulo de Pascal! En nuestro estudio de probabilidad hoy encontraremos que tanto el enfoque algorítmico como el enfoque combinatorio comparten igual facturación, tal como lo hicieron hace 300 años cuando la probabilidad comenzó.

    Ejercicio\ (\ pageIndex {1}\)

    Dejar\(\Omega = \{a,b,c\}\) ser un espacio de muestra. Vamos\(m(a) = 1/2\),\(m(b) = 1/3\), y\(m(c) = 1/6\). Encuentra las probabilidades para los ocho subconjuntos de\(\Omega\).

    Ejercicio\ (\ pageIndex {2}\)

    Dar un posible espacio de muestra\(\Omega\) para cada uno de los siguientes experimentos:

    1. Una elección decide entre dos candidatos A y B.

       

    2. Se lanza una moneda de dos caras.

       

    3. A una estudiante se le pide el mes del año y el día de la semana en que cae su cumpleaños.

       

    4. Se elige al azar a un alumno de una clase de diez alumnos.

       

    5. Recibes una nota en este curso.

       

    Ejercicio\ (\ pageIndex {3}\)

    ¿Para cuál de los casos en Ejercicio\(\PageIndex{2}\) sería razonable asignar la función de distribución uniforme?

    Ejercicio\ (\ pageIndex {4}\)

    Describa en palabras los eventos especificados por los siguientes subconjuntos de\[\Omega = \{HHH,\ HHT,\ HTH,\ HTT,\ THH,\ THT,\ TTH,\ TTT\}\] (ver Ejemplo\(\PageIndex{5}\)).

    1. \(E = \{\mbox{HHH,HHT,HTH,HTT}\}\).

       

    2. \(E = \{\mbox{HHH,TTT}\}\).

       

    3. \(E = \{\mbox{HHT,HTH,THH}\}\).

       

    4. \(E = \{\mbox{HHT,HTH,HTT,THH,THT,TTH,TTT}\}\).

       

    Ejercicio\ (\ pageIndex {5}\)

    ¿Cuáles son las probabilidades de los eventos descritos en Ejercicio\( \PageIndex{4}\)?

    Ejercicio\ (\ pageIndex {6}\)

    Un dado se carga de tal manera que la probabilidad de que cada cara se vuelva hacia arriba es proporcional al número de puntos en esa cara. (Por ejemplo, un seis es tres veces más probable que un dos.) ¿Cuál es la probabilidad de obtener un número par en un tiro?

    Ejercicio\ (\ pageIndex {7}\)

    Que\(A\) y\(B\) sean eventos tales que\(P(A \cap B) = 1/4\),\(P(\tilde A) = 1/3\), y\(P(B) = 1/2\). ¿Qué es\(P(A \cup B)\)?

    Ejercicio\ (\ pageIndex {8}\)

    Un estudiante debe elegir una de las materias, arte, geología o psicología, como optativa. Es igualmente probable que elija el arte o la psicología y el doble de probabilidades de elegir la geología. ¿Cuáles son las probabilidades respectivas de que elija el arte, la geología y la psicología?

    Ejercicio\ (\ pageIndex {9}\)

    Un estudiante debe elegir exactamente dos de cada tres asignaturas optativas: arte, francés y matemáticas. Escoge arte con probabilidad 5/8, francés con probabilidad 5/8, y arte y francés junto con probabilidad 1/4. ¿Cuál es la probabilidad de que elija las matemáticas? ¿Cuál es la probabilidad de que elija el arte o el francés?

    Ejercicio\ (\ pageIndex {10}\)

    Para que un proyecto de ley llegue ante el presidente de Estados Unidos, debe ser aprobado tanto por la Cámara de Representantes como por el Senado. Supongamos que, de los proyectos de ley presentados a estos dos órganos, el 60 por ciento aprueba la Cámara de Representantes, el 80 por ciento aprueba el Senado y el 90 por ciento aprueba al menos uno de los dos. Calcular la probabilidad de que el próximo proyecto de ley presentado a los dos grupos venga ante el presidente.

    Ejercicio\ (\ pageIndex {11}\)

    ¿Qué probabilidades debe dar una persona a favor de los siguientes eventos?

    1. Una carta elegida al azar de una baraja de 52 cartas es un as.

       

    2. Dos cabezas se levantarán cuando una moneda sea arrojada dos veces.

       

    3. Los vagones (dos seis) subirán cuando se lancen dos dados.

       

    Ejercicio\ (\ pageIndex {12}\)

    Ofreces\(3 : 1\) probabilidades de que tu amigo Smith sea electo alcalde de tu ciudad. ¿Qué probabilidad estás asignando al evento que gana Smith?

    Ejercicio\ (\ pageIndex {13.1}\)

    En una carrera de caballos, las probabilidades de que Romance gane se enumeran como\(2 : 3\) y que Downhill gane son\(1 : 2\). ¿Qué probabilidades se deben dar para el evento que gane Romance o Downhill?

    Ejercicio\ (\ PageIndex {13.2}\)

    Let\(X\) Ser una variable aleatoria con función de distribución\(m_X(x)\) definida por\[m_X(-1) = 1/5,\ \ m_X(0) = 1/5,\ \ m_X(1) = 2/5,\ \ m_X(2) = 1/5\ .\]

    1. \(Y\)Sea la variable aleatoria definida por la ecuación\(Y = X + 3\). Encuentra la función\(m_Y(y)\) de distribución de\(Y\).

       

    2. \(Z\)Sea la variable aleatoria definida por la ecuación\(Z = X^2\). Encuentra la función\(m_Z(z)\) de distribución de\(Z\).

       

    Ejercicio\ (\ pageIndex {14}\)

    John y Mary están tomando un curso de matemáticas. El curso tiene sólo tres calificaciones: A, B y C. La probabilidad de que John obtenga una B es .3. La probabilidad de que María obtenga una B es .4. La probabilidad de que ninguno obtenga una A pero al menos uno obtenga una B es .1. ¿Cuál es la probabilidad de que al menos uno obtenga una B pero ninguno obtenga una C?

    Ejercicio\ (\ pageIndex {15}\)

    En una feroz batalla, no menos del 70 por ciento de los soldados perdieron un ojo, no menos del 75 por ciento perdió una oreja, no menos del 80 por ciento perdió una mano, y no menos del 85 por ciento perdió una pierna. ¿Cuál es el porcentaje mínimo posible de quienes simultáneamente perdieron una oreja, un ojo, una mano y una pierna? 22

    Ejercicio\ (\ pageIndex {16}\)

    Supongamos que la probabilidad de un “éxito” en un solo experimento con\(n\) resultados es\(1/n\). \(m\)Sea el número de experimentos necesarios para que sea una apuesta favorable a que se produzca al menos un éxito (ver Ejercicio\(\PageIndex{5}\)).

    1. Demostrar que la probabilidad de que, en\(m\) los ensayos, no haya éxitos lo es\((1 - 1/n)^m\).

       

    2. (de Moivre) Demuestre que si\(m = n \log 2\) entonces\[\lim_{n \to \infty} \left(1 - \frac1n \right)^m = \frac12\ .\]:\[\lim_{n \to \infty} \left(1 - \frac1n \right)^n = e^{-1}\ .\] De ahí que para los grandes\(n\) deberíamos\(m\) elegir estar sobre\(n \log 2\).

       

    3. ¿Demoivre habría sido llevado a la respuesta correcta para las dos apuestas de De Méré si hubiera utilizado su aproximación?

       

    Ejercicio\ (\ pageIndex {17}\)

    1. Para eventos\(A_1\),...,\(A_n\), demostrar que\[P(A_1 \cup \cdots \cup A_n) \leq P(A_1) + \cdots + P(A_n)\ .\]

       

    2. Para eventos\(A\) y\(B\), demostrar que\[P(A \cap B) \geq P(A) + P(B) - 1.\]

       

    Ejercicio\ (\ pageIndex {18}\)

    Si\(A\),\(B\), y\(C\) son tres eventos cualquiera, demuéstralo\[\begin{array}{ll} P(A \cup B \cup C) &= P(A) + P(B) + P(C) \\ &\ \ -\, P(A \cap B) - P(B \cap C) - P(C \cap A) \\ &\ \ +\, P(A \cap B \cap C)\ . \end{array}\]

    Ejercicio\ (\ pageIndex {19}\)

    Explicar por qué no es posible definir una función de distribución uniforme (ver Definición\(\PageIndex{3}\)) en un espacio muestral infinitamente contable.: Asumir\(m(\omega) = a\) para todos\(\omega\), donde\(0 \leq a \leq 1\). ¿\(m(\omega)\)Tiene todas las propiedades de una función de distribución?

    Ejercicio\ (\ pageIndex {20}\)

    En Ejemplo\(PageIndex{10}\) encuentra la probabilidad de que la moneda suba cabezas por primera vez en el décimo, undécimo o duodécimo lanzamiento.

    Ejercicio\ (\ pageIndex {21}\)

    Un dado se enrolla hasta la primera vez que aparece un seis. Veremos que la probabilidad de que esto ocurra en\(n\) el rollo es\((5/6)^{n-1}\cdot(1/6)\). A partir de este hecho, describa el espacio de muestra infinito apropiado y la función de distribución para el experimento de enrollar una matriz hasta que un seis vuelca por primera vez. Verifíquelo para su función de distribución\(\sum_{\omega} m(\omega) = 1\).

    Ejercicio\ (\ pageIndex {22}\)

    Dejar\(\Omega\) ser el espacio de muestra\[\Omega = \{0,1,2,\dots\}\ ,\] y definir una función de distribución por\[m(j) = (1 - r)^j r\ ,\] para algunos fijos\(r\),\(0 < r < 1\), y para\(j = 0, 1, 2, \ldots\). Demostrar que esta es una función de distribución para\(\Omega\).

    Ejercicio\ (\ pageIndex {23}\)

    Nuestro calendario tiene un ciclo de 400 años. B. H. Brown notó que el número de veces que cae el decimotercer del mes en cada uno de los días de la semana en los 4800 meses de un ciclo es el siguiente:

    Domingo 687

    Lunes 685

    Martes 685

    Miércoles 687

    Jueves 684

    Viernes 688

    Sábado 684

    De esto dedujo que el decimotercer tenía más probabilidades de caer el viernes que en cualquier otro día. Explique a qué se refería con esto.

    Ejercicio\ (\ pageIndex {24}\)

    Tversky y Kahneman 23 pidieron a un grupo de sujetos realizar la siguiente tarea. Se les dice que:

    Linda tiene 31 años, soltera, franca y muy brillante. Se especializó en filosofía en la universidad. Como estudiante, estaba profundamente preocupada por la discriminación racial y otros temas sociales, y participó en manifestaciones antinucleares.

    Luego se pide a los sujetos que califiquen la probabilidad de diversas alternativas, como: (1) Linda es activa en el movimiento feminista. (2) Linda es cajera de banco. (3) Linda es cajera de banco y activa en el movimiento feminista.

    Tversky y Kahneman encontraron que entre 85 y 90 por ciento de los sujetos calificaron alternativa (1) más probable, pero alternativa (3) más probable que alternativa (2). ¿Lo es? Llaman a este fenómeno el y señalan que parece no verse afectado por el entrenamiento previo en probabilidad o estadística. ¿Es este fenómeno una falacia? Si es así, ¿por qué? ¿Se puede dar una posible explicación de las elecciones de los sujetos?

    Ejercicio\ (\ pageIndex {25}\)

    Dos cartas se extraen sucesivamente de una baraja de 52 cartas. Encuentra la probabilidad de que la segunda carta sea mayor en rango que la primera carta.: Demuéstralo\(1 = P(\mbox{higher}) + P(\mbox{lower}) + P(\mbox{same})\) y usa el hecho de que\(P(\mbox{higher}) = P(\mbox{lower})\).

    Ejercicio\ (\ pageIndex {26}\)

    A es una tabla que enumera para un número determinado de nacimientos el número estimado de personas que vivirán hasta una edad determinada. En el Apéndice C damos una tabla de vida basada en 100, 000 nacimientos para edades de 0 a 85 años, tanto para mujeres como para hombres. Muestra cómo a partir de esta tabla puedes estimar la probabilidad de\(m(x)\) que una persona nacida en 1981 viva hasta la edad\(x\). Escribe un programa para trazar\(m(x)\) tanto para hombres como para mujeres, y comenta las diferencias que veas en los dos casos.

    Ejercicio\ (\ pageIndex {27}\)

    Aquí hay un intento de sortear el hecho de que no podemos elegir un “entero aleatorio”.

    1. ¿Cuál es, intuitivamente, la probabilidad de que un entero positivo “elegido aleatoriamente” sea un múltiplo de 3?

       

    2. \(P_3(N)\)Sea la probabilidad de que un entero, elegido al azar entre 1 y\(N\), sea un múltiplo de 3 (ya que el espacio muestral es finito, esta es una probabilidad legítima). Demostrar que el límite\[P_3 = \lim_{N \to \infty} P_3(N)\] existe y equivale a 1/3. Esto formaliza la intuición en (a), y nos da una manera de asignar “probabilidades” a ciertos eventos que son subconjuntos infinitos de los enteros positivos.

       

    3. Si\(A\) es algún conjunto de enteros positivos, vamos a\(A(N)\) significar el número de elementos de los\(A\) cuales son menores o iguales a\(N\). Luego definir la “probabilidad” de\(A\) como\[P(A) = \lim_{N \to \infty} A(N)/N\ ,\] siempre que exista este límite. Mostrar que esta definición asignaría probabilidad 0 a cualquier conjunto finito y probabilidad 1 al conjunto de todos los enteros positivos. Así, la probabilidad del conjunto de todos los enteros no es la suma de las probabilidades de los enteros individuales en este conjunto. Esto quiere decir que la definición de probabilidad dada aquí no es una definición completamente satisfactoria.

       

    4. Dejar\(A\) ser el conjunto de todos los enteros positivos con un número impar de dígitos. Demostrar que\(P(A)\) no existe. Esto demuestra que bajo la definición de probabilidad anterior, no todos los conjuntos tienen probabilidades.

       

    Ejercicio\ (\ pageIndex {28}\)

    (de Sholander 24) En un intercambio estándar de hoja de trébol, hay cuatro rampas para hacer giros a la derecha, y dentro de estas cuatro rampas, hay cuatro rampas más para hacer giros a la izquierda. Tu auto se acerca al intercambio desde el sur. Se ha instalado un mecanismo para que en cada punto donde exista una elección de direcciones, el automóvil gire a la derecha con probabilidad fija\(r\).

    1. Si\(r = 1/2\), ¿cuál es tu oportunidad de salir del intercambio yendo hacia el oeste?

       

    2. Encuentra el valor\(r\) que maximiza tus posibilidades de una salida hacia el oeste del intercambio.

       

    Ejercicio\ (\ pageIndex {29}\)

    (de Benkoski 25) Considera un intercambio “puro” de hoja de trébol en el que no hay rampas para giros a la derecha, sino solo las dos autopistas rectas que se cruzan con hojas de trébol para giros a la izquierda. (Así, para girar a la derecha en tal intercambio, se deben hacer tres giros a la izquierda). Al igual que en el problema anterior, tu auto se acerca al intercambio desde el sur. ¿Cuál es el valor de\(r\) que maximiza tus posibilidades de una salida hacia el este del intercambio?

    Ejercicio\ (\ pageIndex {30}\)

    (de vos Savant 26) Un lector de la columna de Marilyn vos Savant escribió con la siguiente pregunta:

    Mi papá escuchó esta historia en la radio. En la Universidad de Duke, dos estudiantes habían recibido A's en química durante todo el semestre. Pero la noche anterior al examen final, estaban de fiesta en otro estado y no volvieron con Duke hasta que terminó. Su excusa para el profesor era que tenían una llanta desinflada, y preguntaron si podían hacerse una prueba de maquillaje. El profesor estuvo de acuerdo, escribió una prueba y envió a los dos a salas separadas para tomarla. La primera pregunta (en un lado del papel) valía 5 puntos, y la respondieron con facilidad. Después voltearon el papel y encontraron la segunda pregunta, valorada en 95 puntos: '¿Qué llanta era?' ¿Cuál era la probabilidad de que ambos estudiantes dijeran lo mismo? Mi papá y yo pensamos que es 1 de cada 16. ¿Eso es correcto?”

    1. ¿La respuesta es 1/16?

       

    2. Se hizo la siguiente pregunta a una clase de alumnos. “Hoy iba conduciendo a la escuela, y una de mis llantas se deshizo. ¿Qué llanta crees que era?” Las respuestas fueron las siguientes: delantero derecho, 58%, delantero izquierdo, 11%, trasero derecho, 18%, trasero izquierdo, 13%. Supongamos que esta distribución se mantiene en la población general, y asumir que los dos examinados se eligen aleatoriamente de la población general. ¿Cuál es la probabilidad de que den la misma respuesta a la segunda pregunta?

       


    This page titled 1.2: Distribución de probabilidad discreta is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.