Saltar al contenido principal
LibreTexts Español

3.2: Combinaciones

  • Page ID
    150182
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Habiendo dominado las permutaciones, ahora consideramos combinaciones. Dejar\(U\) ser un conjunto con\(n\) elementos; queremos contar el número de subconjuntos distintos del conjunto\(U\) que tienen exactamente\(j\) elementos. El conjunto vacío y el conjunto\(U\) se consideran subconjuntos de\(U\). El conjunto vacío suele ser denotado por\(\phi\).

    Ejemplo\(\PageIndex{5}\):

    Vamos\(U = \{a,b,c\}\). Los subconjuntos de\(U\) son\[\phi,\ \{a\},\ \{b\},\ \{c\},\ \{a,b\},\ \{a,c\},\ \{b,c\},\ \{a,b,c\}\ .\]

    Coeficientes binomiales

    El número de subconjuntos distintos con\(j\) elementos que se pueden elegir de un conjunto con\(n\) elementos se denota por\({n \choose j}\), y se pronuncia “\(n\)elegir”\(j\). El número\(n \choose j\) se denomina coeficiente binomial. Esta terminología proviene de una aplicación al álgebra que se discutirá más adelante en esta sección.

    En el ejemplo anterior, hay un subconjunto sin elementos, tres subconjuntos con exactamente 1 elemento, tres subconjuntos con exactamente 2 elementos y un subconjunto con exactamente 3 elementos. Así,\({3 \choose 0} = 1\),\({3 \choose 1} = 3\),\({3 \choose 2} = 3\), y\({3 \choose 3} = 1\). Tenga en cuenta que hay\(2^3 = 8\) subconjuntos en todos. (Ya hemos visto que un conjunto con\(n\) elementos tiene\(2^n\) subconjuntos; ver Ejercicio 3.1.8) De ello se deduce que

    \[{3 \choose 0} + {3 \choose 1} + {3 \choose 2} + {3 \choose 3} = 2^3 = 8\ ,\]\[{n \choose 0} = {n \choose n} = 1\ .\]

    Asumir eso\(n > 0\). Entonces, dado que solo hay una forma de elegir un conjunto sin elementos y solo una forma de elegir un conjunto con\(n\) elementos, los valores restantes de\(n \choose j\) están determinados por lo siguiente:

    Teorema\(\PageIndex{1}\)

    Para enteros\(n\) y\(j\), con\(0 < j < n\), los coeficientes binomiales satisfacen:

    \[{n \choose j} = {n-1 \choose j} + {n-1 \choose j - 1}\ . \label{eq 3.3}\]

    Prueba

    Deseamos elegir un subconjunto de\(j\) elementos. Elija un elemento\(u\) de\(U\). Supongamos primero que no queremos\(u\) en el subconjunto. Entonces debemos elegir los\(j\) elementos de un conjunto de\(n - 1\) elementos; esto se puede hacer de\({n-1 \choose j}\) maneras. Por otro lado, supongamos que sí queremos\(u\) en el subconjunto. Entonces debemos elegir los otros\(j - 1\) elementos de entre los\(n - 1\) elementos restantes de\(U\); esto se puede hacer de\({n-1 \choose j - 1}\) maneras. Dado que\(u\) está en nuestro subconjunto o no, el número de formas en que podemos elegir un subconjunto de\(j\) elementos es la suma del número de subconjuntos de\(j\) elementos que tienen\(u\) como miembro y el número que no, esto es lo que establece la Ecuación 3.1.1.

    El coeficiente binomial\(n \choose j\) se define como 0, si\(j < 0\) o si\(j > n\). Con esta definición, las restricciones\(j\) en Teorema\(\PageIndex{1}\) son innecesarias.

    Triángulo de Pascal

    La relación 3.1, junto con el conocimiento que\[{n \choose 0} = {n \choose n }= 1\ ,\] determina completamente los números\(n \choose j\). Podemos utilizar estas relaciones para determinar el famoso que exhibe todos estos números en forma de matriz (ver Figura 3.3).

    La fila\(n\) th de este triángulo tiene las entradas\(n \choose 0\),\(n \choose 1\),...,\(n \choose n\). Sabemos que el primero y el último de estos números son 1. Los números restantes están determinados por la relación de recurrencia Ecuación 3.1; es decir, la entrada\({n \choose j}\) para\(0 < j < n\) en la fila\(n\) th del triángulo de Pascal es la de la entrada inmediatamente superior y la inmediatamente a su izquierda en la fila\((n - 1)\) st. Por ejemplo,\({5 \choose 2} = 6 + 4 = 10\).

    Este algoritmo para construir el triángulo de Pascal se puede utilizar para escribir un programa de computadora para calcular los coeficientes binomiales. Se le pide que haga esto en el Ejercicio 4.

    Si bien el triángulo de Pascal proporciona una manera de construir recursivamente los coeficientes binomiales, también es posible dar una fórmula para\(n \choose j\).

    Teorema\(\PageIndex{1}\)

    Los coeficientes binomiales vienen dados por la fórmula\[{n \choose j }= \frac{(n)_j}{j!}\ . \label{eq 3.4}\]

    Prueba

    Cada subconjunto de tamaño\(j\) de un conjunto de tamaños se\(n\) puede ordenar de\(j!\) maneras. Cada uno de estos ordenamientos es una\(j\) -permutación del conjunto de tamaños\(n\). El número de\(j\) -permutaciones es\((n)_j\), por lo que el número de subconjuntos de tamaño\(j\) es\[\frac{(n)_j}{j!}\ .\] Esto completa la prueba.

    La fórmula anterior se puede reescribir en la forma\[{n \choose j} = \frac{n!}{j!(n-j)!}\ .\] Esto demuestra inmediatamente que\[{n \choose j} = {n \choose {n-j}}\ .\]

    Al usar la Ecuación 3.2 en el cálculo de\({n \choose j}\), si se alternan las multiplicaciones y divisiones, entonces todos los valores intermedios en el cálculo son enteros. Además, ninguno de estos valores intermedios supera el valor final. (Ver Ejercicio 40.)

    Otro punto que se debe hacer respecto a la Ecuación [eq 3.4] es que si se usa a los coeficientes binomiales, entonces ya no es necesario exigir\(n\) que sea un entero positivo. La variable\(j\) debe seguir siendo un entero no negativo bajo esta definición. Esta idea es útil a la hora de extender el Teorema Binomial a exponentes generales. (El Teorema Binomial para exponentes enteros no negativos se da a continuación como Teorema [thm 3.9].)

    Manos de Póker

    Ejemplo\(\PageIndex{6}\):

    Los jugadores de póquer a veces se preguntan por qué un bate a una mano de póquer A es un subconjunto aleatorio de 5 elementos de una baraja de 52 cartas. Una mano tiene cuatro de un tipo si tiene cuatro cartas con el mismo valor, por ejemplo, cuatro seis o cuatro reyes. Es una casa llena si tiene tres de un valor y dos de un segundo, por ejemplo, tres dos y dos reinas. Veamos qué mano es más probable. ¿Cuántas manos tienen cuatro de un tipo? Hay 13 formas en las que podemos especificar el valor para las cuatro tarjetas. Para cada una de estas, hay 48 posibilidades para la quinta carta. Así, el número de manos cuatro-de-uno-tipo es\(13 \cdot 48 = 624\). Dado que el número total de manos posibles es\({52 \choose 5} = 2598960\), la probabilidad de que una mano con cuatro de un tipo es\(624/2598960 = .00024\).

    Ahora consideremos el caso de una casa llena; ¿cuántas manos de ese tipo hay? Hay 13 opciones para el valor que ocurre tres veces; para cada una de estas hay\({4 \choose 3} = 4\) opciones para las tres cartas particulares de este valor que están en la mano. Habiendo escogido estas tres cartas, hay 12 posibilidades para el valor que ocurre dos veces; para cada una de estas hay\({4 \choose 2} = 6\) posibilidades para el par particular de este valor. Así, el número de casas llenas es\(13 \cdot 4 \cdot 12 \cdot 6 = 3744\), y la probabilidad de obtener una mano con una casa llena es\(3744/2598960 = .0014\). Por lo tanto, si bien ambos tipos de manos son poco probables, tienes seis veces más probabilidades de obtener una casa llena que cuatro de una especie.

    Juicios de Bernoulli

    Nuestro principal uso de los coeficientes binomiales ocurrirá en el estudio de uno de los procesos de azar importantes llamados

    Definición\(\PageIndex{1}\)

    Un Bernoulli es una secuencia de experimentos\(n\) fortuitos tales que

    1. Cada experimento tiene dos posibles resultados, que podemos llamar y

    2. La probabilidad\(p\) de éxito en cada experimento es la misma para cada experimento, y esta probabilidad no se ve afectada por ningún conocimiento de los resultados previos. La probabilidad\(q\) de falla viene dada por\(q = 1 - p\).

    Ejemplo\(\PageIndex{7}\)

    Los siguientes son procesos de ensayos de Bernoulli:

    1. Una moneda es arrojada diez veces. Los dos posibles resultados son cara y cola. La probabilidad de cabezas en cualquier lanzamiento es 1/2.

    2. Se realiza una encuesta de opinión preguntando a 1000 personas, elegidas al azar entre la población, si favorecen la enmienda de Igualdad de Derechos, siendo dos resultados sí y no. La probabilidad\(p\) de una respuesta sí (es decir, un éxito) indica la proporción de personas en toda la población que favorecen esta modificación.

    3. Un jugador hace una secuencia de apuestas de 1 dólar, apostando cada vez en negro en la ruleta en Las Vegas. Aquí un éxito es ganar 1 dólar y un fracaso es perder 1 dólar. Ya que en la ruleta americana el jugador gana si la pelota se detiene en una de 18 de 38 posiciones y pierde lo contrario, la probabilidad de ganar es\(p = 18/38 = .474\).

    Para analizar un proceso de ensayos de Bernoulli, elegimos como nuestro espacio de muestra un árbol binario y asignamos una distribución de probabilidad a los caminos en este árbol. Supongamos, por ejemplo, que tenemos tres juicios de Bernoulli. Los posibles resultados se indican en el diagrama de árbol que se muestra en la Figura 3.4. \(X\)Definimos como la variable aleatoria que representa el resultado del proceso, es decir, un triple ordenado de S y F; las probabilidades asignadas a las ramas del árbol representan la probabilidad para cada ensayo individual. Que el resultado del\(i\) th ensayo sea denotado por la variable aleatoria\(X_i\), con función de distribución\(m_i\). Dado que hemos asumido que los resultados en cualquier ensayo no afectan a los de otro, asignamos las mismas probabilidades en cada nivel del árbol. Un resultado\(\omega\) para todo el experimento será un camino a través del árbol. Por ejemplo,\(\omega_3\) representa los resultados SFS. Nuestra interpretación de frecuencia de la probabilidad nos llevaría a esperar una fracción\(p\) de éxitos en el primer experimento; de estos, una fracción\(q\) de fracasos en el segundo; y, de estos, una fracción\(p\) de éxitos en el tercer experimento. Esto sugiere asignar probabilidad\(pqp\) al resultado\(\omega_3\). De manera más general, asignamos una función de distribución\(m(\omega)\) para rutas\(\omega\) definiendo que\(m(\omega)\) sea el producto de las probabilidades de rama a lo largo de la ruta\(\omega\). Así, la probabilidad de que ocurran los tres eventos S en el primer ensayo, F en el segundo y S en el tercer ensayo es producto de las probabilidades para los eventos individuales. Veremos en el siguiente capítulo que esto significa que los eventos involucrados son en el sentido de que el conocimiento de un evento no afecta nuestra predicción de las ocurrencias de los otros eventos.

    Probabilidades Binomiales

    Nos interesará particularmente la probabilidad de que en los juicios de\(n\) Bernoulli haya exactamente\(j\) éxitos. Denotamos esta probabilidad por\(b(n,p,j)\). Calculemos el valor particular\(b(3,p,2)\) a partir de nuestra medida de árbol. Vemos que hay tres caminos que tienen exactamente dos éxitos y un fracaso, a saber\(\omega_2\),\(\omega_3\), y\(\omega_5\). Cada uno de estos caminos tiene la misma probabilidad\(p^2q\). Así\(b(3,p,2) = 3p^2q\). Teniendo en cuenta todos los números posibles de éxitos que tenemos

    \[\begin{aligned} b(3,p,0) &=& q^3\ ,\\ b(3,p,1) &=& 3pq^2\ ,\\ b(3,p,2) &=& 3p^2q\ ,\\ b(3,p,3) &=& p^3\ .\end{aligned}\]Podemos, de la misma manera, realizar una medición de árboles para\(n\) experimentos y determinar\(b(n,p,j)\) para el caso general de los ensayos de\(n\) Bernoulli.

    Teorema\(\PageIndex{2}\)

    Dados los ensayos de\(n\) Bernoulli con probabilidad\(p\) de éxito en cada experimento, la probabilidad de exactamente\(j\) éxitos es\[b(n,p,j) = {n \choose j} p^j q^{n - j}\] dónde\(q = 1 - p\).

    Prueba

    Construimos una medida de árbol como se describió anteriormente. Queremos encontrar la suma de las probabilidades para todos los caminos que tienen exactamente\(j\) éxitos y\(n - j\) fracasos. A cada uno de esos caminos se le asigna una probabilidad\(p^j q^{n - j}\). ¿Cuántos de esos caminos hay? Para especificar un camino, tenemos que escoger, de los\(n\) posibles ensayos, un subconjunto de\(j\) para ser éxitos, siendo los\(n-j\) resultados restantes fracasos. Esto lo podemos hacer de\(n \choose j\) maneras. Así la suma de las probabilidades es\[b(n,p,j) = {n \choose j} p^j q^{n - j}\ .\]

    Ejemplo\(\PageIndex{8}\):

    Una moneda justa es arrojada seis veces. ¿Cuál es la probabilidad de que aparezcan exactamente tres cabezas? La respuesta es\[b(6,.5,3) = {6 \choose 3} \left(\frac12\right)^3 \left(\frac12\right)^3 = 20 \cdot \frac1{64} = .3125\ .\]

    Ejemplo\(\PageIndex{9}\):

    Un dado se enrolla cuatro veces. ¿Cuál es la probabilidad de que obtengamos exactamente un 6? Tratamos esto como ensayos de Bernoulli con éxito = “rodando un 6" y fracaso = “rodando algún número que no sea un 6”. Entonces\(p = 1/6\), y la probabilidad de exactamente un éxito en cuatro ensayos es\[b(4,1/6,1) = {4 \choose 1 }\left(\frac16\right)^1 \left(\frac56\right)^3 = .386\ .\]

    Para calcular las probabilidades binomiales usando la computadora, multiplique la función elegir\((n,k)\) por\(p^kq^{n - k}\). El programa BinomialProbabilities imprime las probabilidades binomiales\(b(n, p, k)\) para\(k\) entre\(kmin\) y\(kmax\), y la suma de estas probabilidades. Hemos ejecutado este programa para\(n = 100\),,\(p = 1/2\)\(kmin = 45\), y\(kmax = 55\); la salida se muestra en la Tabla 3.8. Tenga en cuenta que las probabilidades individuales son bastante pequeñas. La probabilidad de exactamente 50 cabezas en 100 tiradas de una moneda es de aproximadamente .08. Nuestra intuición nos dice que este es el resultado más probable, que es correcto; pero, de todos modos, no es un desenlace muy probable.

    Probabilidades binomiales para\(n = 100,\ p = 1/2\).
    \(k\) \(b(n,p,k)\)
    45 .0485
    46 .0580
    47 .0666
    48 .0735
    49 .0780
    50 .0796
    51 .0780
    52 .0735
    53 .0666
    54 .0580
    55 .0485

    Distribuciones Binomiales

    Definición\(\PageIndex{6}\)

    Dejar\(n\) ser un entero positivo, y dejar\(p\) ser un número real entre 0 y 1. \(B\)Sea la variable aleatoria que cuenta el número de éxitos en un proceso de ensayos de Bernoulli con parámetros\(n\) y\(p\). Entonces la distribución\(b(n, p, k)\) de\(B\) se llama distribución binomial.

    Podemos tener una mejor idea sobre la distribución binomial graficando esta distribución para diferentes valores de\(n\) y\(p\) (ver Figura [fig 3.8]). Las parcelas en esta figura se generaron utilizando el programa BinomialPlot.

    Hemos dirigido este programa para\(p = .5\) y\(p = .3\). Tenga en cuenta que incluso para\(p = .3\) las gráficas son bastante simétricas. Tendremos una explicación para ello en el Capítulo 9. También observamos que la probabilidad más alta ocurre alrededor del valor\(np\), pero que estas probabilidades más altas se hacen más pequeñas a medida que\(n\) aumenta. Veremos en el Capítulo 6 que\(np\) es el valor medio o esperado de la distribución binomial\(b(n,p,k)\).

    El siguiente ejemplo da una buena manera de ver la distribución binomial, cuándo\(p = 1/2\).

    Ejemplo\(\PageIndex{10}\):

    Un tablero Galton es un tablero en el que una gran cantidad de disparos BB se dejan caer desde un paracaídas en la parte superior del tablero y se desvían de una serie de pines en su camino hacia abajo hasta la parte inferior del tablero. La posición final de cada ranura es el resultado de una serie de deflexiones aleatorias ya sea hacia la izquierda o hacia la derecha. Hemos escrito un programa GaltonBoard para simular este experimento.

    Hemos corrido el programa para el caso de 20 filas de alfileres y 10, 000 disparos que se están soltando. Mostramos el resultado de esta simulación en la Figura 3.6

    Tenga en cuenta que si escribimos 0 cada vez que el disparo se desvía hacia la izquierda, y 1 cada vez que se desvía hacia la derecha, entonces la trayectoria del disparo puede describirse mediante una secuencia de 0 y 1 de longitud\(n\), al igual que para el lanzamiento de monedas\(n\) -fold.

    La distribución mostrada en la Figura 3.6 es un ejemplo de una distribución empírica, en el sentido de que se produce por medio de una secuencia de experimentos. Como era de esperar, esta distribución empírica se asemeja a la distribución binomial correspondiente con parámetros\(n = 20\) y\(p = 1/2\).

    Prueba de Hipótesis

    Ejemplo\(\PageIndex{11}\):

    Supongamos que la aspirina ordinaria se ha encontrado efectiva contra los dolores de cabeza 60 por ciento del tiempo, y que una compañía farmacéutica afirma que su nueva aspirina con un aditivo especial para el dolor de cabeza es más efectiva. Podemos probar esta afirmación de la siguiente manera: llamamos a su reclamo el y su negación, que el aditivo no tiene ningún efecto apreciable, el Así la hipótesis nula es eso\(p = .6\), y la hipótesis alternativa es esa\(p > .6\), donde\(p\) está la probabilidad de que la nueva aspirina sea efectiva.

    Le damos las aspirinas a\(n\) las personas para que las tomen cuando tengan dolor de cabeza. Queremos encontrar un número\(m\), llamado el para nuestro experimento, tal que rechacemos la hipótesis nula si al menos la\(m\) gente se cura, y de lo contrario la aceptamos. ¿Cómo debemos determinar este valor crítico?

    Primero tenga en cuenta que podemos cometer dos tipos de errores. El primero, a menudo llamado error tipo 1 en la estadística, es rechazar la hipótesis nula cuando en realidad es cierta. El segundo, llamado error tipo 2 es aceptar la hipótesis nula cuando es falsa. Para determinar la probabilidad de ambos tipos de errores introducimos una función\(\alpha(p)\), definida como la probabilidad de que rechacemos la hipótesis nula, donde esta probabilidad se calcula bajo el supuesto de que la hipótesis nula es verdadera. En el presente caso, tenemos\[\alpha(p) = \sum_{m \leq k \leq n} b(n,p,k)\ .\]

    Tenga en cuenta que\(\alpha(.6)\) es la probabilidad de un error tipo 1, ya que esta es la probabilidad de un alto número de éxitos para un aditivo ineficaz. Entonces para un dado\(n\) queremos elegir\(m\) para hacer\(\alpha(.6)\) bastante pequeño, para reducir la probabilidad de un error tipo 1. Pero a medida que\(m\) aumenta por encima del valor más probable\(np = .6n\)\(\alpha(.6)\), al ser la cola superior de una distribución binomial, se acerca a 0. Por lo tanto,\(m\) hace que un error tipo 1 sea menos probable.

    Ahora supongamos que el aditivo realmente es efectivo, así que eso\(p\) es apreciablemente mayor que .6; digamos\(p = .8\). (Este valor alternativo de\(p\) se elige arbitrariamente; los siguientes cálculos dependen de esta elección.) Entonces elegir\(m\) bien por debajo\(np = .8n\) aumentará\(\alpha(.8)\), ya que ahora\(\alpha(.8)\) es todo menos la cola inferior de una distribución binomial. En efecto, si ponemos\(\beta(.8) = 1 - \alpha(.8)\), entonces nos\(\beta(.8)\) da la probabilidad de un error tipo 2, y así disminuir\(m\) hace que un error de tipo 2 sea menos probable.

    Al fabricante le gustaría protegerse contra un error tipo 2, ya que si se comete tal error, entonces la prueba no muestra que el nuevo medicamento es mejor, cuando en realidad lo es. Si el valor alternativo de\(p\) se elige más cerca del valor de\(p\) dado en la hipótesis nula (en este caso\(p =.6\)), entonces para una población de prueba dada, el valor de\(\beta\) aumentará. Entonces, si el estadístico del fabricante elige un valor alternativo para el\(p\) cual está cerca del valor en la hipótesis nula, entonces será una propuesta cara (es decir, la población de prueba tendrá que ser grande) para rechazar la hipótesis nula con un pequeño valor de\(\beta\).

    Lo que esperamos hacer entonces, para una población de prueba dada\(n\), es elegir un valor de\(m\), si es posible, que haga que ambas probabilidades sean pequeñas. Si cometemos un error tipo 1 terminamos comprando mucha aspirina esencialmente ordinaria a un precio inflado; un error tipo 2 significa que nos perdemos una ganga en un medicamento superior. Digamos que queremos que nuestro número crítico haga\(m\) que cada uno de estos casos indeseables sea menos del 5 por ciento probable.

    Escribimos un programa PowerCurve para trazar, para\(n = 100\) y valores seleccionados de\(m\), la función\(\alpha(p)\), para\(p\) que van desde .4 a 1. El resultado se muestra en la Figura [fig 3.9]. Incluimos en nuestra gráfica una caja (en líneas punteadas) de .6 a .8, con abajo y arriba a las alturas .05 y .95. Entonces un valor para\(m\) satisface nuestros requisitos si y solo si la gráfica de\(\alpha\) entra en la caja desde abajo, y sale desde arriba (¿por qué? — ¿cuál es el tipo 1 y cuál es el criterio tipo 2?). A\(m\) medida que aumenta, la gráfica de\(\alpha\) se mueve hacia la derecha. Algunos experimentos nos han demostrado que\(m = 69\) es el valor más pequeño para\(m\) eso frustra un error tipo 1, mientras que\(m = 73\) es el más grande que frustra un tipo 2. Por lo que podemos elegir nuestro valor crítico entre 69 y 73. Si estamos más decididos a evitar un error tipo 1 favorecemos 73, y de manera similar favorecemos 69 si consideramos un error de tipo 2 como peor. Por supuesto, la compañía farmacéutica puede no estar contenta con tener hasta un 5 por ciento de probabilidad de un error. Podrían insistir en tener un 1 por ciento de probabilidad de un error. Para ello tendríamos que incrementar el número\(n\) de ensayos (ver Ejercicio [exer 3.2.28]).

    Expansión Binomial

    A continuación recordamos al lector una aplicación de los coeficientes binomiales al álgebra. Esta es la expansión binomial de la que obtenemos el término coeficiente binomial.

    Teorema\(\PageIndex{7}\): (Binomial Theorem)

    La cantidad se\((a + b)^n\) puede expresar en la forma\[(a + b)^n = \sum_{j = 0}^n {n \choose j} a^j b^{n - j}\ .\] Para ver que esta expansión es correcta, escriba\[(a + b)^n = (a + b)(a + b) \cdots (a + b)\ .\]

    Prueba

    Cuando multipliquemos esto tendremos una suma de términos cada uno de los cuales resulta de una elección de un\(a\) o\(b\) para cada uno de\(n\) los factores. Cuando elegimos\(j\)\(a\)'s y\((n - j)\)\(b\)'s, obtenemos un término de la forma\(a^j b^{n - j}\). Para determinar dicho término, tenemos que especificar\(j\) de los\(n\) términos en el producto del que elegimos el\(a\). Esto se puede hacer de\(n \choose j\) maneras. Así, el cobro de estos términos en la suma aporta un término\({n \choose j} a^j b^{n - j}\).

    Por ejemplo, tenemos\[\begin{aligned} (a + b)^0 & = & 1 \\ (a + b)^1 & = & a + b \\ (a + b)^2 & = & a^2 + 2ab + b^2 \\ (a + b)^3 & = & a^3 + 3a^2b + 3ab^2 + b^3\ .\end{aligned}\] Vemos aquí que los coeficientes de poderes sucesivos sí rinden efectivamente el triángulo de Pascal.

    Corolario\(\PageIndex{1}\)

    La suma de los elementos en la fila\(n\) th del triángulo de Pascal es\(2^n\). Si los elementos de la fila\(n\) th del triángulo de Pascal se agregan con signos alternos, la suma es 0.

    Prueba

    La primera afirmación del corolario se desprende del hecho de que\[2^n = (1 + 1)^n = {n \choose 0} + {n \choose 1} + {n \choose 2} + \cdots + {n \choose n}\ ,\] y la segunda del hecho de que\[0 = (1 - 1)^n = {n \choose 0} - {n \choose 1} + {n \choose 2}- \cdots + {(-1)^n}{n \choose n}\ .\]

    El primer enunciado del corolario nos dice que el número de subconjuntos de un conjunto de\(n\) elementos es\(2^n\). Utilizaremos el segundo enunciado en nuestra siguiente aplicación del teorema binomial.

    Hemos visto que, cuando\(A\) y\(B\) son dos eventos cualesquiera (cf. Sección [sec 1.2]), Ahora\[P(A \cup B) = P(A) + P(B) - P(A \cap B).\] extendemos este teorema a una versión más general, que nos permitirá encontrar la probabilidad de que se produzca al menos uno de una serie de eventos.

    Principio de inclusión-exclusión

    Teorema\(\PageIndex{1}\)

    Dejar\(P\) ser una distribución de probabilidad en un espacio de muestra\(\Omega\), y dejar\(\{A_1,\ A_2,\ \dots,\ A_n\}\) ser un conjunto finito de eventos. Entonces, es\[P(A_1 \cup A_2 \cup \cdots \cup A_n) = \sum_{i = 1}^n P(A_i)\ - \sum_{1 \leq i < j \leq n} P(A_i \cap A_j)\]\[\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ + \sum_{1 \leq i < j < k \leq n} P(A_i \cap A_j \cap A_k) - \cdots\ .\label{eq 3.5}\] decir, para encontrar la probabilidad de que\(A_i\) ocurra al menos uno de\(n\) los eventos, primero sume la probabilidad de cada evento, luego reste las probabilidades de todas las intersecciones bidireccionales posibles, agregue la probabilidad de todas las intersecciones de tres vías, y así sucesivamente.

    Prueba

    Si el resultado\(\omega\) ocurre en al menos uno de los eventos\(A_i\), su probabilidad se agrega exactamente una vez por el lado izquierdo de la Ecuación [eq 3.5]. Debemos demostrar que se agrega exactamente una vez por el lado derecho de la Ecuación [eq 3.5]. Supongamos que\(\omega\) está exactamente en\(k\) los conjuntos. Entonces su probabilidad se suma\(k\) veces en el primer término,\(k \choose 2\) tiempos restados en el segundo,\(k \choose 3\) tiempos agregados en el tercer término, y así sucesivamente. Así, el número total de veces que se agrega es\[{k \choose 1} - {k \choose 2} + {k \choose 3} - \cdots {(-1)^{k-1}} {k \choose k}\ .\] Pero\[0 = (1 - 1)^k = \sum_{j = 0}^k {k \choose j} (-1)^j = {k \choose 0} - \sum_{j = 1}^k {k \choose j} {(-1)^{j - 1}}\ .\] De ahí,\[1 = {k \choose 0} = \sum_{j = 1}^k {k \choose j} {(-1)^{j - 1}}\ .\] Si el resultado no\(\omega\) está en ninguno de los eventos\(A_i\), entonces no se cuenta a ninguno de los lados de la ecuación.

    Problema de comprobación de sombrero

    Ejemplo\(\PageIndex{1}\):

    Volvemos al problema del hat check discutido en la Sección 1.1, es decir, el problema de encontrar la probabilidad de que una permutación aleatoria contenga al menos un punto fijo. Recordemos que una permutación es un mapa uno a uno de un conjunto\(A = \{a_1,a_2,\dots,a_n\}\) sobre sí mismo. \(A_i\)Sea el evento de que el elemento\(i\) th\(a_i\) permanezca fijo bajo este mapa. Si requerimos que\(a_i\) sea fijo, entonces el mapa de los\(n - 1\) elementos restantes proporciona una permutación arbitraria de\((n - 1)\) objetos. Dado que existen\((n - 1)!\) tales permutaciones,\(P(A_i) = (n - 1)!/n! = 1/n\). Dado que hay\(n\) opciones para\(a_i\), el primer término de la Ecuación [eq 3.5] es 1. De la misma manera, para tener un par determinado\((a_i,a_j)\) fijo, podemos elegir cualquier permutación de los\(n - 2\) elementos restantes; existen\((n - 2)!\) tales elecciones y así\[P(A_i \cap A_j) = \frac{(n - 2)!}{n!} = \frac 1{n(n - 1)}\ .\] El número de términos de esta forma en el lado derecho de la Ecuación [eq 3.5] es\[{n \choose 2} = \frac{n(n - 1)}{2!}\ .\] De ahí, el segundo término de Ecuación [eq 3.5] es\[-\frac{n(n - 1)}{2!} \cdot \frac 1{n(n - 1)} = -\frac 1{2!}\ .\] De manera similar, para tres eventos específicos\(A_i\),,\(A_j\)\(A_k\),\[P(A_i \cap A_j \cap A_k) = \frac{(n - 3)!}{n!} = \frac 1{n(n - 1)(n - 2)}\ ,\] y el número de tales términos está\[{n \choose 3} = \frac{n(n - 1)(n - 2)}{3!}\ ,\] haciendo que el tercer término de la Ecuación [eq 3.5] sea igual a 1/3!. Continuando de esta manera, obtenemos\[P(\mbox {at\ least\ one\ fixed\ point}) = 1 - \frac 1{2!} + \frac 1{3!} - \cdots (-1)^{n-1} \frac 1{n!}\] y\[P(\mbox {no\ fixed\ point}) = \frac 1{2!} - \frac 1{3!} + \cdots (-1)^n \frac 1{n!}\ .\]

    Del cálculo aprendemos que\[e^x = 1 + x + \frac 1{2!}x^2 + \frac 1{3!}x^3 + \cdots + \frac 1{n!}x^n + \cdots\ .\] Así, si\(x = -1\), tenemos\[\begin{aligned} e^{-1} & = &\frac 1{2!} - \frac 1{3!} + \cdots + \frac{(-1)^n}{n!} + \cdots \\ & = & .3678794\ .\end{aligned}\] Por lo tanto, la probabilidad de que no haya un punto fijo, es decir, que ninguna de las\(n\) personas recupere su propio sombrero, es igual a la suma de los primeros\(n\) términos en la expresión para\(e^{-1}\). Esta serie converge muy rápido. Al calcular las sumas parciales para\(n = 3\) a 10 se dan los datos en la Tabla [tabla 3.7].

    Problema de comprobación de sombrero.
    Probabilidad de que nadie
    n recupera su propio sombrero
    3

    .333333

    4

    .375

    5

    .366667

    6

    .368056

    7

    .367857

    8

    .367882

    9

    .367879

    10

    .367879

    Después\(n = 9\) las probabilidades son esencialmente las mismas a seis cifras significativas. Curiosamente, la probabilidad de que no haya punto fijo aumenta y disminuye alternativamente a medida que\(n\) aumenta. Por último, observamos que nuestros resultados exactos están en buena concordancia con nuestras simulaciones reportadas en el apartado anterior.

    Elegir un espacio de muestra

    Ahora contamos con algunas de las herramientas necesarias para describir con precisión los espacios muestrales y asignar funciones de probabilidad a esos espacios de muestra. Sin embargo, en algunos casos, el proceso de descripción y asignación es algo arbitrario. Por supuesto, es de esperar que la descripción del espacio muestral y la posterior asignación de una función de probabilidad arroje un modelo que prediga con precisión lo que sucedería si el experimento se llevara a cabo realmente. Como muestran los siguientes ejemplos, existen situaciones en las que las descripciones “razonables” del espacio muestral no producen un modelo que se ajuste a los datos.

    En el libro de Feller, 14 se da un par de modelos que describen arreglos de ciertos tipos de partículas elementales, como fotones y protones. Resulta que los experimentos han demostrado que ciertos tipos de partículas elementales exhiben un comportamiento que es descrito con precisión por un modelo, llamado mientras que otros tipos de partículas elementales se pueden modelar usando Feller dice:

    Tenemos aquí un ejemplo instructivo de la imposibilidad de seleccionar o justificar modelos de probabilidad por argumentos. De hecho, ningún razonamiento puro podría decir que los fotones y protones no obedecerían las mismas leyes de probabilidad.

    Ahora damos algunos ejemplos de esta descripción y proceso de asignación.

    Ejemplo\(\PageIndex{13}\):

    En el modelo mecánico cuántico del átomo de helio, se pueden utilizar diversos parámetros para clasificar los estados energéticos del átomo. En el estado de giro triplete (\(S = 1\)) con momento angular orbital 1 (\(L = 1\)), hay tres posibilidades, 0, 1, o 2, para el momento angular total (\(J\)). (No se supone que el lector sepa lo que significa cualquiera de esto; de hecho, el ejemplo es más ilustrativo si el lector sabe algo de mecánica cuántica). Nos gustaría asignar probabilidades a las tres posibilidades para\(J\). El lector, sin duda, se resiste a la idea de asignar la probabilidad de\(1/3\) a cada uno de estos resultados. Ahora debería preguntarse por qué se resiste a esta tarea. La respuesta es probablemente porque no tiene ninguna “intuición” (es decir, experiencia) sobre la forma en que se comportan los átomos de helio. De hecho, en este ejemplo, las probabilidades\(1/9,\ 3/9,\) y\(5/9\) son asignadas por la teoría. La teoría da estas asignaciones porque se observaron estas frecuencias y se desarrollaron parámetros adicionales en la teoría para permitir que estas frecuencias fueran predichas.

    Ejemplo\(\PageIndex{14}\):

    Supongamos que se voltean dos centavos una vez cada uno. Existen varias formas “razonables” de describir el espacio muestral. Una forma es contar el número de cabezas en el resultado; en este caso, se puede escribir el espacio muestral\(\{0, 1, 2\}\). Otra descripción del espacio muestral es el conjunto de todos los pares ordenados de\(H\)'s y\(T\)'s, es decir,\[\{(H,H), (H, T), (T, H), (T, T)\}.\] Ambas descripciones son precisas, pero es fácil ver que (a lo sumo) uno de estos, si se le asigna una función de probabilidad constante, puede pretender modelar con precisión la realidad. En este caso, a diferencia del ejemplo anterior, el lector probablemente dirá que la segunda descripción, con cada resultado asignado una probabilidad de\(1/4\), es la descripción “correcta”. Esta convicción se debe a la experiencia; no hay pruebas de que así es como funciona la realidad.

    También se remite al lector al Ejercicio 26 para otro ejemplo de este proceso.

    Observaciones Históricas

    Los coeficientes binomiales tienen una larga y colorida historia previa al Tratado de Pascal sobre el Triángulo Aritmético 15 donde Pascal desarrolló muchas propiedades importantes de estos números. Esta historia se expone en el libro de Pascal's Arithmetical Triangle de A. W. F. Edwards. 16 Pascal escribió su triángulo en la forma que se muestra en la Tabla 3.10.

    llrrrrrll 1 y 1 y 1 y 1 y 1 y 1 y 1 y 1 y 1 y 1 y 1 y 2 y 3 y 4 y 5 y 6 y 7 y 8 y 9 1 y 3 y 6 y 10 y 15 y 21 y 28 y 36 1 y 4 y 10 y 20 y 35 y 56 y 84 1 y 5 y 15 y 35 y amperios; 70 & 126 1 & 6 & 21 & 56 &126 1 & 7 & 28 & 84 1 & 8 & 36 1 & 9 1

    Edwards traza tres formas diferentes en que surgieron los coeficientes binomiales. Se refiere a estos como los números figurados, los números combinatorios y los números binomiales. Todos son nombres para lo mismo (que hemos llamado coeficientes binomiales) pero que todos sean iguales no se apreció hasta el siglo XVI.

    Los números figurados se remontan al interés pitagórico por los patrones numéricos alrededor de 540. Los pitagóricos consideraron, por ejemplo, patrones triangulares mostrados en la Figura 3.8 La secuencia de números\[1, 3, 6, 10, \dots\] obtenidos como el número de puntos en cada triángulo se denominan números triangulares. A partir de los triángulos queda claro que\(n\) el número número triangular es simplemente la suma de los primeros\(n\) enteros. Los números tetraédricos son las sumas de los números triangulares y fueron obtenidos por los matemáticos griegos Theon y Nicomachus a principios del siglo II. El número tetraédrico 10, por ejemplo, tiene la representación geométrica mostrada en la Figura 3.9. Los tres primeros tipos de números figurados se pueden representar en forma tabular como se muestra en la Tabla 3.11

    \[\begin{array}{llllllllll} \mbox {natural\ numbers} & 1\hskip.2in & 2\hskip.2in & 3\hskip.2in & 4\hskip.2in & 5\hskip.2in & 6\hskip.2in & 7\hskip.2in & 8\hskip.2in & 9 \cr \mbox {triangular\ numbers} & 1 & 3 & 6 & 10 & 15 & 21 & 28 & 36 & 45 \cr \mbox {tetrahedral\ numbers}& 1 & 4 & 10 & 20 & 35 & 56 & 84 & 120 &165 \end{array}\]

    Estos números proporcionan las primeras cuatro filas del triángulo de Pascal, pero la tabla no iba a completarse en Occidente hasta el siglo XVI.

    En Oriente, los matemáticos hindúes comenzaron a encontrar los coeficientes binomiales en problemas combinatorios. Bhaskara en su de 1150 dio una regla para encontrar el número de preparaciones medicinales utilizando 1, 2, 3, 4, 5 o 6 posibles ingredientes. 17 Su regla es equivalente a nuestra fórmula\[{n \choose r} = \frac{(n)_r}{r!}\ .\]

    Los números binomiales como coeficientes de\((a + b)^n\) aparecieron en las obras de los matemáticos en China alrededor del 1100. Hay referencias sobre este tiempo al “sistema de tabulación para desbloquear coeficientes binomiales”. El triángulo para proporcionar los coeficientes hasta el octavo poder es dado por Chu Shih-chieh en un libro escrito alrededor de 1303 (ver Figura [fig. 3.12]). 18 Se ha perdido el manuscrito original del libro de Chu, pero han sobrevivido copias. Edwards señala que hay un error en esta copia del triángulo de Chu. ¿Lo puedes encontrar? (: Dos números que deben ser iguales no lo son.) Otras copias no muestran este error.

    La primera aparición del triángulo de Pascal en Occidente parece haber venido de cálculos de Tartaglia en el cálculo del número de posibles formas en que los\(n\) dados podrían aparecer. 19 Para uno muere la respuesta es claramente 6. Para dos dados las posibilidades pueden mostrarse como se muestra en la Tabla [tabla 3.10].

    \[\matrix{ 11\cr 12 & 22\cr 13 & 23 & 33\cr 14 & 24 & 34 & 44\cr 15 & 25 & 35 & 45 & 55\cr 16 & 26 & 36 & 46 & 56 & 66\ \cr }\]

    Mostrarlos de esta manera sugiere el sexto número triangular\(1 + 2 + 3 + 4 + 5 + 6 = 21\) para el lanzamiento de 2 dados. Tartaglia “en el primer día de Cuaresma, 1523, en Verona, habiendo pensado en el problema toda la noche”, 20 se dio cuenta de que la extensión de la tabla figurada daba las respuestas para los\(n\) dados. El problema se había sugerido a Tartaglia de ver a la gente lanzar sus propios horóscopos por medio de un Libro de la Fortuna seleccionando versos mediante un proceso que incluía anotar los números en las caras de tres dados. Las 56 formas en que pueden caer tres dados se establecieron en cada página. La forma en que se escribieron los números en el libro no sugirió la conexión con números figurados, pero sí un método de enumeración similar al que usamos para 2 dados. La mesa de Tartaglia no se publicó hasta 1556.

    Una tabla para los coeficientes binomiales fue publicada en 1554 por el matemático alemán Stifel. 21 El triángulo de Pascal aparece también en Cardano de 1570. 22 Cardano estaba interesado en el problema de encontrar la cantidad de formas de elegir\(r\) objetos de entre ellos\(n\). Así, en la época de la obra de Pascal, su triángulo había aparecido como resultado de mirar los números figurados, los números combinatorios, y los números binomiales, y presumiblemente se entendió bastante bien el hecho de que los tres fueran iguales.

    El interés de Pascal por los números binomiales vino de sus cartas con Fermat sobre un problema conocido como el problema de los puntos. Este problema, y la correspondencia entre Pascal y Fermat, fueron discutidos en el Capítulo 1. El lector recordará que este problema puede describirse de la siguiente manera: Dos jugadores A y B están jugando una secuencia de juegos y el primer jugador en ganar\(n\) juegos gana el partido. Se desea encontrar la probabilidad de que A gane el partido en un momento en el que A haya ganado\(a\) juegos y B haya ganado\(b\) juegos. (Ver Ejercicios 4.1.40-4.1.42.)

    Pascal resolvió el problema por inducción hacia atrás, tanto como lo haríamos hoy al escribir un programa de computadora para su solución. Se refirió al método combinatorio de Fermat que procede de la siguiente manera: Si A necesita\(c\) juegos y B necesita\(d\) juegos para ganar, requerimos que los jugadores sigan jugando hasta que hayan jugado\(c + d - 1\) juegos. El ganador en esta serie extendida será el mismo que el ganador en la serie original. La probabilidad de que A gane en la serie extendida y por lo tanto en la serie original es\[\sum_{r = c}^{c + d - 1} \frac 1{2^{c + d - 1}} {{c + d - 1} \choose r}\ .\] Incluso a la hora de las letras Pascal parecía entender esta fórmula.

    Supongamos que el primer jugador en ganar\(n\) juegos gana el partido, y supongamos que cada jugador ha puesto una apuesta de\(x\). Pascal estudió el valor de ganar un juego en particular. Con esto se refería al incremento de las ganancias esperadas del ganador del juego en particular en consideración. Demostró que el valor del primer juego es\[\frac {1\cdot3\cdot5\cdot\dots\cdot(2n - 1)}{2\cdot4\cdot6\cdot\dots\cdot(2n)}x\ .\] Su prueba de esto parece usar la fórmula de Fermat y el hecho de que la relación anterior de productos de impar a productos de números pares es igual a la probabilidad de exactamente\(n\) cabezas en\(2n\) tiradas de una moneda. (Ver Ejercicio 39.)

    Pascal presentó a Fermat con la tabla mostrada en la Tabla 3.13

    La solución de Pascal para el problema de los puntos.
    Del 256 de mi oponente 6 5 4 3 2 1
    puestos que obtengo, para el juegos juegos juegos juegos juegos juegos

    1er juego

    63 70 80 96 128 256
    2do juego 63 70 80 96 128
    3er juego 56 60 64 64
    4º juego 42 40 32
    5º juego 24 16
    6º juego

    Afirma:

    Verás como siempre, que el valor del primer juego es igual al del segundo que se muestra fácilmente por combinaciones. Verás, de la misma manera, que los números en la primera línea siempre van en aumento; así también lo son los de la segunda; y los de la tercera. Pero los de la cuarta línea están disminuyendo, y los de la quinta, etc. Esto parece extraño. 23

    El estudiante puede continuar esta pregunta usando la computadora y el método de iteración hacia atrás de Pascal para calcular el beneficio esperado en cualquier momento de la serie.

    En su tratado, Pascal dio una prueba formal de la fórmula combinatoria de Fermat así como pruebas de muchas otras propiedades básicas de los números binomiales. Muchas de sus pruebas involucraron la inducción y representan algunas de las primeras pruebas por este método. Su libro reunió todos los diferentes aspectos de los números en el triángulo Pascal como se conocía en 1654, y, como afirma Edwards, “No se puede disputar que el Triángulo Aritmético lleve el nombre de Pascal”. 24

    El primer estudio serio de la distribución binomial fue realizado por James Bernoulli en su publicación en 1713. 25 Volveremos a esta obra en los señalamientos históricos del Capítulo 8

    Ejercicios

    \(\PageIndex{1}\)Calcular lo siguiente:

    1. \({6 \choose 3}\)

    2. \(b(5,.2,4)\)

    3. \({7 \choose 2}\)

    4. \(
      ParseError: EOF expected (click for details)
      Callstack:
          at (Estadisticas/Teoria_de_Probabilidad/Libro:_Probabilidad_Introductoria_(Grinstead_y_Snell)/03:_Combinatoria/3.02:_Combinaciones), /content/body/div[14]/ol[1]/li[4]/span/span, line 1, column 3
      
      \)

    5. \(b(4,.2,3)\)

    6. \({6 \choose 2}\)

    7. \({{10} \choose 9}\)

    8. \(b(8, .3, 5)\)

    \(\PageIndex{2}\)¿De cuántas maneras podemos elegir a cinco personas de un grupo de diez para formar un comité?

    \(\PageIndex{3}\)¿Cuántos subconjuntos de siete elementos hay en un conjunto de nueve elementos?

    \(\PageIndex{4}\)Usando la relación Ecuación 3.1 escribir un programa para calcular el triángulo de Pascal, poniendo los resultados en una matriz. Haga que su programa imprima el triángulo para\(n = 10\).

    \(\PageIndex{5}\)Utiliza el programa BinomialProbabilidades para encontrar la probabilidad de que, en 100 tiradas de una moneda justa, el número de cabezas que aparecen se sitúe entre 35 y 65, entre 40 y 60, y entre 45 y 55.

    \(\PageIndex{6}\)Charles afirma que puede distinguir entre cerveza y ale 75 por ciento de las veces. Ruth apuesta a que no puede y, de hecho, solo adivina. Para resolver esto, se hace una apuesta: a Charles se le van a dar diez vasos pequeños, cada uno de los cuales ha sido llenado con cerveza o cerveza, elegidos lanzando una moneda justa. Gana la apuesta si consigue siete o más correctos. Encuentra la probabilidad de que Charles gane si tiene la habilidad que reclama. Encuentra la probabilidad de que Ruth gane si Charles está adivinando.

    \(\PageIndex{7}\)\[b(n,p,j) = \frac pq \left(\frac {n - j + 1}j \right) b(n,p,j - 1)\ ,\]Demuéstralo para\(j \ge 1\). Utilice este hecho para determinar el valor o valores de los\(j\) cuales dan\(b(n,p,j)\) su mayor valor.: Considerar las proporciones sucesivas como\(j\) incrementos.

    \(\PageIndex{8}\)Un dado se enrolla 30 veces. ¿Cuál es la probabilidad de que un 6 aparezca exactamente 5 veces? ¿Cuál es el número más probable de veces que aparecerá un 6?

    \(\PageIndex{9}\)Encuentra enteros\(n\) y\(r\) tal que la siguiente ecuación sea verdadera:\[{13 \choose 5} + 2{13 \choose 6} + {13 \choose 7} = {n \choose r}\ .\]

    \(\PageIndex{10}\)En un examen verdadero-falso de diez preguntas, encuentra la probabilidad de que un estudiante obtenga una calificación del 70 por ciento o mejor adivinando. Contesta la misma pregunta si la prueba tiene 30 preguntas, y si la prueba tiene 50 preguntas.

    \(\PageIndex{11}\)Un restaurante ofrece tartas de manzana y arándanos y abastece un número igual de cada tipo de pastel. Cada día diez clientes solicitan pastel. Eligen, con iguales probabilidades, uno de los dos tipos de pastel. ¿Cuántas piezas de cada tipo de pastel debe proporcionar el propietario para que la probabilidad sea de aproximadamente .95 de que cada cliente obtenga el pastel de su elección?

    \(\PageIndex{12}\)Una mano de póquer es un conjunto de 5 cartas elegidas aleatoriamente de una baraja de 52 cartas. Encuentra la probabilidad de un

    1. rubor real (diez, jota, reina, rey, as en un solo traje).

    2. al ras recto (cinco en una secuencia en un solo palo, pero no una descarga real).

    3. cuatro de un tipo (cuatro cartas del mismo valor nominal).

    4. full house (un par y un triple, cada uno del mismo valor nominal).

    5. al ras (cinco cartas en un solo palo pero no en una línea recta o real).

    6. recta (cinco cartas en una secuencia, no todas del mismo palo). (Tenga en cuenta que en rectas, un as cuenta alto o bajo).

    \(\PageIndex{13}\)Si un conjunto tiene\(2n\) elementos, mostrar que tiene más subconjuntos con\(n\) elementos que con cualquier otro número de elementos.

    \(\PageIndex{14}\)\(b(2n,.5,n)\)Sea la probabilidad de que en\(2n\) tiradas de una moneda justa\(n\) aparezcan exactamente cabezas. Usando la fórmula de Stirling (Teorema 3.1), demuéstralo\(b(2n,.5,n) \sim 1/\sqrt{\pi n}\). Utilice el programa BinomialProbabilidades para comparar esto con el valor exacto de\(n = 10\) hasta 25.

    \(\PageIndex{15}\)Un beisbolista, Smith, tiene un promedio de bateo de\(.300\) y en un juego típico llega a batear tres veces. Supongamos que los hits de Smith en un juego pueden considerarse como un proceso de pruebas de Bernoulli con probabilidad .3 para Encuentra la probabilidad de que Smith obtenga 0, 1, 2 y 3 hits.

    \(\PageIndex{16}\)El equipo de futbol de la Universidad Siwash juega ocho partidos en una temporada, ganando tres, perdiendo tres y terminando dos en empate. Demostrar que la cantidad de formas en que esto puede suceder es\[{8 \choose 3}{5 \choose 3} = \frac {8!}{3!\,3!\,2!}\ .\]

    \(\PageIndex{17}\)Utilizando la técnica del Ejercicio 16, mostrar que el número de formas con las que uno puede poner\(n\) diferentes objetos en tres cajas con\(a\) en la primera,\(b\) en la segunda y\(c\) en la tercera es\(n!/(a!\,b!\,c!)\).

    \(\PageIndex{18}\)Baumgartner, Prosser y Crowell están calificando un examen de cálculo. Hay una pregunta verdadero-falsa con diez partes. Baumgartner se da cuenta de que un estudiante solo tiene dos de los diez correctos y comenta: “El estudiante ni siquiera fue lo suficientemente brillante como para haber volteado una moneda para determinar sus respuestas”. “No tan claro”, dice Prosser. “Con 340 alumnos apuesto a que si todos volteaban monedas para determinar sus respuestas habría al menos un examen con dos o menos respuestas correctas”. Crowell dice: “Estoy con Prosser. De hecho, apuesto a que debemos esperar al menos un examen en el que ninguna respuesta sea correcta si todos solo están adivinando”. ¿Quién tiene razón en todo esto?

    \(\PageIndex{19}\)Una mano ginebra consta de 10 cartas de una baraja de 52 cartas. Encuentra la probabilidad de que una mano de ginebra tenga

    1. las 10 tarjetas del mismo palo.

    2. exactamente 4 cartas en un palo y 3 en otros dos trajes.

    3. a 4, 3, 2, 1, distribución de trajes.

    \(\PageIndex{20}\)Una mano de seis cartas se reparte desde una baraja ordinaria de cartas. Encuentra la probabilidad de que:

    1. Las seis cartas son corazones.

    2. Hay tres ases, dos reyes y una reina.

    3. Hay tres cartas de un palo y tres de otro palo.

    \(\PageIndex{21}\)Una señora desea colorear sus uñas por un lado usando como máximo dos de los colores rojo, amarillo y azul. ¿De cuántas maneras puede hacer esto?

    \(\PageIndex{22}\)¿De cuántas maneras se pueden poner seis letras indistinguibles en tres buzones de correo? : Una representación de esto viene dada por una secuencia\(|\)\(|\) LL\(|\) L LLL\(|\) donde\(|\) los s representan las particiones para las cajas y las L las letras. Cualquier forma posible puede ser así descrita. Tenga en cuenta que necesitamos dos barras en los extremos y las dos barras restantes y las seis L's se pueden poner en cualquier orden.

    \(\PageIndex{23}\)Usando el método para la pista en el Ejercicio 22, mostrar que los objetos\(r\) indistinguibles se pueden poner en\(n\) cajas de\[

    ParseError: EOF expected (click for details)
    Callstack:
        at (Estadisticas/Teoria_de_Probabilidad/Libro:_Probabilidad_Introductoria_(Grinstead_y_Snell)/03:_Combinatoria/3.02:_Combinaciones), /content/body/div[14]/p[23]/span[4]/span, line 1, column 10
    
    = {{n + r - 1} \choose r}\] diferentes maneras.

    \(\PageIndex{24}\)Una agencia de viajes estima que cuando 20 turistas acuden a un resort con diez hoteles se distribuyen como si el buró estuviera poniendo 20 objetos indistinguibles en diez cajas distinguibles. Asumiendo que este modelo es correcto, encuentra la probabilidad de que ningún hotel quede vacante cuando llegue el primer grupo de 20 turistas.

    \(\PageIndex{25}\)Un elevador toma seis pasajeros y se detiene en diez pisos. Podemos asignar dos medidas equiprobables diferentes para las formas en que los pasajeros son dados de alta: (a) consideramos que los pasajeros son distinguibles o (b) los consideramos indistinguibles (ver Ejercicio 23 para este caso). Para cada caso, calcule la probabilidad de que todos los pasajeros bajen en diferentes pisos.

    \(\PageIndex{26}\)Estás jugando con Prosser pero sospechas que su moneda es injusta. Von Neumann sugirió que procediera de la siguiente manera: Lanzar la moneda de Prosser dos veces. Si el resultado es HT llama al resultado si es TH llama al resultado Si es TT o HH ignora el resultado y vuelve a tirar la moneda de Prosser dos veces. Sigue adelante hasta que consigas ya sea un HT o un TH y llames al resultado ganar o perder en una sola jugada. Repita este procedimiento para cada jugada. Supongamos que la moneda de Prosser sube la cabeza con probabilidad\(p\).

    1. Encuentra la probabilidad de HT, TH, HH, TT con dos tiradas de moneda de Prosser.

    2. Usando la parte (a), demuestre que la probabilidad de una victoria en cualquier jugada es de 1/2, sin importar lo que\(p\) sea.

    \(\PageIndex{27}\)John afirma que tiene poderes extrasensoriales y puede decir cuál de los dos símbolos está en una carta volteada boca abajo (ver Ejemplo 12). Para poner a prueba su habilidad se le pide que haga esto para una secuencia de juicios. Que la hipótesis nula sea que solo está adivinando, de modo que la probabilidad sea 1/2 de que lo haga bien cada vez, y que la hipótesis alternativa sea que pueda nombrar correctamente el símbolo más de la mitad del tiempo. Diseñar una prueba con la propiedad de que la probabilidad de un error tipo 1 es menor que .05 y la probabilidad de un error tipo 2 es menor que .05 si John puede nombrar el símbolo correctamente el 75 por ciento de las veces.

    \(\PageIndex{28}\)En Ejemplo\(\PageIndex{12}\) suponemos que la hipótesis alternativa es esa\(p = .8\) y que se desea tener la probabilidad de cada tipo de error menor a .01. Utilice el programa PowerCurve para determinar los valores de\(n\) y\(m\) que logrará esto. Elige\(n\) lo más pequeño posible.

    \(\PageIndex{29}\)Se supone que un medicamento es efectivo con una probabilidad desconocida\(p\). Para estimar\(p\) el medicamento se administra a\(n\) los pacientes. Se encuentra que es eficaz para\(m\) los pacientes. El para estimar\(p\) establece que debemos elegir el valor para\(p\) eso da la mayor probabilidad de obtener lo que obtuvimos en el experimento. Suponiendo que el experimento puede considerarse como un proceso de ensayos de Bernoulli con probabilidad\(p\) de éxito, muestran que la estimación de máxima verosimilitud para\(p\) es la proporción\(m/n\) de éxitos.

    \(\PageIndex{30}\)Recordemos que en la Serie Mundial el primer equipo en ganar cuatro juegos gana la serie. La serie puede ir como máximo a siete juegos. Supongamos que los Medias Rojas y los Mets están interpretando la serie. Supongamos que los Mets ganan cada juego con probabilidad\(p\). Fermat observó que a pesar de que la serie podría no ir a siete juegos, la probabilidad de que los Mets ganen la serie es la misma que la probabilidad de que ganen cuatro o más juegos en una serie que se vio obligada a ir a siete juegos sin importar quién gane los juegos individuales.

    1. Usando el programa PowerCurve del Ejemplo 3.11 encuentra la probabilidad de que los Mets ganen la serie para los casos\(p = .5\),\(p = .6\),\(p =.7\).

    2. Supongamos que los Mets tienen probabilidad .6 de ganar cada juego. Usa el programa PowerCurve para encontrar un valor de\(n\) tal manera que, si la serie va al primer equipo en ganar más de la mitad de los juegos, los Mets tendrán un 95 por ciento de posibilidades de ganar la serie. Elige\(n\) lo más pequeño posible.

    \(\PageIndex{31}\)] Cada uno de los cuatro motores de un avión funciona correctamente en un vuelo dado con probabilidad .99, y los motores funcionan independientemente entre sí. Supongamos que el avión puede realizar un aterrizaje seguro si al menos dos de sus motores están funcionando correctamente. ¿Cuál es la probabilidad de que los motores permitan un aterrizaje seguro?

    \(\PageIndex{32}\)Un niño pequeño se pierde bajando por el monte Washington. El líder del equipo de búsqueda estima que hay una probabilidad de\(p\) que bajara por el lado este y una probabilidad de\(1 - p\) que bajara por el lado oeste. Cuenta con\(n\) personas en su equipo de búsqueda que buscarán de forma independiente y, si el niño está del lado que se busca, cada miembro encontrará al chico con probabilidad\(u\). Determinar cómo debe dividir a las\(n\) personas en dos grupos para buscar los dos lados de la montaña para que tenga la mayor probabilidad de encontrar al niño. ¿De qué depende esto\(u\)?

    \(*\PageIndex{33}\)\(2n\)las bolas se eligen al azar de un total de bolas\(2n\) rojas y bolas\(2n\) azules. Encuentra una expresión combinatoria para la probabilidad de que las bolas elegidas se dividan por igual en color. Usa la fórmula de Stirling para estimar esta probabilidad. Usando BinomialProbabilities, compare el valor exacto con la aproximación de Stirling para\(n = 20\).

    \(\PageIndex{34}\)Supongamos que cada vez que compres una caja de Wheaties, recibes una de las fotos de los\(n\) jugadores en los Yankees de Nueva York. A lo largo de un periodo de tiempo, compras\(m \geq n\) cajas de Wheaties.

    1. Usa el Teorema 3.8 para demostrar que la probabilidad de que obtengas todas las\(n\) imágenes es\[\begin{aligned} 1 &-& {n \choose 1} \left(\frac{n - 1}n\right)^m + {n \choose 2} \left(\frac{n - 2}n\right)^m - \cdots \\ &+& (-1)^{n - 1} {n \choose {n - 1}}\left(\frac 1n \right)^m.\end{aligned}\]: Let\(E_k\) be the event that you do not get the\(k\) th player picture.

    2. Escribir un programa de computadora para calcular esta probabilidad. Utilice este programa para encontrar, por dado\(n\), el valor más pequeño de los\(m\) cuales dará probabilidad\(\geq .5\) de obtener todas las\(n\) imágenes. Considere\(n = 50\), 100, y 150 y demuestre que\(m = n\log n + n \log 2\) es una buena estimación para el número de cajas necesarias. (Para una derivación de esta estimación, véase Feller. 26)

    \(\PageIndex{35}\)Demostrar la siguiente identidad binomial

    \[{2n \choose n} = \sum_{j = 0}^n { n \choose j}^2\ .\]: Considera una urna con bolas\(n\) rojas y bolas\(n\) azules en su interior. Demuestre que cada lado de la ecuación es igual al número de formas de elegir\(n\) bolas de la urna.

    \(\PageIndex{36}\)Dejar\(j\) y\(n\) ser enteros positivos, con\(j \le n\). Un experimento consiste en elegir, al azar, una\(j\) -tupla de enteros cuya suma es como mucho\(n\).

    1. Encuentra el tamaño del espacio de muestra.: Considera bolas\(n\) indistinguibles colocadas en fila. Colocar\(j\) marcadores entre pares consecutivos de bolas, sin dos marcadores entre el mismo par de bolas. (También permitimos que uno de los\(n\) marcadores se coloque al final de la fila de bolas). Demostrar que existe una correspondencia 1-1 entre el conjunto de posiciones posibles para los marcadores y el conjunto de\(j\) -tuplas cuyo tamaño estamos tratando de contar.

    2. Encuentra la probabilidad de que la\(j\) -tupla seleccionada contenga al menos un 1.

    \(\PageIndex{37}\)Dejar\(n\ (\mbox{mod}\ m)\) denotar el resto cuando el entero\(n\) se divide por el entero\(m\). Escribir un programa de computadora para calcular los números\({n \choose j}\ (\mbox{mod}\ m)\) donde\({n \choose j}\) es un coeficiente binomial y\(m\) es un entero. Esto se puede hacer usando las relaciones de recursión para generar coeficientes binomiales, haciendo toda la aritmética usando la función básica mod (\(n,m\)). Intenta escribir tu programa para hacer una mesa lo más grande posible. Ejecuta tu programa para los casos\(m = 2\) al 7. ¿Ves algún patrón? En particular, para el caso\(m = 2\) y\(n\) una potencia de 2, verificar que todas las entradas en la fila\((n - 1)\) st sean 1. (Los números binomiales correspondientes son impares.) Usa tus fotos para explicar por qué esto es cierto.

    \(\PageIndex{38}\)Lucas 27 demostró el siguiente resultado general relativo al Ejercicio 37. Si\(p\) hay algún número primo, entonces se\({n \choose j}~ (\mbox{mod\ }p)\) puede encontrar de la siguiente manera: Expandir\(n\) y\(j\) en base\(p\) como\(n = s_0 + s_1p + s_2p^2 + \cdots + s_kp^k\) y\(j = r_0 + r_1p + r_2p^2 + \cdots + r_kp^k\), respectivamente. (Aquí\(k\) se elige lo suficientemente grande como para representar todos los números desde 0 hasta\(n\) en base\(p\) usando\(k\) dígitos). Dejar\(s = (s_0,s_1,s_2,\dots,s_k)\) y\(r = (r_0,r_1,r_2,\dots,r_k)\). Entonces\[{n \choose j}~(\mbox{mod\ }p) = \prod_{i = 0}^k

    ParseError: EOF expected (click for details)
    Callstack:
        at (Estadisticas/Teoria_de_Probabilidad/Libro:_Probabilidad_Introductoria_(Grinstead_y_Snell)/03:_Combinatoria/3.02:_Combinaciones), /content/body/div[14]/p[39]/span[15]/span, line 1, column 4
    
    ~(\mbox{mod\ }p)\ .\] Por ejemplo, si\(p = 7\),\(n = 12\), y\(j = 9\), entonces

    \[\begin{aligned} 12 & = & 5 \cdot 7^0 + 1 \cdot 7^1\ , \\ 9 & = & 2 \cdot 7^0 + 1 \cdot 7^1\ , \end{aligned}\]de manera que\[\begin{aligned} s & = & (5, 1)\ , \\ r & = & (2, 1)\ , \end{aligned}\] y este resultado establece que\[{12 \choose 9}~(\mbox{mod\ }p) = {5 \choose 2} {1 \choose 1}~(\mbox{mod\ }7)\ .\] Desde\({12 \choose 9} = 220 = 3~(\mbox{mod\ }7)\), y\({5 \choose 2} = 10 = 3~ (\mbox{mod\ }7)\), vemos que el resultado es correcto para este ejemplo.

    Demuestre que este resultado implica que\(p = 2\), para, la\((p^k - 1)\) st fila de su triángulo en el Ejercicio 37 no tiene ceros.

    \(\PageIndex{39}\)Demostrar que la probabilidad de exactamente\(n\) cabezas en\(2n\) lanzamientos de una moneda justa viene dada por el producto de los números impares hasta\(2n - 1\) dividirse por el producto de los números pares hasta\(2n\).

    \(\PageIndex{40}\)Dejar\(n\) ser un entero positivo, y asumir que\(j\) es un entero positivo que no exceda\(n/2\). Mostrar que en el Teorema 3.5, si se alternan las multiplicaciones y divisiones, entonces todos los valores intermedios en el cálculo son enteros. Mostrar también que ninguno de estos valores intermedios supera el valor final.


    This page titled 3.2: Combinaciones is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.