Saltar al contenido principal
LibreTexts Español

19.1: Distribución de resultados para múltiples ensayos con dos posibles resultados

  • Page ID
    74567
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Supongamos que tenemos dos monedas, una acuñada en 2001 y otra acuñada en 2002. Que las probabilidades de conseguir una cabeza y una cola en un lanzamiento de la moneda 2001 sean\(P_{H,1}\) y\(P_{T,1}\), respectivamente. Suponemos que estos resultados agotan las posibilidades. De las leyes de la probabilidad, tenemos:\(1=\left(P_{H,1}+P_{T,1}\right)\). Para la moneda del 2002, tenemos\(1=\left(P_{H,2}+P_{T,2}\right)\). El producto de estas dos probabilidades también debe ser la unidad. Ampliar este producto da

    \[ \begin{align*} 1 &=\left(P_{H,1}+P_{T,1}\right)\left(P_{H,2}+P_{T,2}\right) \\[4pt] &=P_{H,1}P_{H,2}+P_{H,1}P_{T,2}+P_{T,1}P_{H,2}+P_{T,1}P_{T,2} \end{align*}\]

    Esta ecuación representa la probabilidad de un ensayo en el que lanzamos primero la moneda de 2001 y la moneda de 2002 en segundo lugar. Los términos individuales son las probabilidades de los posibles resultados de dicho ensayo. Es conveniente darle un nombre a esta última representación del producto; lo llamaremos la representación ampliada de la suma de probabilidad total.

    Nuestro procedimiento para multiplicar dos binomios genera una suma de cuatro términos. Cada término contiene dos factores. El primer factor proviene del primer binomio; el segundo término proviene del segundo binomio. Cada uno de los cuatro términos corresponde a una combinación de un resultado de arrojar la moneda de 2001 y un resultado de arrojar la moneda de 2002. Por el contrario, cada combinación posible de resultados del lanzamiento de las dos monedas se representa en la suma. \(P_{H,1}P_{H,2}\)representa la probabilidad de obtener una cabeza al arrojar la moneda de 2001 y una cabeza de tirar la moneda de 2002. \(P_{H,1}P_{T,2}\)representa la probabilidad de obtener una cabeza al arrojar la moneda de 2001 y una cola de arrojar la moneda de 2002, etc. En definitiva, existe una correspondencia uno a uno entre los términos de esta suma y las posibles combinaciones de los resultados de arrojar estas dos monedas.

    Este análisis depende de nuestra capacidad para diferenciar las dos monedas. Para ello, la fecha de menta es suficiente. Si lanzamos las dos monedas simultáneamente, los cuatro posibles resultados siguen siendo los mismos. Además, si distinguimos el resultado de un primer lanzamiento del resultado de un segundo lanzamiento, etc., podemos generar los mismos resultados usando una sola moneda. Si usamos una sola moneda, podemos representar los posibles resultados de dos tiradas por las secuencias ordenadas\(HH\)\(HT\),\(TH\),, y\(TT\), donde el primer símbolo de cada secuencia es el resultado del primer tirado y el segundo símbolo es el resultado del segundo. Las secuencias ordenadas\(HT\) y\(TH\) difieren sólo en el orden en que aparecen los símbolos. Llamamos a tales secuencias ordenadas permutaciones.

    Ahora consideremos un nuevo problema. Supongamos que tenemos dos babosas similares a monedas que podemos distinguir porque hemos rayado un “\(1\)” en la superficie de una y una “\(2\)” en la superficie de la otra. Supongamos que también tenemos dos copas, una marcada como “\(H\)” y la otra marcada con “”\(T\). Queremos averiguar cuántas formas diferentes podemos poner las dos babosas en las dos tazas. También podemos describir esto como el problema de encontrar el número de formas en que podemos asignar dos babosas distinguibles (objetos) a dos copas diferentes (categorías). Hay cuatro formas:\(H\) La copa contiene babosas\(1\) y\(2\); la copa\(H\) contiene babosas\(1\) y la copa\(T\) contiene babosa\(2\); la copa\(H\) contiene babosas\(2\) y la copa\(T\) contiene babosas\(1\); la copa\(T\) contiene babosas\(1\) y\(\ 2\).

    Observamos que, dadas todas las secuencias ordenadas para arrojar dos monedas, podemos generar inmediatamente todas las formas en que dos objetos distinguibles (babosas numeradas) pueden asignarse a dos categorías (Copas\(H\) y\(T\)). Para cada secuencia ordenada, asignamos el primer objeto a la categoría correspondiente al primer símbolo de la secuencia, y asignamos el segundo objeto a la categoría correspondiente al segundo símbolo de la secuencia.

    En resumen, hay correspondencias uno a uno entre las secuencias de factores de probabilidad en la suma de probabilidad total, los posibles resultados de arrojar dos monedas distinguibles, las posibles secuencias de resultados de dos tiradas de una sola moneda y el número de formas en que podemos asignar dos distinguibles objetos a dos categorías. (Ver Cuadro 1.)

    Cuadro 1.
    Problemas Correspondencias
    Secuencias de factores de probabilidad en la suma de probabilidad total \(P_{H,1} P_{H,2}\) \(P_{H,1} P_{T,2}\) \(P_{T,1} P_{H,2}\) \(P_{T,1} P_{T,2}\)
    Factores de probabilidad para monedas distinguidos por números de identificación \(P_H P_H\) \(P_H P_T\) \(P_T P_H\) \(P_T P_T\)
    Secuencias del lanzamiento de una sola moneda \(HH\) \(HT\) \(TH\) \(TT\)
    Asignaciones de dos objetos distinguibles a dos categorías Taza\(H\) con capacidad para babosas 1 y 2 \(H\)La taza tiene capacidad para babosa 1 y la taza\(T\) sostiene babosa 2 \(H\)La copa tiene capacidad para babosa 2 y la copa\(T\) sostiene babosa 1 Taza\(T\) con capacidad para babosas 1 y 2

    Si la probabilidad de tirar una cabeza es constante, tenemos\(P_{H,1}=P_{H,2}=P_H\) y\(P_{T,1}=P_{T,2}=P_T\). Tenga en cuenta que no estamos asumiendo\(P_H=P_T\). Si no nos importa el orden en que aparecen las cabezas y las colas, podemos simplificar nuestra ecuación para el producto de probabilidades de

    \[1=P^2_H+2P_HP_T+P^2_T\]

    \(P^2_H\)es la probabilidad de arrojar dos cabezas,\(P_HP_T\) es la probabilidad de arrojar una cabeza y una cola, y\(P^2_T\) es la probabilidad de arrojar dos colas. Debemos multiplicar el\(P_HP_T\) término por dos, porque hay dos resultados de dos monedas y correspondientemente dos combinaciones,\(P_{H,1}P_{T,2}\) y\(P_{T,1}P_{H,2}\), que tienen la misma probabilidad,\(P_HP_T\). De manera totalmente equivalente, podemos decir que la razón para multiplicar el\(P_HP_T\) -término por dos es que hay dos permutaciones,\(HT\) y\(TH\), que corresponden a una cabeza y una cola en sucesivos tirados de una sola moneda.

    Hemos prodigado considerable atención en cuatro problemas relacionados pero muy simples. Ahora, queremos extender este análisis, primero a tiradas de múltiples monedas y luego a situaciones en las que múltiples resultados son posibles para cada uno de los muchos eventos independientes. Eventualmente encontraremos que la comprensión de estos problemas nos permite construir un modelo para el comportamiento de las moléculas que explique las observaciones de la termodinámica clásica.

    Si extendemos nuestro análisis al lanzamiento de\(n\) monedas, que etiquetamos monedas\(1\)\(2\), etc., encontramos:

    \[ \begin{align*} 1 &=\left(P_{H,1}+P_{T,1}\right)\left(P_{H,2}+P_{T,2}\right)\dots \left(P_{H,n}+P_{T,n}\right) \\[4pt] &=\left(P_{H,1}P_{H,2}\dots P_{H,n}\right)+\left(P_{H,1}P_{H,2}{\dots P}_{H,i}\dots P_{T,n}\right)+\dots +\left(P_{T,1}P_{T,2}\dots P_{T,i}\dots P_{T,n}\right) \end{align*}\]

    Escribimos cada uno de los términos del producto en esta representación ampliada de la suma de probabilidad total con el segundo índice\(r\), aumentando de\(1\) a a\(n\) medida que leemos los factores,\(P_{X,r}\), de izquierda a derecha. Al igual que para lanzar solo dos monedas:

    1. Cada término del producto es una secuencia de factores de probabilidad que aparece en la suma de probabilidad total.
    2. Cada término del producto corresponde a un posible resultado de arrojar n monedas que se distinguen entre sí por números de identificación.
    3. Cada término de producto es equivalente a un posible resultado de los tirados repetidos de una sola moneda: el\(r^{th}\) factor es\(P_H\) o de\(P_T\) acuerdo como el\(r^{th}\) lanzamiento produce una cabeza o una cola.
    4. Cada término de producto es equivalente a una posible asignación de n objetos distinguibles a las dos categorías\(H\) y\(T\).

    En la Sección 3.9, se introduce el término conjunto de población para denotar un conjunto de números que representa una posible combinación de resultados. Aquí las posibles combinaciones de resultados son los números de cabezas y colas. Si en cinco tiradas obtenemos\(3\) cabezas y\(2\) colas, decimos que este grupo de resultados pertenece al conjunto poblacional\(\{3,2\}\). Si en\(n\) lanzas, obtenemos\(n_H\) cabezas y\(n_T\) colas, este grupo de resultados pertenece al conjunto poblacional\(\{n_H,n_T\}\). Para cinco tiradas, los posibles conjuntos poblacionales son\(\left\{5,0\right\}\)\(\left\{4,1\right\}\),\(\left\{3,2\right\}\),\(\left\{2,3\right\}\),\(\left\{1,4\right\}\), y\(\left\{5,0\right\}\). A partir del siguiente capítulo, nos enfocamos en los niveles de energía que están disponibles para un conjunto de partículas y en el número de partículas que tiene cada una de las energías disponibles. Entonces el número de partículas,\(N_i\), que tienen energía\({\epsilon }_i\) es la población del nivel\({\epsilon }_i\) -energético. El conjunto de todos esos números es la población de nivel de energía establecida para el conjunto de partículas.

    Si no podemos distinguir una moneda de otra, la secuencia\(P_{H,1}P_{T,2}P_{H,3}P_{H,4}\) se vuelve\(P_HP_TP_HP_H\). Decimos que\(P_HP_TP_HP_H\) es distinguible de\(P_HP_HP_TP_H\) porque el colas-resultado aparece en la segunda posición en\(P_HP_TP_HP_H\) y en la tercera posición en\(P_HP_HP_TP_H\). Eso decimos\(P_{H,1}P_{T,2}P_{H,3}P_{H,4}\) y\(P_{H,3}P_{T,2}P_{H,1}P_{H,4}\) somos indistinguibles, porque ambos se vuelven\(P_HP_TP_HP_H\). En general, muchos términos en la forma expandida de la suma de probabilidad total pertenecen al conjunto poblacional correspondiente a\(n_H\) cabezas y\(n_T\) colas. Cada término corresponde a una permutación distinguible de\(n_H\) cabezas y\(n_T\) colas y a la correspondiente permutación distinguible de\(P_H\) y\(P_T\) términos.

    Utilizamos la notación\(C\left(n_H,n_T\right)\) para denotar el número de términos en la forma expandida de la suma de probabilidad total en la que hay\(n_H\) cabezas y\(n_T\) colas. \(C\left(n_H,n_T\right)\)es también el número de permutaciones distinguibles de\(n_H\) cabezas y\(n_T\) colas o\({}_{H}\) de\(n_H\) términos\(n_T\) P y\({}_{T}\) términos P. El objetivo principal de nuestro análisis es encontrar una fórmula general para\(C\left(n_H,n_T\right)\). Para ello, hacemos uso del hecho de que también\(C\left(n_H,n_T\right)\) es el número de formas en que podemos asignar\(n\) objetos (monedas) a dos categorías (cabezas o colas) de tal manera que\(n_H\) los objetos están en una categoría (cabezas) y\(n_T\) los objetos están en la otra categoría (colas). También llamamos\(C\left(n_H,n_T\right)\) al número de combinaciones posibles para monedas distinguibles en el conjunto poblacional\(\{n_H,n_T\}\).

    La importancia de\(C\left(n_H,n_T\right)\) es evidente cuando reconocemos que, si no nos importa la secuencia (permutación) en la que se produce un número particular de cabezas y colas, podemos representar la suma de probabilidad total en una forma muy comprimida:

    \[1=P^n_H+nP^{n-1}_HP_T+\dots +C\left(n_H,n_T\right)P^{n_H}_HP^{n_T}_T+nP_HP^{n-1}_T+P^n_T\]

    En esta representación, hay\(n\) términos en la suma de probabilidad total que tienen\(n_H=n-1\) y\(n_T=1\). Estos son los términos

    \[P_{H,1}P_{H,2}P_{H,3}{\dots P}_{H,i}\dots P_{H,n-1}{\boldsymbol{P}}_{\boldsymbol{T},\boldsymbol{n}}\]\[P_{H,1}P_{H,2}P_{H,3}{\dots P}_{H,i}\dots {\boldsymbol{P}}_{\boldsymbol{T},\boldsymbol{n}\boldsymbol{-}\boldsymbol{1}}P_{H,n}\]\[P_{H,1}P_{H,2}P_{H,3}\dots {\boldsymbol{P}}_{\boldsymbol{T},\boldsymbol{i}}\dots P_{H,n-1}P_{H,n}\]

    ...

    \[P_{H,1}P_{H,2}{\boldsymbol{P}}_{\boldsymbol{T},\boldsymbol{3}}{\dots P}_{H,i}\dots P_{H,n-1}P_{H,n}\]\[P_{H,1}{\boldsymbol{P}}_{\boldsymbol{T},\boldsymbol{2}}P_{H,3}{\dots P}_{H,i}\dots P_{H,n-1}P_{H,n}\]\[{\boldsymbol{P}}_{\boldsymbol{T},\boldsymbol{1}}P_{H,2}P_{H,3}{\dots P}_{H,i}\dots P_{H,n-1}P_{H,n}\]

    Cada uno de estos términos representa la probabilidad de que se produzcan\(n-1\) cabezas y una cola en el orden mostrado. Cada uno de estos términos tiene el mismo valor. Cada uno de estos términos es una permutación distinguible de\(n-1\)\(P_H\) términos y un\(P_T\) término. Cada uno de estos términos corresponde a una combinación en la que una de las n babosas numeradas se asigna a Copa\(T\), mientras que las babosas\(n-1\) numeradas restantes se asignan a Copa\(H\). Es fácil ver que existen\(n\) tales términos, porque cada término es producto de\(n\) probabilidades, y la cola puede ocurrir en cualquiera de las\(n\) posiciones en el producto. Si no nos importa el orden en que ocurren las cabezas y las colas y nos interesa sólo el valor de la suma de estos\(n\) términos, podemos sustituir estos\(n\) términos por el término único\(nP^{n-1}_HP_T\). Vemos que\(nP^{n-1}_HP_T\) es la probabilidad de arrojar\(n-1\) cabezas y una cola, independientemente de qué lanzamiento produce la cola.

    Hay otra manera de demostrar que debe haber\(n\) términos en la suma de probabilidad total en la que haya\(n-1\) cabezas y una cola. Este método se basa en el hecho de que el número de tales términos es el mismo que el número de combinaciones en las que n cosas distinguibles se asignan a dos categorías, con\(n-1\) de las cosas en una categoría y la cosa restante en la otra categoría,\(C\left(n-1,1\right)\). Este método es un poco más complicado, pero ofrece la gran ventaja de que se puede generalizar.

    El nuevo método requiere que pensemos en todas las permutaciones que podemos crear reordenando los resultados de cualquier serie particular de\(n\) tiradas. Para ver lo que tenemos en mente cuando decimos todas las permutaciones, vamos a\(P_{X,k}\) representar la probabilidad de número de lanzamiento\(k\), donde por el momento no nos importa si el resultado fue una cabeza o una cola. Cuando decimos todas las permutaciones, nos referimos al número de diferentes formas en que podemos ordenar (permutar) n valores diferentes\(P_{X,k}\). Es importante reconocer que una y solo una de estas permutaciones es un término en la suma de probabilidad total, específicamente:

    \[P_{X,1}P_{X,2}P_{X,3}\dots P_{X,k}\dots P_{X,n}\]

    en el que los valores del segundo subíndice están en orden numérico. Cuando nos propusimos construir todas estas permutaciones, vemos que hay\(n\) formas de elegir el tirado para poner primero y\(n-1\) formas de elegir el tirado para poner en segundo lugar, así que hay\(n\left(n-1\right)\) formas de elegir los dos primeros tirados. Hay\(n-2\) formas de elegir el tercer lanzamiento, así que hay\(n\left(n-1\right)\left(n-2\right)\) formas de elegir los tres primeros tirados. Continuando de esta manera a través de todos los\(n\) tirados, vemos que el número total de formas de ordenar los resultados de n tiradas es\(n\left(n-1\right)\left(n-2\right)\left(n-3\right)\dots \left(3\right)\left(2\right)\left(1\right)=n!\)

    A continuación, hay que pensar en la cantidad de formas en las que podemos permutar\(n\) valores\(P_{X,k}\) si\(n-1\) de ellos son\(P_{H,1}\)\(P_{H,2}\),, \(P_{H,r-1},\)...,...,\(P_{H,r+1},\dots ,P_{H,n}\) y uno de ellos es\(P_{T,r}\), y siempre mantenemos el único factor\(P_{T,r}\) en la misma posición. Por el argumento anterior, hay\(\left(n-1\right)!\) formas de permutar los valores\(P_{H,s}\) en un conjunto que contiene\(n-1\) miembros. Entonces, por cada término (producto de factores\(P_{X,k}\)) que ocurre en la suma de probabilidad total, hay\(\left(n-1\right)!\) otros productos (otras permutaciones de los mismos factores) que difieren sólo en el orden en que\(P_{H,s}\) aparecen. El resultado de una sola cola ocupa la misma posición en cada una de estas permutaciones. Si el\(r^{th}\) factor en el término en la suma de probabilidad total es\(P_{T,r}\), entonces\(P_{T,r}\) es el\(r^{th}\) factor en cada una de las\(\left(n-1\right)!\) permutaciones de este término. Este es un punto importante, repitámoslo en palabras ligeramente distintas: Por cada término que ocurre en la suma de probabilidad total, hay\(\left(n-1\right)!\) permutaciones de los mismos factores que dejan las posiciones de cabeza ocupadas por cabezas y la posición de cola ocupada por colas.

    Equivalentemente, por cada asignación de objetos\(n-1\) distinguibles a una de dos categorías, existen\(\left(n-1\right)!\) permutaciones de estos objetos. Existen\(C\left(n-1,1\right)\) tales asignaciones. En consecuencia, hay un total de\(\left(n-1\right)!C\left(n-1,1\right)\) permutaciones de los objetos\(n\) distinguibles. Como también sabemos que el número total de permutaciones de n objetos distinguibles es\(n!\), tenemos

    \[n!=\left(n-1\right)!C\left(n-1,1\right)\]

    para que\[C\left(n-1,1\right)=\frac{n!}{\left(n-1\right)!}\]

    que es el mismo resultado que obtuvimos por nuestro primer y más obvio método.

    Los objetos distinguibles dentro de una categoría en una asignación particular pueden permutarse. Damos otro nombre a estas permutaciones dentro de la categoría; las llamamos permutaciones indistinguibles. (Esta terminología refleja nuestra aplicación pretendida, que es encontrar el número de formas en que moléculas\(n\) idénticas pueden asignarse a un conjunto de niveles de energía. Podemos diferenciar dos moléculas aisladas de una misma sustancia solo si tienen diferentes energías. Podemos distinguir moléculas en diferentes niveles de energía entre sí. No podemos distinguir entre sí dos moléculas en un mismo nivel de energía. Dos permutaciones diferentes de las moléculas dentro de cualquier nivel de energía son indistinguibles entre sí.) Por cada término en la representación ampliada de la suma de probabilidad total, se pueden obtener permutaciones indistinguibles intercambiando\(P_H\) factores entre sí, o intercambiando\(P_T\) factores entre sí, pero no intercambiando\(P_H\) factores con\(P_T\) factores. Es decir, las cabezas se intercambian con cabezas; las colas se intercambian con las colas; pero las cabezas no se intercambian con las colas.

    Ahora podemos considerar el caso general. Dejamos\(C\left(n_H,n_T\right)\) ser el número de términos en la suma de probabilidad total en la que hay\(n_H\) cabezas y\(n_T\) colas. Queremos encontrar el valor de\(C\left(n_H,n_T\right)\). Supongamos que uno de los términos con\(n_H\) cabeza y\(n_T\) cola es

    \[\left(P_{H,a}P_{H,b}\dots P_{H,m}\right)\left(P_{T,r}P_{T,s}\dots P_{T,z}\right)\]

    donde hay\(n_H\) índices en el conjunto\(\{a,\ b,\ \dots ,m\}\) e\(n_T\) índices en el conjunto\(\{r,s,\dots ,z\}\). Hay\(n_H!\) formas de ordenar los resultados de las cabezas y\(n_T!\) formas de ordenar los resultados de las colas. Entonces, hay\(n_H!n_T!\) posibles formas de ordenar resultados de\(n_H\) cabeza y\(n_T\) cola. Esto es cierto para cualquier secuencia en la que haya\(n_H\) cabezas y\(n_T\) colas; siempre habrá\(n_H!n_T!\) permutaciones de\(n_H\) cabezas y\(n_T\) colas, sea cual sea el orden en que aparezcan las cabezas y las colas. Esto también es cierto para cada término en la suma de probabilidad total que contiene factores de\(n_H\) cabeza y factores de\(n_T\) cola. El número de dichos términos es\(C\left(n_H,n_T\right)\). Para cada término así, hay\(n_H!n_T!\) permutaciones de los mismos factores que dejan las posiciones de cabeza ocupadas por cabezas y las posiciones de cola ocupadas por colas.

    En consecuencia, hay un total de\(n_H!n_T!C\left(n_H,n_T\right)\) permutaciones de los objetos\(n\) distinguibles. El número total de permutaciones de n objetos distinguibles es\(n!\), de modo que

    \[n!=n_H!n_T!C\left(n_H,n_T\right)\]

    y

    \[C\left(n_H,n_T\right)=\frac{n!}{n_H!n_T!}\]

    Equivalentemente, podemos construir una suma de términos,\(R\), en la que los términos son todas las\(n!\) permutaciones de\(P_{H,i}\) factores para\(n_H\) cabezas y\(P_{T,j}\) factores para\(n_T\) colas. El valor de cada término en\(R\) es\(P^{n_H}_HP^{n_T}_T\). Así que tenemos

    \[R=n!P^{n_H}_HP^{n_T}_T\]

    \(R\)contiene todos\(C\left(n_H,n_T\right)\) los términos\(P^{n_H}_HP^{n_T}_T\) -valorados que aparecen en la suma de probabilidad total. Para cada uno\(P^{n_H}_HP^{n_T}_T\) de estos términos valorados existen permutaciones\(n_H!n_T!\) indistinguibles que dejan posiciones de cabeza ocupadas por posiciones de cabeza y cola ocupadas por colas. \(R\)también contendrá todas las\(n_H!n_T!\) permutaciones de cada uno\(P^{n_H}_HP^{n_T}_T\) de estos términos valorados. Es decir, cada término en\(R\) es un término en la representación ampliada de la suma de probabilidad total o una permutación indistinguible de dicho término. De ello se deduce que\(R\) también viene dada por

    \[R=n_H!n_T!C\left(n_H,n_T\right)P^{n_H}_HP^{n_T}_T\]

    Equiparando estas ecuaciones para R, tenemos

    \[n!P^{n_H}_HP^{n_T}_T=n_H!n_T!C\left(n_H,n_T\right)P^{n_H}_HP^{n_T}_T\]

    y, de nuevo,

    \[C\left(n_H,n_T\right)=\frac{n!}{n_H!n_T!}\]

    En resumen: El número total de permutaciones es\(n!\) El número de combinaciones de cosas\(n\) distinguibles en que\(n_H\) de ellas se asignan a categoría\(H\) y\(n_T=n-n_H\) se asignan a categoría\(T\) es\(C\left(n_H,n_T\right)\). (Cada combinación es una permutación distinguible). El número de permutaciones indistinguibles de los objetos en cada combinación es\(n_H!n_T!\). La relación entre estas cantidades es

    número total de permutaciones = (número de combinaciones distinguibles)\({}_{\ }\)\({}_{\times }\) (número de permutaciones indistinguibles para cada combinación distinguible)

    Señalamos anteriormente que\(C\left(n_H,n_T\right)\) es la fórmula para los coeficientes binomiales. Si no nos importa el orden en que surgen las cabezas y las colas, la probabilidad de arrojar\(n_T\) colas y\(n_H=n-n_T\) cabezas es

    \[C\left(n_H,n_T\right)P^{n_H}_HP^{n_T}_T=\left(\frac{n!}{n_H!n_T!}\right)P^{n_H}_HP^{n_T}_T\]

    y la suma de dichos términos para todos los valores\(n+1\) posibles de\(n_T\) en el intervalo\(0\le n_T\le n\) es la probabilidad total de todos los resultados posibles de los\(n\) tirados de una moneda. Esta probabilidad total debe ser unidad. Es decir, tenemos

    \[1={\left(P_H+P_T\right)}^n=\sum^n_{n_T=0}{C\left(n_H,n_T\right)P^{n_H}_HP^{n_T}_T}=\sum^n_{n_T=0}{\left(\frac{n!}{n_H!n_T!}\right)P^{n_H}_HP^{n_T}_T}\]

    Por una moneda imparcial,\(P_H=P_T={1}/{2}\), y\(P^{n_H}_HP^{n_T}_T={\left({1}/{2}\right)}^n\), para todos\(n_T\). Esto significa que la probabilidad de arrojar\(n_H\) cabezas y\(n_T\) colas es proporcional a\(C\left(n_H,n_T\right)\) donde está la constante de proporcionalidad\({\left({1}/{2}\right)}^n\). La probabilidad de\(n^{\blacksquare }\) cabezas y\(n-n^{\blacksquare }\) colas es la misma que la probabilidad de\(n-n^{\blacksquare }\) cabezas y\(n^{\blacksquare }\) colas.

    Nada en nuestro desarrollo de la ecuación para la probabilidad total requiere que nos fijemos\(P_H=P_T\), y de hecho, la relación binomial de probabilidad se aplica a cualquier situación en la que hay ensayos repetidos, donde cada ensayo tiene dos resultados posibles, y donde la probabilidad de cada resultado es constante. Si\(P_H\neq P_T\), la simetría observada para arrojar monedas no aplica, porque

    \[P^{n-n^{\blacksquare }}_HP^{n^{\blacksquare }}_T\neq P^{n^{\blacksquare }}_HP^{n-n^{\blacksquare }}_T\]

    Esta condición corresponde a una moneda sesgada.

    Otro ejemplo lo proporciona una hiladora montada en el centro de un círculo pintado sobre una superficie horizontal. Supongamos que una sección en forma\(25\%\) de pie que representa el área del círculo está pintada de blanco y el resto está pintada de negro. Si el punto de parada del spinner es imparcial, se detendrá en la zona blanca con probabilidad\(P_W=0.25\) y en la zona negra con probabilidad\(P_B=0.75\). Después de los\(n\) giros, la probabilidad de resultados\(n_W\) blancos y\(n_B\) negros es

    \[\left(\frac{n!}{n_W!n_B!}\right){\left(0.25\right)}^{n_W}{\left(0.75\right)}^{n_B}\]

    Después de los\(n\) giros, la suma de las probabilidades para todas las combinaciones posibles de resultados en blanco y negro es

    \[\begin{align*} 1 &={\left(P_W+P_B\right)}^n=\sum^n_{n_B=0}{C\left(n_W,n_B\right)P^{n_W}_WP^{n_B}_B} \\[4pt] &=\sum^n_{n_B=0}{\left(\frac{n!}{n_W!n_B!}\right)P^{n_W}_WP^{n_B}_B} \\[4pt] &=\sum^n_{n_{B=0}}{\left(\frac{n!}{n_W!n_B!}\right){\left(0.25\right)}^{n_W}{\left(0.75\right)}^{n_B}} \end{align*}\]


    This page titled 19.1: Distribución de resultados para múltiples ensayos con dos posibles resultados is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Paul Ellgen via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.