Saltar al contenido principal
LibreTexts Español

7.1: La distribución binomial

  • Page ID
    125696
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Esto se ejemplifica con el lanzamiento de una moneda. Para una moneda justa, esperamos que si la lanzamos un número muy grande de veces, entonces aproximadamente la mitad del tiempo vamos a conseguir cabezas y la mitad del tiempo obtendremos colas. Podemos decir que la probabilidad de conseguir cabezas es\(\frac{1}{2}\) y la probabilidad de conseguir colas es\(1 - \frac{1}{2} = \frac{1}{2}\). Así, las dos posibilidades tienen iguales probabilidades a priori.

    Ahora considere el lanzamiento simultáneo de N monedas. ¿Cuáles son las probabilidades? Por ejemplo, si\(N = 2\), las posibilidades son\(HH\),\(HT\),\(TH\) y\(TT\). Hay dos formas en las que podemos obtener una cabeza y una cola, así que las probabilidades son\(\frac{1}{4}\)\(\frac{1}{2}\), y\(\frac{1}{4}\) para dos cabezas, una cabeza y ninguna cabeza respectivamente. La probabilidad de una cabeza (y una cola) es mayor porque hay muchas (dos en este caso) formas de obtener ese resultado. Entonces podemos preguntar: ¿De cuántas maneras podemos obtener\(n_1\) cabezas (y\((N − n_1)\) colas)? Esto viene dado por la cantidad de formas que podemos elegir entre\(n_1\)\(N\), a las que podemos asignar las cabezas. En otras palabras, viene dada por

    \[W(n_1,n_2) = \frac{N!}{n_1!(N-n_1)!} = \frac{N!}{n_1!n_2!},\;\;\;\;n_1\;+n_2=N \]

    La probabilidad de cualquier arreglo\(n_1\),\(n_2\) será dada por

    \[p(n_1,n_2) = \frac{W(n_1,n_2)}{\sum_{n ^\prime_1,n ^\prime_2} W(n ^\prime _1,n ^\prime_2)} = \frac{W(n_1,n_2)}{2^N} \label{7.1.2}\]

    donde hemos utilizado el teorema binomial para escribir el denominador como\(2^N\). Esta probabilidad en función de\(x = \frac{n_1}{N}\) para grandes valores de\(N\),\(n_1\) se muestra en la Figura\(\PageIndex{1}\). Observe que ya para\(N= 8\), la distribución alcanza un pico bruscamente alrededor del valor medio de\(n_1 \;= \;4\). Esto se vuelve cada vez más pronunciado a medida que\(N\) se vuelve grande. Podemos verificar el lugar donde se produce el máximo señalando que los valores\(\frac{n_1}{N}\) y\(\frac{(n_1 + 1)}{N}\) son muy cercanos entre sí, infinitesimalmente diferentes para\(N → ∞\), de manera que se\(x = \frac{n_1}{N}\) puede tomar como continuo\(N → ∞\). Además, para grandes números, podemos usar la fórmula de Stirling

    \[\log N! \;≈\; N \log N \;−\; N\]

    clipboard_e67c479bca7fe73e361e4392c9bc9e3fd.png
    Figura\(\PageIndex{1}\): La distribución binomial que\(W(n_1, n_2)\) se muestra como una función de\(n_1\) = el número de cabezas para\(N = 8\)

    Entonces conseguimos

    \[\begin{align*} \log p &= \log W(n_1, n_2) - N \log 2 \\[4pt] &≈ N \log N-N- (n_1 \log n_1 \;−\; n_1) − (N − n_1) \log(N− n_1) + (N −n_1) − N \log 2 \\[4pt] &≈ −N [x \log x + (1 − x) \log(1 − x)] − N \log 2 \end{align*}\]

    Esto tiene un máximo en\(x = x_∗ = \frac{1}{2}\). Ampliando\(\log p\) alrededor de este valor, obtenemos

    \[\log p \;≈\; −2 N (x − x_∗)^2 \;+\; O((x − x_∗)^3 ),\;\;\;\; or\; p \;≈\; exp( −2 N (x − x∗) ^2 ) \]

    Vemos que la distribución es máxima alrededor\(x_∗\) con un ancho dado por\(∆x^2 \;∼\; (\frac{1}{4}N)\). La probabilidad de desviación del valor medio es muy muy pequeña como\(N → ∞\). Esto significa que muchas cantidades pueden aproximarse por sus valores medios o valores al máximo de la distribución.

    Hemos considerado probabilidades iguales a priori. Si no tuviéramos iguales probabilidades entonces el resultado será diferente. Por ejemplo, supongamos que teníamos una moneda con probabilidad de\(q\),\(0 < q < 1\) para cabezas y probabilidad\((1 − q)\) para colas. Entonces la probabilidad de\(N\) monedas iría como

    \[p(n_1, n_2) = q^{n_1} (1 − q)^{n_2} W(n_1, n_2)\]

    (Obsérvese que\(q = \frac{1}{2}\) reproduce la Ecuación\ ref {7.1.2}.) El máximo está ahora en\(x \;= \; x_∗ = q\). La desviación estándar del valor máximo no se modifica.

    Aquí consideramos monedas para cada una de las cuales solo hay dos resultados, cabeza o cola. Si tenemos un dado con 6 resultados posibles, debemos considerar\(N\) dividirnos en\(n_1, n_2, · · · , n_6\). Por lo tanto, primero podemos elegir entre\(n_1\)\(\frac{N!}{(n_1!(N − n_1)!)}\) formas, luego elegir entre\(n_2\) las\(\frac{(N − n_1)!}{(n_2!(N − n_1 − n_2)!)}\) formas restantes y así sucesivamente, de modo que el número de formas\(N − n_1\) en que podemos obtener una tarea en particular\( {n_1, n_2, · · · , n_6}\) es\(N\)

    \[W(\{n_i\}) = \frac{N!}{(n_1!(N − n_1)!)} \frac{(N − n_1)!}{(n_2!(N − n_1 − n_2)!)}· · ·= \frac{N!}{n_1, n_2, · · · , n_6},\;\;\;\; \sum_i n_i = N \]

    De manera más general, la cantidad de formas en que podemos distribuir\(N\) partículas en\(K\) cajas es

    \[W(\{n_i\}) = N_i\prod_i^K \frac{1}{n_i!},\;\;\;\;\; \sum_{i=1}^K n_1\;=N \]

    Básicamente, esto le da a la distribución multinomial.


    This page titled 7.1: La distribución binomial is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by V. Parameswaran Nair.