Saltar al contenido principal
LibreTexts Español

11.2: La distribución binomial

  • Page ID
    151676
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\bs}{\boldsymbol}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\skw}{\text{skew}}\)\(\newcommand{\kur}{\text{kurt}}\)

    Teoría Básica

    Definiciones

    Nuestro experimento aleatorio consiste en realizar una secuencia de ensayos de Bernoulli\(\bs{X} = (X_1, X_2, \ldots) \). Recordemos que\(\bs{X}\) es una secuencia de variables aleatorias indicadoras independientes, distribuidas idénticamente, y en el lenguaje habitual de confiabilidad, 1 denota éxito y 0 denota fracaso. La probabilidad común de éxito\( p = \P(X_i = 1) \), es el parámetro básico del proceso. En términos estadísticos, los primeros\(n\) rastros\((X_1, X_2, \ldots, X_n)\) forman una muestra aleatoria de tamaño\(n\) a partir de la distribución de Bernoulli.

    En esta sección estudiaremos la variable aleatoria que da el número de éxitos en los primeros\(n\) ensayos y la variable aleatoria que da la proporción de éxitos en los primeros\(n\) ensayos. La distribución subyacente, la distribución binomial, es una de las más importantes en la teoría de la probabilidad, por lo que merece ser estudiada con considerable detalle. Como verás, algunos de los resultados de esta sección tienen dos o más pruebas. En casi todos los casos, tenga en cuenta que la prueba de los juicios de Bernoulli es la más simple y elegante.

    Para\( n \in \N \), el número de éxitos en los primeros\(n\) ensayos es la variable aleatoria\[ Y_n = \sum_{i=1}^n X_i, \quad n \in \N\] La distribución de\( Y_n \) es la distribución binomial con parámetro de ensayo\( n \) y parámetro de éxito\( p \).

    Nótese que\(\bs{Y} = (Y_0, Y_1, \ldots)\) es el proceso de suma parcial asociado a la secuencia de ensayos de Bernoulli\(\bs{X}\). En particular,\( Y_0 = 0 \), por lo que la masa puntual a 0 se considera una forma degenerada de la distribución binomial.

    Funciones de distribución

    La función de densidad de probabilidad\( f_n \) de\(Y_n\) viene dada por\[ f_n(y) = \binom{n}{y} p^y (1 - p)^{n-y}, \quad y \in \{0, 1, \ldots, n\} \]

    Prueba

    Recordemos que si\((x_1, x_2 \ldots) \in \{0, 1\}^n\) con\(\sum_{i=1}^n x_i = y\) (es decir, una cadena de bits de longitud\(n\) con 1 ocurriendo exactamente\(y\) veces), entonces por independencia,\[ \P\left[(X_1, X_2, \ldots, X_n) = (x_1, x_2, \ldots, x_n)\right] = p^y (1 - p)^{n - y} \] Por otra parte, el número de cadenas de bits de longitud\(n\) con 1 ocurriendo exactamente\(y\) veces es el coeficiente binomial\(\binom{n}{y}\). Por la propiedad aditiva de probabilidad\[ \P(Y_n = y) = \binom{n}{y} p^y (1 - p)^{n-y}, \quad y \in \{0, 1, \ldots, n\} \]

    Comprobar que\( f_n \) es un PDF válido

    Claramente\( f_n(y) \ge 0 \) para\( y \in \{0, 1, \ldots, n\} \). Del teorema del binomio\[ \sum_{y=0}^n f_n(y) = \sum_{y=0}^n \binom{n}{y} p^y (1 - p)^{n-y} = \left[p + (1 - p)\right]^n = 1 \]

    En el experimento de monedas binomiales, varíe\(n\) y\(p\) con las barras de desplazamiento, y anote la forma y ubicación de la función de densidad de probabilidad. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y compare la función de frecuencia relativa con la función de densidad de probabilidad.

    La distribución binomial es unimodal: Por\( k \in \{1, 2, \ldots, n\} \),

    1. \(f_n(k) \gt f_n(k - 1)\)si y sólo si\(k \lt (n + 1) p\).
    2. \(f_n(k) = f_n(k - 1)\)si y solo si\(k = (n + 1) p\) es un entero un entero entre 1 y\(n\).
    Prueba
    1. \( f_n(k) \gt f_n(k - 1) \)si y solo\( \binom{n}{k} p^k (1 - p)^{n-k} \gt \binom{n}{k - 1} p^{k-1} (1 - p)^{n - k + 1} \) si y solo si y solo\( \frac{p}{k} \gt \frac{1 - p}{n - k + 1} \) si y solo si\( k \lt (n + 1) p \)
    2. Como en (a),\( f_n(k) = f_n(k - 1) \) si y sólo si\( k = (n + 1) p \), que debe ser un entero.

    Así, la función de densidad al principio aumenta y luego disminuye, alcanzando su valor máximo en\(\lfloor (n + 1) p \rfloor\). Este entero es un modo de la distribución. En el caso de que\(m = (n + 1) p\) sea un número entero entre 1 y\(n\), hay dos modos consecutivos, at\(m - 1\) y\(m\).

    Ahora vamos a\( F_n \) denotar la función de distribución de\( Y_n \), para que\[ F_n(y) = \P(Y_n \le y) = \sum_{k=0}^y f_n(k) = \sum_{k=0}^y \binom{n}{k} p^k (1 - p)^{n-k}, \quad y \in \{0, 1, \ldots, n\} \] La función de distribución\( F_n \) y la función cuantil\( F_n^{-1} \) no tengan formas simples, cerradas, sino que los valores de estas funciones se pueden calcular a partir de software matemático y estadístico.

    Abra la calculadora de distribución especial y seleccione la distribución binomial y establezca la vista en CDF. Varíe\( n \)\( p \) y anote la forma y ubicación de la función distribución/cuantil. Para diversos valores de los parámetros, computar la mediana y el primer y tercer cuartiles.

    La función de distribución binomial también tiene una buena relación con la función de distribución beta.

    La función de distribución se\( F_n \) puede escribir en la forma\[ F_n(k) = \frac{n!}{(n - k - 1)! k!} \int_0^{1-p} x^{n-k-1} (1 - x)^k \, dx, \quad k \in \{0, 1, \ldots, n\} \]

    Prueba

    Vamos a\( G_n(k) \) denotar la expresión de la derecha. La sustitución y la integración simple lo demuestran\( G_n(0) = (1 - p)^n = f_n(0) = F_n(0) \). Para\( k \in \{1, 2, \ldots, n\} \), integrando por partes con\( u = (1 - x)^k \) y\( dv = x^{n - k - 1} dx \) da\[ G_n(k) = \binom{n}{k} p^k (1 - p)^{n-k} + \frac{n!}{(n - k)! (k - 1)!} \int_0^{1-p} x^{n-k} (1 - x)^k \, dx = f_n(k) + G_n(k - 1) \] Se deduce que\( G_n(k) = \sum_{j=0}^k f_n(j) = F_n(k) \) para\( k \in \{0, 1, \ldots, n\} \).

    La expresión a la derecha en el teorema anterior es la función de distribución beta, con parámetro izquierdo\( n - k \) y parámetro derecho\( k + 1 \), evaluada en\( 1 - p \).

    Momentos

    La media, varianza y otros momentos de la distribución binomial se pueden calcular de varias maneras diferentes. Nuevamente vamos\(Y_n = \sum_{i=1}^n X_i\) donde\(\bs{X} = (X_1, X_2, \ldots)\) es una secuencia de ensayos de Bernoulli con parámetro de éxito\(p\).

    La media y varianza\( Y_n \) de

    1. \(E(Y_n) = n p \)
    2. \(\var(Y_n) = n p (1 - p)\)
    Prueba de los juicios de Bernoulli
    1. Recordemos eso\(\E(X_i) = p\) para cada uno\(i\). De ahí que de la propiedad aditiva de valor esperado,\[ \E(Y_n) = \sum_{i=1}^n \E(X_i) = \sum_{i=1}^n p = n p \]
    2. Recordemos eso\(\var(X_i) = p (1 - p)\) para cada uno\(i\). De ahí que a partir de la propiedad aditiva de varianza para variables independientes,\[ \var(Y_n) = \sum_{i=1}^n \var(X_i) = \sum_{i=1}^n p (1 - p) = n p (1 - p) \]
    Prueba directa de (a)

    Recordar la identidad\(y \binom{n}{y} = n \binom{n - 1}{y - 1}\) para\( n, \, y \in \N_+ \). Usando el teorema binomial,\ begin {align}\ E (y_n) & =\ sum_ {y=0} ^n y\ binom {n} {y} p^y (1 - p) ^ {n-y} =\ sum_ {y=1} ^n y\ binom {n} {y} p^y (1 - p) ^ {n-y}\\ & =\ sum_ {y=1} ^n n\ binom {n - 1} {y - 1} p^y (1 - p) ^ {n-y} = n p\ sum_ {y=1} ^n\ binom {n - 1} {y - 1} p^ {y-1} (1 - p) ^ {(n - 1) - (y - 1)}\\ & = n p\ sum_ { k=0} ^ {n-1}\ binom {n - 1} {k} p^k (1 - p) ^ {n - 1 - k} = n p\ left [p + (1 - p)\ right] ^ {n-1} = n p\ end {align} Se puede usar una prueba similar, pero más complicada para la parte (b).

    El valor esperado de\(Y_n\) también tiene sentido intuitivo, ya que\(p\) debería ser aproximadamente la proporción de éxitos en un gran número de ensayos. Discutiremos más a fondo el punto en la subsección siguiente sobre la proporción de éxitos. Tenga en cuenta que la gráfica de\(\var(Y_n)\) como una función de\(p \in [0, 1]\) es la parábola que se abre hacia abajo. En particular, el valor máximo de la varianza es\(n / 4\) cuándo\(p = 1 / 2\), y el valor mínimo es 0 cuando\(p = 0\) o\(p = 1\). Por supuesto, en los dos últimos casos,\( Y_n \) es determinista, tomando solo el valor 0 si\( p = 0 \) y solo el valor\( n \) cuándo\( p = 1 \).

    En el experimento de monedas binomiales, variar\(n\) y\(p\) con las barras de desplazamiento y anotar la ubicación y tamaño de la barra de desviación\(\pm\) estándar media. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y compare la media de la muestra y la desviación estándar con la media de distribución y la desviación estándar.

    La función generadora de probabilidad de\(Y_n\) es\( P_n(t) = \E \left(t^{Y_n} \right) = \left[(1 - p) + p t\right]^n\) para\( t \in \R \).

    Prueba de los juicios de Bernoulli

    Recordemos que la función generadora de probabilidad de una suma de variables indpendientes es el producto de las funciones generadoras de probabilidad de los términos. Recordemos también que el PGF de\(X_i\) es\( P(t) = \E\left(t^{X_i}\right) = (1 - p) + p t\) para cada uno\(i\). De ahí\( P_n(t) = P^n(t) \).

    Prueba Directa

    Usando el teorema del binomio una vez más,\[ \E\left(t^{Y_n}\right) = \sum_{y=0}^n t^y \binom{n}{y} p^y (1 - p)^{n-y} = \sum_{y=0}^n \binom{n}{y} (p t)^y (1 - p)^{n-y} = \left[ p t + (1 - p)\right]^n\]

    Recordemos que para\( x \in \R \) y\( k \in \N \), el poder descendente\( x \) del orden\( k \) es\( x^{(k)} = x (x - 1) \cdots (x - k + 1) \). Si\( X \) es una variable aleatoria y\( k \in \N \), entonces\( \E\left[X^{(k)}\right] \) es el momento factorial de\( X \) de onder\( k \). La función de generación de probabilidad proporciona una manera fácil de calcular los momentos factoriales de la distribución binomial.

    \( \E\left[Y_n^{(k)}\right] = n^{(k)} p^k \)para\( k \in \N \).

    Prueba

    Recordemos que\( P_n^{(k)}(1) = \E\left[Y_n^{(k)}\right] \) donde\( P_n^{(k)} \) denota el\( k \) th derivado de\( P_n \). Por simple cálculo,\(P_n^{(k)}(t) = n^{(k)} \left[(1 - p) + p t\right]^{n-k} p^k \), entonces\( P_n^{(k)} = n^{(k)} p^k \).

    Nuestro siguiente resultado da una ecuación de recursión y condiciones iniciales para los momentos de la distribución binomial.

    Relación de recursión y condiciones iniciales

    1. \( \E \left(Y_n^k\right) = n p \E \left[ \left(Y_{n-1} + 1\right)^{k-1} \right] \)para\( n, \, k \in \N_+ \)
    2. \( \E\left(Y_n^0\right) = 1 \)para\( n \in \N \)
    3. \(\E\left(Y_0^k\right) = 0 \)para\( k \in \N_+ \)
    Prueba

    Recordemos de nuevo la identidad\(y \binom{n}{y} = n \binom{n - 1}{y - 1}\). \ begin {align}\ E\ left (y_n^k\ right) & =\ suma_ {y=0} ^n y^k\ binom {n} {y} p^y (1 - p) ^ {n-y} =\ suma_ {y=1} ^n y^ {k-1} y\ binom {n} {y} p^y (1 - p) ^ {n-y}\\ & =\ sum_ {y=1} ^n y^ {k-1} n\ binom {n-1} {y-1} p^y (1 - p) ^ {n-y} = n p\ suma_ {y=1} ^n y^ {k-1}\ binom {n-1} {y-1} p^ {y-1} (1 - p) ^ {(n-1) - (y-1)}\\ & = n p\ suma_ {j=0 } ^ {n-1} (j + 1) ^ {k-1}\ binom {n-1} {j} p^j (1 - p) ^ {n-1 - j} = n p\ E\ izquierda [(Y_ {n-1} + 1) ^ {k-1}\ derecha]\ end {align}

    Los momentos ordinarios (crudos) de se\( Y_n \) pueden computar a partir de los momentos factoriales y a partir de la relación de recursión. Aquí están los primeros cuatro, que serán necesarios a continuación.

    Los primeros cuatro momentos de\( Y_n \) son

    1. \( \E\left(Y_n\right) = n p \)
    2. \( \E\left(Y_n^2\right) = n^{(2)} p^2 + n p\)
    3. \( \E\left(Y_n^3\right) = n^{(3)} p^3 + 3 n^{(2)} p^2 + n p \)
    4. \( \E\left(Y_n^4\right) = n^{(4)} p^4 + + 6 n^{(3)} p^3 + 7 n^{(2)} p^2 + n p \)

    Nuestros resultados de momento final dan la asimetría y curtosis de la distribución binomial.

    Para\( p \in (0, 1) \), la asimetría de\( Y_n \) es\[ \skw(Y_n) = \frac{1 - 2 p}{\sqrt{n p (1 - p)}} \]

    1. \( \skw(Y_n) \gt 0 \)si\( p \lt \frac{1}{2} \)\( p \gt \frac{1}{2} \),\( \skw(Y_n) \lt 0 \) si y\( \skw(Y_n) = 0 \) si\( p = \frac{1}{2} \)
    2. Para fijo\( n \),\( \skw(Y_n) \to \infty \) como\( p \downarrow 0 \) y como\( p \uparrow 1 \)
    3. Para fijo\( p \),\( \skw(Y_n) \to 0 \) como\( n \to \infty \)
    Prueba

    Estos resultados se derivan de las fórmulas computacionales estándar para asimetría y curtosis y los tres primeros momentos de la distribución binomial.

    Abrir el experimento de línea de tiempo binomial. Para cada uno de los siguientes valores de\( n \), variar\( p \) de 0 a 1 y anotar la forma de la función de densidad de probabilidad a la luz de los resultados anteriores sobre asimetría.

    1. \( n = 10 \)
    2. \( n = 20 \)
    3. \( n = 100 \)

    Para\( p \in (0, 1) \), la curtosis\( Y_n \) de\[ \kur(Y_n) = 3 - \frac{6}{n} + \frac{1}{n p (1 - p)} \]

    1. Para fijo\( n \),\( \kur(Y_n) \) disminuye y luego aumenta en función de\( p \), con valor\( 3 - \frac{2}{n} \) mínimo en el punto de simetría\( p = \frac{1}{2} \)
    2. Para fijo\( n \),\( \kur(Y_n) \to \infty \) como\( p \downarrow 0 \) y como\( p \uparrow 1 \)
    3. Para fijo\( p \),\( \kur(Y_n) \to 3 \) como\( n \to \infty \)
    Prueba

    Estos resultados se derivan de las fórmulas computacionales estándar para asimetría y curtosis y los primeros cuatro momentos de la distribución binomial.

    Tenga en cuenta que el exceso de curtosis es\( \kur(Y_n) - 3 = \frac{1}{n p (1 - p)} - \frac{6}{n} \to 0\) como\( n \to \infty \). Esto se relaciona con la convergencia de la distribución binomial a la normal, la cual discutiremos a continuación.

    El Proceso de Suma Parcial

    Varias propiedades importantes del proceso aleatorio\(\bs{Y} = (Y_0, Y_1, Y_2, \ldots)\) provienen de que se trata de un proceso de suma parcial correspondiente a la secuencia\(\bs{X} = (X_1, X_2, \ldots)\) de variables indicadoras independientes, distribuidas idénticamente.

    \(\bs{Y}\)tiene incrementos estacionarios e independientes:

    1. Si\(m\) y\(n\) son enteros positivos con\(m \le n\) entonces\(Y_n - Y_m\) tiene la misma distribución que\(Y_{n-m}\), es decir, binomial con parámetros\(n - m\) y\(p\).
    2. Si\(n_1 \le n_2 \le n_3 \le \cdots\) entonces\(\left(Y_{n_1}, Y_{n_2} - Y_{n_1}, Y_{n_3} - Y_{n_1}, \ldots\right)\) es una secuencia de variables independientes.
    Prueba

    Cada proceso de suma parcial correspondiente a una secuencia de variables independientes, distribuidas idénticamente, tiene incrementos estacionarios e independientes.

    El siguiente resultado da las distribuciones dimensionales finitas de\( \bs{Y} \).

    Las funciones de densidad de probabilidad conjunta de la secuencia\(\bs{Y}\) se dan de la siguiente manera:\[ \P\left(Y_{n_1} = y_1, Y_{n_2} = y_2, \ldots, Y_{n_k} = y_k\right) = \binom{n_1}{y_1} \binom{n_2 - n_1}{y_2 - y_1} \cdots \binom{n_k - n_{k-1}}{y_k - y_{k-1}} p^{y_k} (1 - p)^{n_k - y_k} \] donde\( n_1, n_2, \ldots, n_k \in \N_+ \) con\( n_1 \lt n_2 \lt \cdots \lt n_k \) y donde\( y_1, y_2, \ldots, y_k \in \N \) con\( 0 \le y_j - y_{j-1} \le n_j - n_{j-1} \) para cada una\( j \in \{1, 2, \ldots, k\} \).

    Prueba

    A partir de las propiedades de incrementos estacionarios e independientes,\[ \P\left(Y_{n_1} = y_1, Y_{n_2} = y_2, \ldots, Y_{n_k} = y_k\right) = f_{n_1}(y_1) f_{n_2 - n_1}(y_2 - y_1) \cdots f_{n_k - n_{k-1}}(y_k - y_{k-1}) \] El resultado se desprende entonces de la sustitución y simplificación.

    Transformaciones que preservan la distribución binomial

    Hay dos transformaciones simples pero importantes que persiguen la distribución binomial.

    Si\(U\) es una variable aleatoria que tiene la distribución binomial con parámetros\(n\) y\(p\), entonces\(n - U\) tiene la distribución binomial con parámetros\(n\) y\(1 - p\).

    Prueba de los juicios de Bernoulli

    Recordemos que si\( (X_1, X_2, \ldots) \) es una secuencia de ensayos de Bernoulli con parámetro\( p \), entonces\( (1 - X_1, 1 - X_2, \ldots) \) es una secuencia de ensayos de Bernoulli con parámetro\( 1 - p \). También\( U \) tiene la misma distribución que\( \sum_{i=1}^n X_i \) (binomial con parámetros\( n \) y\( p \)) por lo que\( n - U \) tiene la misma distribución que\( \sum_{i=1}^n (1 - X_i) \) (binomial con parámetros\( n \) y\( 1 - p \)).

    Prueba de funciones de densidad

    Tenga en cuenta que\(\P(n - U = k) = \P(U = n - k) = \binom{n}{k} p^{n-k} (1 - p)^k\) para\(k \in \{0, 1, \ldots, n\}\)

    La suma de dos variables binomiales independientes con el mismo parámetro de éxito también tiene una distribución binomial.

    Supongamos que\(U\) y\(V\) son variables aleatorias independientes, y que\(U\) tiene la distribución binomial con parámetros\(m\) y\(p\), y\(V\) tiene la distribución binomial con parámetros\(n\) y\(p\). Después\(U + V\) tiene la distribución binomial con parámetros\(m + n\) y\(p\).

    Prueba de los juicios de Bernoulli

    Dejar\( (X_1, X_2, \ldots) \) ser una secuencia de ensayos de Bernoulli con parámetro\( p \), y dejar\( Y_k = \sum_{i=1}^k X_i\) para\( k \in \N \). Entonces\(U\) tiene la misma distribución que\(Y_m\) y\(V\) tiene la misma distribución que\(Y_{m+n} - Y_m\). Desde\( Y_m \) y\( Y_{m+n} - Y_m \) son independientes,\( U + V \) tiene la misma distribución que\( Y_m + (Y_{m+n} - Y_m) = Y_{m+n} \).

    Prueba de poderes de convolución

    Dejar\( f \) denotar el PDF de una variable indicadora\( X \) con parámetro\( p \), de modo que\( f(x) = p^x (1 - p)^{1 - x} \) para\( x \in \{0, 1\} \). La distribución binomial con parámetros\( k \in \N_+ \) y\( p \) tiene PDF\( f_k = f^{* k} \), el poder de convolución\( k \) -fold de\( f \). En particular,\( U \) tiene PDF\( f^{* m} \),\( V \) tiene PDF\( f^{* n} \) y por lo tanto\( U + V \) tiene PDF\( f^{* m} * f^{* n} = f^{* (m + n)} \).

    Prueba de la generación de funciones

    \( U \)y\( V \) tienen PGF\( P_m(t) = (1 - p + p t)^m \) y\( P_n(t) = (1 - p + p t)^n \) para\( t \in \R \), respectivamente. De ahí que por independencia,\( U + V \) tiene PGF\(P_m P_n = P_{n+m} \).

    Muestreo y distribución hipergeométrica

    Supongamos que tenemos una población dicotómica, es decir, una población de dos tipos de objetos. Específicamente, supongamos que tenemos\( m \) objetos, y el\( r \) de los objetos son tipo 1 y los\( m - r \) objetos restantes son tipo 0. Así\( m \in \N_+ \) y\( r \in \{0, 1, \ldots, m\} \). Seleccionamos\( n \) objetos al azar de la población, de manera que todas las muestras de tamaño\( n \) son igualmente probables. Si el muestreo es con reemplazo, el tamaño de la muestra\( n \) puede ser cualquier entero positivo. Si el muestreo es sin reemplazo, entonces debemos tener\( n \in \{1, 2, \ldots, m\} \).

    En cualquier caso, vamos a\( X_i \) denotar el tipo del\( i \) 'ésimo objeto seleccionado para\( i \in \{1, 2, \ldots, n\} \) que\( Y = \sum_{i=1}^n X_i\) sea el número de objetos tipo 1 en la muestra. Como se señala en la Introducción, si el muestreo es con reemplazo,\( (X_1, X_2, \ldots, X_n) \) es una secuencia de ensayos de Bernoulli, y por lo tanto\( Y \) tiene los parámetros de distribución binomial\( n \) y\( p = r / m \). Si el muestreo es sin reemplazo, entonces\( Y \) tiene la distribución hipergeométrica con parámetros\( m \),\( r \), y\( n \). La distribución hipergeométrica se estudia en detalle en el capítulo sobre Modelos de Muestreo Finito. Como referencia, la función de densidad de probabilidad de\( Y \) viene dada por\[ \P(Y = y) = \frac{\binom{r}{y} \binom{m - r}{n - y}}{\binom{m}{n}} = \binom{n}{y} \frac{r^{(y)} (m - r)^{(n-y)}}{m^{(n)}}, \quad y \in \{0, 1, \ldots, n\} \] y la media y varianza de\( Y \) son\[ \E(Y) = n \frac{r}{m}, \quad \var(Y) = n \frac{r}{m} \left(1 - \frac{r}{m}\right) \frac{m - n}{m - 1} \] Si el tamaño de la población\( m \) es grande en comparación con el tamaño de la muestra\( n \), entonces la dependencia entre las variables indicadoras es leve, y así la la distribución hipergeométrica debe estar cerca de la distribución binomial. El siguiente teorema lo hace preciso.

    Supongamos que\( r_m \in \{0, 1, \ldots, m\} \) para cada uno\( m \in \N_+ \) y que\( r_m/m \to p \in [0, 1] \) como\( m \to \infty \). Entonces para fija\( n \in \N_+ \) la distribución hipergeométrica con parámetros\( m \),\( r_m \) y\( n \) converge a la distribución binomial con parámetros\( n \) y\( p \) as\( m \to \infty \).

    Prueba

    El PDF hipergeométrico tiene la forma\[ g_m(y) = \binom{n}{y} \frac{r_m^{(y)} (m - r_m)^{(n-y)}}{m^{(n)}}, \quad y \in \{0, 1, \ldots, n\} \] Tenga en cuenta que la fracción anterior tiene\( n \) factores en el numerador y\( n \) factores en el denominador. Podemos agruparlos, en orden, para formar un producto de\( n \) fracciones. Las primeras\( y \) fracciones tienen la forma\[ \frac{r_m - i}{m - i} \] donde\( i \in \{0, 1, \ldots, y - 1\} \). Cada uno de estos converge a\( p \) as\( m \to \infty \). \( n - y \)Las fracciones restantes tienen la forma\[ \frac{m - r_m - j}{m - y - j} \] donde\( j \in \{0, 1, \ldots, n - y - 1\} \). Para fijos\( y \) y\( n \), cada uno de estos converge a\( 1 - p \) as\( m \to \infty \). De ahí\( g_m(y) \to \binom{n}{y} p^y (1 - p)^{n -y} \) que en\( m \to \infty \) cuanto a cada\( y \in \{0, 1, \ldots, n\} \)

    Bajo las condiciones del teorema anterior, la media y varianza de la distribución hipergeométrica convergen a la media y varianza de la distribución binomial limitante:

    1. \( n \frac{r_m}{m} \to n p \)como\( m \to \infty \)
    2. \( n \frac{r_n}{m} \left(1 - \frac{r_m}{m}\right) \frac{m - n}{m - 1} \to n p (1 - p) \)como\( m \to \infty \)
    Prueba

    Por supuesto\( r_m / m \to p \) como\( m \to \infty \) y\( n \) es fijo, así también\( (m - n) \big/ (m - 1) \to 1\) como\( n \to \infty \)

    En el experimento de bola y urna, variar los parámetros y cambiar entre muestreo sin reemplazo y muestreo con reemplazo. Observe la diferencia entre las gráficas de la función de densidad de probabilidad hipergeométrica y la función binomial de densidad de probabilidad. En particular, anotar la similitud cuando\(m\) es grande y\(n\) pequeña. Para valores seleccionados de los parámetros, y para ambos modos de muestreo, ejecute el experimento 1000 veces.

    Desde un punto de vista práctico, la convergencia de la distribución hipergeométrica al binomio significa que si el tamaño de la población\(m\) es grande comparado con el tamaño de la muestra, entonces la distribución hipergeométrica con parámetros\( m \),\(r\) y\(n\) se aproxima bien por la distribución binomial con parámetros\( n \) y\(p = r / m\). Esto suele ser un resultado útil, ya que la distribución binomial tiene menos parámetros que la distribución hipergeométrica (y muchas veces en problemas reales, los parámetros solo pueden conocerse aproximadamente). Específicamente, en la distribución binomial aproximada, no necesitamos conocer el tamaño de la población\( m \) y el número de objetos tipo 1\(r\) individualmente, sino solo en la proporción\(r / m\). Generalmente, la aproximación funciona bien si\( m \) es grande en comparación con\( n \) eso\( \frac{m - n}{m - 1} \) está cerca de 1. Esto asegura que la varianza de la distribución hipergeométrica es cercana a la varianza de la distribución binomial aproximada.

    Ahora volvamos a nuestra secuencia habitual de ensayos de Bernoulli\( \bs{X} = (X_1, X_2, \ldots) \), con parámetro de éxito\( p \), y a las variables binomiales\( Y_n = \sum_{i=1}^n X_i \) para\( n \in \N \). Nuestro siguiente resultado muestra que dados\( k \) los éxitos en los primeros\( n \) ensayos, los ensayos en los que ocurren los éxitos son simplemente una muestra aleatoria de tamaño\( k \) elegida sin reemplazo de\( \{1, 2, \ldots, n\} \).

    Supongamos que\( n \in \N_+ \) y\( k \in \{0, 1, \ldots, n\} \). Entonces para\( (x_1, x_2, \ldots, x_n) \in \{0, 1\}^n \) con\( \sum_{i=1}^n x_i = k \),\[ \P\left[(X_1, X_2, \ldots, X_n) = (x_1, x_2, \ldots, x_n) \mid Y_n = k\right] = \frac{1}{\binom{n}{k}} \]

    Prueba

    A partir de la definición de probabilidad condicional,\[ \P\left[(X_1, X_2, \ldots, X_n) = (x_1, x_2, \ldots, x_n) \mid Y_n = k\right] = \frac{\P\left[(X_1, X_2, \ldots, X_n) = (x_1, x_2, \ldots, x_n)\right]}{\P(Y_n = k)} = \frac{p^k (1 - p)^{n-k}}{\binom{n}{k} p^k (1 - p)^{n-k}}= \frac{1}{\binom{n}{k}} \]

    Obsérvese en particular que la distribución condicional anterior no depende de\( p \). En términos estadísticos, esto significa que relativo a\( (X_1, X_2, \ldots, X_n) \), variable aleatoria\( Y_n \) es un estadístico suficiente para\( p \). Aproximadamente,\( Y_n \) contiene toda la información sobre la\( p \) que está disponible en toda la muestra\( (X_1, X_2, \ldots, X_n) \). La suficiencia se discute con más detalle en el capítulo de Estimación de Puntos. A continuación, si\( m \le n \) entonces la distribución condicional de\( Y_m \) dado\( Y_n = k \) es hipergeométrica, con tamaño de población\( n \)\( m \), tamaño tipo 1 y tamaño muestral\( k \).

    Supongamos eso\( p \in (0, 1) \) y\(m, \, n, \, k \in \N_+\) aquello con\(m \le n\) y\(k \le n\). Entonces\[ \P(Y_m = j \mid Y_n = k) = \frac{\binom{m}{j} \binom{m - n}{k - j}}{\binom{n}{k}}, \quad j \in \{0, 1, \ldots, k\} \]

    Prueba del resultado anterior

    Dado\( Y_n = k \), los números de prueba de los éxitos forman una muestra aleatoria de tamaño\( k \) elegido sin reemplazo de\( \{1, 2, \ldots, n\} \). Designar ensayos\( \{1, 2, \ldots, m\} \) como tipo 1 y ensayos\( \{m + 1, m+2, \ldots, n\} \) como tipo 0. Entonces\( Y_m \) es el número de ensayos tipo 1 en la muestra, y por lo tanto (dado\( Y_n = k \)) tiene la distribución hipergeométrica con el tamaño de la población\( n \), el tamaño tipo 1 y el tamaño\( m \) de la muestra\( k \).

    Prueba directa

    A partir de la definición de probabilidad condicional,\[ \P(Y_m = j \mid Y_n = k) = \frac{\P(Y_m = j, Y_n = k)}{\P(Y_n = k)} = \frac{\P(Y_m = j, Y_n - Y_m = k - j)}{\P(Y_n = k)} \] Pero\( Y_m \) y\( Y_n - Y_m \) son independientes. Ambas variables tienen distribuciones binomiales; la primera con parámetros\( m \) y\( p \), y la segunda con parámetros\( n - m \) y\( p \). De ahí

    \[ \P(Y_m = j \mid Y_n = k) = \frac{\binom{m}{j} p^j (1 - p)^{m - j} \binom{n - m}{k - j} p^{k - j} (1 - p)^{n - m - (k - j)}}{\binom{n}{k} p^k (1 - p)^{n - k}} = \frac{\binom{m}{j} \binom{m - n}{k - j}}{\binom{n}{k}}\]

    Una vez más, tenga en cuenta que la distribución condicional es independiente del parámetro de éxito\( p \).

    La aproximación de Poisson

    El proceso de Poisson on\( [0, \infty) \), llamado así por Simeon Poisson, es un modelo para puntos aleatorios en tiempo continuo. Hay muchas conexiones profundas e interesantes entre el proceso de ensayos de Bernoulli (que se puede considerar como un modelo para puntos aleatorios en tiempo discreto) y el proceso de Poisson. Estas conexiones se exploran en detalle en el capítulo sobre el proceso de Poisson. En esta sección solo damos el resultado más famoso e importante: la convergencia de la distribución binomial a la distribución de Poisson.

    Como referencia, la distribución de Poisson con parámetro de tasa\( r \in (0, \infty) \) tiene función de densidad de probabilidad\[ g(n) = e^{-r} \frac{r^n}{n!}, \quad n \in \N \] El parámetro\( r \) es tanto la media como la varianza de la distribución. Además, la función generadora de probabilidad es\( t \mapsto e^{t (r - 1)} \).

    Supongamos que\( p_n \in (0, 1) \) para\( n \in \N_+ \) y que\( n p_n \to r \in (0, \infty) \) como\( n \to \infty \). Entonces la distribución binomial con parámetros\(n\) y\(p_n\) converge a la distribución de Poisson con parámetro\(r\) as\(n \to \infty\).

    Prueba de funciones de densidad

    Dejar\( f_n \) denotar el PDF binomial con parámetros\( n \) y\( p_n \). Entonces para\( k \in \{0, 1, \ldots, n\} \)\[ f_n(k) = \binom{n}{k} p_n^k (1 - p_n)^{n-k} = \frac{1}{k!}\left[n p_n\right]\left[(n - 1) p_n\right] \cdots \left[(n - k + 1) p_n\right] \left(1 - n \frac{p_n}{n}\right)^{n-k} \] Pero en\((n - j) p_n \to r\)\(n \to \infty\) cuanto a fijo\(j\). También, utilizando un teorema básico a partir del cálculo,\(\left(1 - n p_n \big/ n\right)^{n-k} \to e^{-r}\) como\(n \to \infty\). De ahí\(f_n(k) \to e^{-r} \frac{r^k}{k!} \) como\( n \to \infty \).

    Prueba de la generación de funciones

    Para\(t \in \R\), usando el mismo límite básico del cálculo,\[ \left[(1 - p_n) + p_n t\right]^n = \left[1 + n \frac{p_n}{n}(t - 1)\right]^n \to e^{r(t - 1)} \text{ as } n \to \infty \] El lado izquierdo es el PGF de la distribución binomial con parámetros\( n \) y\( p_n \), mientras que el lado derecho es el PGF de la distribución de Poisson con parámetro\( r \).

    Bajo las mismas condiciones que el teorema anterior, la media y varianza de la distribución binomial convergen a la media y varianza de la distribución limitante de Poisson, respectivamente.

    1. \(n p_n \to r\)como\(n \to \infty\)
    2. \(n p_n (1 - p_n) \to r\)como\(n \to \infty\)
    Prueba

    Por suposición,\( n p_n \to r \) como\( n \to \infty \), y así también se deduce que\( p_n \to 0 \) como\( n \to \infty \).

    Comparar el experimento de Poisson y el experimento de línea de tiempo binomial.

    1. Abra el experimento de Poisson y establezca\( r = 1 \) y\( t = 5 \). Ejecute el experimento varias veces y anote el comportamiento general de los puntos aleatorios en el tiempo. Observe también la forma y ubicación de la función de densidad de probabilidad y la barra de desviación\( \pm \) estándar media.
    2. Ahora abre el experimento de línea de tiempo binomial y establece\( n = 100 \) y\( p = 0.05 \). Ejecute el experimento varias veces y anote el comportamiento general de los puntos aleatorios en el tiempo. Observe también la forma y ubicación de la función de densidad de probabilidad y la barra de desviación\( \pm \) estándar media.

    Desde un punto de vista práctico, la convergencia de la distribución binomial al Poisson significa que si el número de ensayos\(n\) es grande y la probabilidad de éxito\(p\) pequeña, entonces esa\(n p^2\) es pequeña, entonces la distribución binomial con parámetros\(n\) y\(p\) se aproxima bien por la distribución de Poisson con parámetro\(r = n p\). Esto suele ser un resultado útil, ya que la distribución de Poisson tiene menos parámetros que la distribución binomial (y a menudo en problemas reales, los parámetros solo pueden conocerse aproximadamente). Específicamente, en la distribución aproximada de Poisson, no necesitamos conocer el número de ensayos\(n\) y la probabilidad de éxito\(p\) individualmente, sino solo en el producto\(n p\). La condición que\(n p^2\) sea pequeña significa que la varianza de la distribución binomial,\(n p (1 - p) = n p - n p^2\) es decir, es aproximadamente\(r\), la varianza de la distribución aproximada de Poisson.

    La aproximación normal

    Abrir el experimento de línea de tiempo binomial. Para valores seleccionados de\(p \in (0, 1)\), comenzar con\(n = 1\) y sucesivamente aumentar\(n\) en 1. Para cada valor de\(n\), Tenga en cuenta la forma de la función de densidad de probabilidad del número de éxitos y la proporción de éxitos. Con\(n = 100\), ejecute el experimento 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad para el número de éxitos y la proporción de éxitos

    La forma de campana característica que debes observar en el ejercicio anterior es un ejemplo del teorema del límite central, ya que la variable binomial puede escribirse como una suma de variables aleatorias\(n\) independientes, distribuidas idénticamente (las variables indicadoras).

    El puntaje estándar\( Z_n \) de\(Y_n\) es el mismo que el puntaje estándar de\(M_n\):\[ Z_n = \frac{Y_n - n p}{\sqrt{n p (1 - p)}} = \frac{M_n - p}{\sqrt{p (1 - p) / n}} \] La distribución de\( Z_n \) converge a la distribución normal estándar como\(n \to \infty\).

    Esta versión del teorema del límite central se conoce como el teorema de Demoivre-Laplace, y lleva el nombre de Abraham Demoivre y Simeón Laplace. Desde un punto de vista práctico, este resultado significa que, para grandes\(n\), la distribución de\(Y_n\) es aproximadamente normal, con media\(n p\) y desviación estándar\(\sqrt{n p (1 - p)}\) y la distribución de\(M_n\) es aproximadamente normal, con media\(p\) y desviación estándar\(\sqrt{p (1 - p) / n}\). Justo lo grande que\(n\) debe ser para que la aproximación normal funcione bien depende del valor de\(p\). La regla general es que necesitamos\(n p \ge 5\) y\(n (1 - p) \ge 5\) (la primera condición es la significativa cuando\( p \le \frac{1}{2} \) y la segunda condición es la significativa cuando\( p \ge \frac{1}{2} \)). Finalmente, al usar la aproximación normal, debemos recordar usar la corrección de continuidad, ya que el binomio es una distribución discreta.

    Familias Generales

    Para un número fijo de ensayos\( n \), la distribución binomial es miembro de dos familias generales de distribuciones. En primer lugar, se trata de una distribución exponencial general.

    Supongamos que\(Y\) tiene la distribución binomial con parámetros\(n\) y\(p\), donde\(n \in \N_+\) se fija y\(p \in (0, 1)\). La distribución de\( Y \) es una familia exponencial de un parámetro con parámetro natural\(\ln \left( \frac{p}{1 - p} \right)\) y estadística natural\(Y\).

    Prueba

    Esto se desprende de la definición de la familia exponencial general. El conjunto de soporte\(\{0, 1, \ldots, n\} \) no depende de\( p \), y para\( y \) en este conjunto,\[ f_n(y) = \binom{n}{y} p^y (1 - p)^{n-y} = \binom{n}{y} (1 - p)^n \left(\frac{p}{1 - p}\right)^y = \binom{n}{y} (1 - p)^n \exp\left[y \ln\left(\frac{p}{1 - p}\right)\right] \]

    Tenga en cuenta que el parámetro natural es el logaritmo de la razón de probabilidades correspondiente a\(p\). Esta función a veces se llama la función logit. La distribución binomial es también una distribución en serie de potencia

    Supongamos nuevamente que\( Y \) tiene la distribución binomial con parámetros\( n \) y\( p \), donde\( n \in \N_+ \) se fija y\( p \in (0, 1) \). La distribución de\( Y \) es una distribución de serie de potencia en el parámetro\( \theta = \frac{p}{1 - p} \), correspondiente a la función\( \theta \mapsto (1 + \theta)^n \).

    Prueba

    Esto se desprende de la definición de la distribución de la serie de potencia. Como antes, para\( y \in \{0, 1, \ldots, n\} \),\[ f_n(y) = \binom{n}{y} p^y (1 - p)^{n-y} = \binom{n}{y} (1 - p)^n \left(\frac{p}{1 - p}\right)^y = \frac{1}{(1 + \theta)^n} \binom{n}{y} \theta^y\] dónde\( \theta = \frac{p}{1 - p} \). Esta es la distribución de series de potencia en\( \theta \), con coeficientes\( \binom{n}{y} \), correspondientes a la función\(\theta \mapsto (1 + \theta)^n \).

    La proporción de éxitos

    Supongamos nuevamente que\( \bs{X} = (X_1, X_2, \ldots) \) es una secuencia de ensayos de Bernoulli con parámetro de éxito\( p \), y que como de costumbre,\( Y_n = \sum_{i=1}^n X_i \) es el número de éxitos en los primeros\( n \) ensayos para\( n \in \N \). La proporción de éxitos en los primeros\(n\) ensayos es la variable aleatoria\[ M_n = \frac{Y_n}{n} = \frac{1}{n} \sum_{i=1}^n X_i \] En términos estadísticos,\(M_n\) es la media muestral de la muestra aleatoria\((X_1, X_2, \ldots, X_n)\). La proporción de éxitos\(M_n\) se utiliza típicamente para estimar la probabilidad de éxito\(p\) cuando se desconoce esta probabilidad.

    Es fácil expresar la función de densidad de probabilidad de la proporción de éxitos\(M_n\) en términos de la función de densidad de probabilidad del número de éxitos\(Y_n\). Primero, tenga en cuenta que\(M_n\) lleva los valores\(k / n\) donde\(k \in \{0, 1, \dots, n\}\).

    La función de densidad de probabilidad de\(M_n\) viene dada por\[ \P \left( M_n = \frac{k}{n} \right) = \binom{n}{k} p^k (1 - p)^{n-k}, \quad k \in \{0, 1, \ldots, n\} \]

    Prueba

    Trivialmente,\( M_n = k / n \) si y sólo si es\( Y_n = k \) por\( k \in \{0, 1, \ldots, n\} \).

    En el experimento de monedas binomiales, seleccione la proporción de cabezas. Vary\(n\) y\(p\) con las barras de desplazamiento y anote la forma de la función de densidad de probabilidad. Para valores seleccionados de los parámetros, ejecute el experimento 1000 veces y compare la función de frecuencia relativa con la función de densidad de probabilidad.

    La media y varianza de la proporción de éxitos\( M_n \) son fáciles de calcular a partir de la media y varianza del número de éxitos\( Y_n \).

    La media y varianza\( M_n \) de

    1. \(\E(M_n) = p\)
    2. \(\var(M_n) = \frac{1}{n} p (1 - p)\).
    Prueba

    A partir de las propiedades de escalado del valor esperado y varianza,

    1. \( \E(M_n) = \frac{1}{n} \E(Y_n) = \frac{1}{n} n p = p \)
    2. \( \var(M_n) = \frac{1}{n^2} \var(Y_n) = \frac{1}{n^2} n p (1 - p) = \frac{1}{n} p (1 - p) \)

    En el experimento de monedas binomiales, seleccione la proporción de cabezas. Varíe\(n\)\(p\) y anote el tamaño y ubicación de la barra de desviación\(\pm\) estándar media. Para valores seleccionados de los parámetros, ejecute el experimento 1000 veces y compare los momentos empíricos con los momentos de distribución.

    Recordemos que la asimetría y la curtosis son medidas estandarizadas. Dado que\( M_n \) y\( Y_n \) tienen la misma puntuación estándar, la asimetría y curtosis de\( M_n \) son las mismas que la asimetría y curtosis de las\( Y_n \) dadas anteriormente.

    En términos estadísticos, la parte (a) del momento resultado anterior significa que\(M_n\) es un estimador imparcial de\(p\). De la parte b) señalar que\(\var(M_n) \le \frac{1}{4 n}\) para cualquier\(p \in [0, 1]\). En particular,\(\var(M_n) \to 0\) como\(n \to \infty\) y la convergencia es uniforme en\(p \in [0, 1]\). Así, la estimación mejora a medida que\(n\) aumenta; en términos estadísticos, esto se conoce como consistencia.

    Para cada\(\epsilon \gt 0\),\(\P\left(\left|M_n - p\right| \ge \epsilon\right) \to 0\) como\(n \to \infty\) y la convergencia es uniforme en\(p \in [0, 1]\).

    Prueba

    Esto se desprende del último resultado y de la desigualdad de Chebyshev.

    El último resultado es un caso especial de la débil ley de los grandes números y significa que\(M_n \to p\) como\(n \to \infty\) en probabilidad. La fuerte ley de los grandes números establece que la convergencia realmente se mantiene con probabilidad 1.

    La proporción de éxitos\( M_n \) tiene una serie de propiedades agradables como estimador de la probabilidad de éxito\( p \). Como ya se señaló, es imparcial y consistente. Además, dado que\( Y_n \) es una estadística suficiente para\( p \), con base en la muestra\( (X_1, X_2, \ldots, X_n) \), se deduce que\( M_n \) es suficiente para\( p \) también. Ya que\( \E(X_i) = p \),\( M_n \) es trivialmente el método de los momentos estimador de\( p \). Suponiendo que el espacio de parámetros para\( p \) es\( [0, 1] \), también es el estimador de máxima verosimilitud de\( p \).

    La función de verosimilitud para\( p \in [0, 1] \), con base en la muestra observada\( (x_1, x_2, \ldots, x_n) \in \{0, 1\}^n \), es\( L_y(p) = p^y (1 - p)^{n-y} \), donde\( y = \sum_{i=1}^n x_i \). La probabilidad se maximiza en\( m = y / n \).

    Prueba

    Por definición, la función de verosimilitud es simplemente el PDF conjunto de\( (X_1, X_2, \ldots, X_n) \) pensamiento como una función del parámetro\( p \), para fijo\( (x_1, x_2, \ldots, x_n) \). Así, la forma de la función de verosimilitud se desprende del PDF conjunto dado en la Introducción. Si\( y = 0 \),\( L_y \) es decreciente y por lo tanto se maximiza en\( p = 0 = y / n \). Si\( y = n \),\( L_y \) está aumentando y se maximiza en\( p = 1 = y / n \). Si\( 0 \lt y \lt n \), la función de verosimilitud logarítmica es\[ \ln\left[L_y(p)\right] = y \ln(p) + (n - y) \ln(1 - p) \] y la derivada es\[ \frac{d}{dp} \ln\left[L_y(p)\right] = \frac{y}{p} - \frac{n - y}{1 - p} \] Hay un solo punto crítico en\( y / n \). La segunda derivada de la función de verosimilitud logarítmica es negativa, por lo que el máximo encendido\( (0, 1) \) ocurre en el punto crítico.

    Consulte Estimación en el Modelo de Bernoulli en el capítulo Estimación de conjuntos para una aproximación diferente al problema de la estimación\(p\).

    Ejemplos y Aplicaciones

    Ejercicios Sencillos

    Un estudiante realiza una prueba de opción múltiple con 20 preguntas, cada una con 5 opciones (solo una de las cuales es correcta). Supongamos que el estudiante adivina ciegamente. Dejar\(X\) denotar el número de preguntas que el alumno contesta correctamente. Encuentra cada uno de los siguientes:

    1. La función de densidad de probabilidad de\(X\).
    2. La media de\(X\).
    3. La varianza de\(X\).
    4. La probabilidad de que el alumno responda al menos 12 preguntas correctamente (la puntuación que necesita para aprobar).
    Contestar
    1. \(\P(X = x) = \binom{20}{x} \left(\frac{1}{5}\right)^x \left(\frac{4}{5}\right)^{20-x}\)para\( x \in \{0, 1, \ldots, 20\}\)
    2. \(\E(X) = 4\)
    3. \(\var(X) = \frac{16}{5}\)
    4. \(\P(X \ge 12) \approx 0.000102\). Ella no tiene esperanzas de pasar.

    Un cierto tipo de misil tiene probabilidad de falla 0.02. Dejar\(Y\) denotar el número de fallas en 50 pruebas. Encuentra cada uno de los siguientes:

    1. La función de densidad de probabilidad de\(Y\).
    2. La media de\(Y\).
    3. La varianza de\(Y\).
    4. La probabilidad de al menos 47 pruebas exitosas.
    Contestar
    1. \(\P(Y = y) = \binom{50}{k} \left(\frac{1}{50}\right)^y \left(\frac{49}{50}\right)^{50-y}\)para\(y \in \{0, 1, \ldots, 50\}\)
    2. \(\E(Y) = 1\)
    3. \(\var(Y) = \frac{49}{50}\)
    4. \(\P(Y \le 3) \approx 0.9822\)

    Supongamos que en un determinado distrito, el 40% de los electores registrados prefieren candidato\(A\). Se selecciona una muestra aleatoria de 50 votantes registrados. Dejar\(Z\) denotar el número en la muestra que prefieran\(A\). Encuentra cada uno de los siguientes:

    1. La función de densidad de probabilidad de\(Z\).
    2. La media de\(Z\).
    3. La varianza de\(Z\).
    4. La probabilidad de que\(Z\) sea menor que 19.
    5. La aproximación normal a la probabilidad en (d).
    Contestar
    1. \(\P(Z = z) = \binom{50}{z} \left(\frac{2}{5}\right)^z \left(\frac{3}{5}\right)^{50-z}\)para\( z \in \{0, 1, \ldots, 50\}\)
    2. \(\E(Z) = 20\)
    3. \(\var(Z) = 12\)
    4. \(\P(Z \lt 19) = 0.3356\)
    5. \(\P(Z \lt 19) \approx 0.3330\)

    Monedas y dados

    Recordemos que un dado estándar es un dado de seis lados. Un dado justo es aquel en el que las caras son igualmente probables. Un troquel plano ace-seis es un dado estándar en el que las caras 1 y 6 tienen probabilidad\(\frac{1}{4}\) cada una, y las caras 2, 3, 4 y 5 tienen probabilidad\(\frac{1}{8}\).

    Un dado estándar y justo se arroja 10 veces. Vamos a\(N\) denotar el número de ases. Encuentra cada uno de los siguientes:

    1. La función de densidad de probabilidad de\(N\).
    2. La media de\(N\).
    3. La varianza de\(N\).
    Contestar
    1. \(\P(N = k) = \binom{10}{k} \left(\frac{1}{6}\right)^k \left(\frac{5}{6}\right)^{10-k}\)para\( k \in \{0, 1, \ldots, 10\}\)
    2. \(\E(N) = \frac{5}{3}\)
    3. \(\var(N) = \frac{25}{18}\)

    Una moneda se arroja 100 veces y da como resultado 30 cabezas. Encuentra la función de densidad de probabilidad del número de cabezas en los primeros 20 tirados.

    Contestar

    Vamos a\(Y_n\) denotar el número de cabezas en los primeros\(n\) tirados.

    \[ \P(Y_{20} = y \mid Y_{100} = 30) = \frac{\binom{20}{y} \binom{80}{30 - y}}{\binom{100}{30}}, \quad y \in \{0, 1, \ldots, 20\} \]

    Un troquel plano ace-six se enrolla 1000 veces. Dejar\(Z\) denotar el número de veces que se produjo una puntuación de 1 o 2. Encuentra cada uno de los siguientes:

    1. La función de densidad de probabilidad de\(Z\).
    2. La media de\(Z\).
    3. La varianza de\(Z\).
    4. La probabilidad que\(Z\) es de al menos 400.
    5. La aproximación normal de la probabilidad en (d)
    Contestar
    1. \(\P(Z = z) = \binom{1000}{z} \left(\frac{3}{8}\right)^z \left(\frac{5}{8}\right)^{1000-z}\)para\( z \in \{0, 1, \ldots, 1000\}\)
    2. \(\E(Z) = 375\)
    3. \(\var(Z) = 1875 / 8\)
    4. \(\P(Z \ge 400) \approx 0.0552\)
    5. \(\P(Z \ge 400) \approx 0.0550\)

    En el experimento de monedas binomiales, seleccione la proporción de cabezas. Establecer\(n = 10\) y\(p = 0.4\). Ejecutar el experimento 100 veces. En todas las 100 corridas, computa la raíz cuadrada del promedio de los cuadrados de los errores, cuando\(M\) se usa para estimar\(p\). Este número es una medida de la calidad de la estimación.

    En el experimento de monedas binomiales, seleccione el número de cabezas\(Y\), y establezca\(p = 0.5\) y\(n = 15\). Ejecute el experimento 1000 veces y calcule lo siguiente:

    1. \(\P(5 \le Y \le 10)\)
    2. La frecuencia relativa del evento\(\{5 \le Y \le 10\}\)
    3. La aproximación normal a\(\P(5 \le Y \le 10)\)
    Contestar
    1. \(\P(5 \le Y \le 10) = 0.8815\)
    2. \(\P(5 \le Y \le 10) \approx 0.878\)

    En el experimento binomial de monedas, seleccionar la proporción de cabezas\(M\) y establecer\(n = 30\),\(p = 0.6\). Ejecute el experimento 1000 veces y calcule cada uno de los siguientes:

    1. \(\P(0.5 \le M \le 0.7)\)
    2. La frecuencia relativa del evento\(\{0.5 \le M \le 0.7\}\)
    3. La aproximación normal a\(\P(0.5 \le M \le 0.7)\)
    Contestar
    1. \(\P(0.5 \le M \le 0.7) = 0.8089\)
    2. \(\P(0.5 \le M \le 0.7) \approx 0.808\)

    Problemas Famosos

    En 1693, Samuel Pepys le preguntó a Isaac Newton si es más probable que obtenga al menos un 6 en 6 rollos de una matriz, o al menos dos 6's en 12 rollos, o al menos tres 6 en 18 rollos. Este problema es conocido como un problema de Pepys; naturalmente, Pepys tenía en mente los dados justos.

    Resolver el problema de Pepys usando la distribución binomial.

    Contestar

    Vamos a\(Y_n\) denotar el número de 6's en\(n\) rollos de un dado justo, así que\( Y_n \) tiene la distribución binomial con parámetros\( n \) y\( p = \frac{1}{6} \). Usando el PDF binomial (y complementos para simplificar los cómputos),

    1. \(\P(Y_6 \ge 1) = 1 - \P(Y_6 = 0) = 0.6651\)
    2. \(\P(Y_{12} \ge 2) = 1 - \P(Y_{12} \le 1) = 0.6187\)
    3. \( \P(Y_{18} \ge 3) = 1 - \P(Y_{18} \le 2) = 0.5973 \)

    Entonces el primer evento, al menos un 6 de cada 6 rollos, es el más probable, y de hecho los tres eventos, en el orden dado, disminuyen en probabilidad.

    Con dados justos, ejecute la simulación del experimento de dados 500 veces y calcule la frecuencia relativa del evento de interés. Comparar los resultados con las probabilidades teóricas anteriores.

    1. Al menos uno 6 con\( n = 6 \).
    2. Al menos dos 6's con\(n = 12\).
    3. Al menos tres 6's con\( n = 18 \).

    Parece que Pepys tenía en mente algún tipo de linealidad equivocada, dadas las comparaciones que quería. Resolvamos el problema general.

    Para\( k \in \N_+ \), vamos a\( Y_k \) denotar el número de 6's en\(6 k\) rollos de un dado justo.

    1. Identificar la distribución de\( Y_k \).
    2. Encuentra la media y varianza de\( Y_k \).
    3. Dar una fórmula exacta para\( \P(Y_k \ge k) \), la probabilidad de al menos\( k \) 6's en\( 6 k \) rollos de un dado justo.
    4. Dar la aproximación normal de la probabilidad en (c).
    5. Encuentra el límite de la probabilidad en (d) as\( k \to \infty \).
    Prueba
    1. \( Y_k \)tiene la distribución binomial con parámetros\( n = 6 k \) y\( p = \frac{1}{6} \).
    2. \( \E(Y_k) = (6 k) \frac{1}{6} = k \),\( \var(Y_k) = (6 k) \frac{1}{6} \frac{5}{6} = \frac{5}{6} k\)
    3. \( \P(Y_k \ge k) = 1 - \P(Y \le k - 1) = 1 - \sum_{j=0}^{k-1} \binom{6 k}{j} \left(\frac{1}{6}\right)^j \left(\frac{5}{6}\right)^{6 k - j} \)
    4. Utilizando la corrección de continuidad,\[ \P(Y_k \ge k) = \P\left(Y_k \ge k - \frac{1}{2}\right) = \P\left(\frac{Y_k - k}{\sqrt{(5/6)k}} \ge \frac{-1/2}{\sqrt{(5/6)k}}\right) = 1 - \Phi\left(\frac{-1/2}{\sqrt{(5/6)k}}\right) \]
    5. \( 1 - \Phi\left(\frac{-1/2}{\sqrt{(5/6)k}}\right) \to 1 - \Phi(0) = \frac{1}{2} \)como\( k \to \infty \)

    Entonces, en promedio, el número de 6's en\( 6 k \) rollos de un dado justo es\( k \), y ese hecho pudo haber influido en el pensamiento de Pepys. El siguiente problema se conoce como el problema de DeMere, llamado así por Chevalier De Mere

    Cuál es más probable: ¿al menos un 6 con 4 tiros de un dado justo o al menos un doble 6 en 24 lanzamientos de dos dados justos? .

    Contestar

    Vamos a\(Y_n\) denotar el número de 6's en\(n\) rollos de un dado justo, y vamos a\(Z_n\) denotar el número de dobles 6's en\(n\) rollos de un par de dados justos. Entonces\( Y_n \) como la distribución binomial con parámetros\( n \) y\( p = \frac{1}{6} \), y\( Z_n \) tiene la distribución binomial con parámetros\( n \) y\( p = \frac{1}{36} \). Usando el PDF binomial,

    1. \(\P(Y_4 \ge 1) = 0.5177\)
    2. \(\P(Z_{24} \ge 1) = 0.4914\)

    Ejercicios de Análisis de Datos

    En los datos de cigarra, calcule la proporción de machos en toda la muestra, y la proporción de machos de cada especie en la muestra.

    Contestar
    1. \(m = 0.433\)
    2. \(m_0 = 0.636\)
    3. \(m_1 = 0.259\)
    4. \(m_2 = 0.5\)

    En los datos de M&M, reúne las bolsas para crear una gran muestra de M&Ms. Ahora calcula la proporción de muestra de M&Ms rojas.

    Contestar

    \(m_{\text{red}} = 0.168\)

    La Junta de Galton

    El tablero Galton es una matriz triangular de clavijas. Las filas están numeradas por los números naturales\(\N = \{0, 1, \ldots\}\) de arriba hacia abajo. \(n\)La fila tiene\(n + 1\) clavijas numeradas de izquierda a derecha por los números enteros\(\{0, 1, \ldots, n\}\). Por lo tanto, una clavija se puede identificar de manera única por el par ordenado\((n, k)\) donde\(n\) está el número de fila y\(k\) es el número de clavija en esa fila. La junta de Galton lleva el nombre de Francis Galton.

    Ahora supongamos que se deja caer una bola desde arriba de la clavija superior\((0, 0)\). Cada vez que la pelota golpea una clavija, rebota a la derecha con probabilidad\(p\) y a la izquierda con probabilidad\(1 - p\), independientemente de rebote a rebote.

    El número de la clavija que golpea la bola en fila\(n\) tiene la distribución binomial con parámetros\(n\) y\(p\).

    En el experimento del tablero de Galton, seleccione la variable aleatoria\(Y\) (el número de movimientos a la derecha). Varíe los parámetros\(n\)\(p\) y anote la forma y ubicación de la función de densidad de probabilidad y la barra de desviación\(\pm\) estándar media. Para valores seleccionados de los parámetros, haga clic en un solo paso varias veces y observe cómo la bola cae a través de las clavijas. Después ejecuta el experimento 1000 veces y observa el camino de la pelota. Comparar la función de frecuencia relativa y los momentos empíricos con la función de densidad de probabilidad y los momentos de distribución, respectivamente.

    Confiabilidad estructural

    Recordemos la discusión sobre confiabilidad estructural dada en la última sección sobre los ensayos de Bernoulli. En particular, contamos con un sistema de componentes\(n\) similares que funcionan de manera independiente, cada uno con confiabilidad\(p\). Supongamos ahora que el sistema en su conjunto funciona correctamente si y sólo si al menos\(k\) de los\(n\) componentes son buenos. Tal sistema se llama, apropiadamente, un sistema \(k\)fuera de\(n\) sistema. Obsérvese que los sistemas en serie y paralelos considerados en la sección anterior están\(n\) fuera\(n\) y 1 fuera de\(n\) los sistemas, respectivamente.

    Considera el\(k\) fuera del\(n\) sistema.

    1. El estado del sistema es\(\bs{1}(Y_n \ge k)\) donde\(Y_n\) está el número de componentes de trabajo.
    2. La función de confiabilidad es\(r_{n,k}(p) = \sum_{i=k}^n \binom{n}{i} p^i (1 - p)^{n-i}\).

    En el experimento binomial de monedas, establecer\(n = 10\)\(p = 0.9\) y ejecutar la simulación 1000 veces. Calcular la confiabilidad empírica y compararla con la verdadera confiabilidad en cada uno de los siguientes casos:

    1. Sistema 10 de 10 (serie).
    2. Sistema 1 de 10 (paralelo).
    3. Sistema 4 de 10.

    Considera un sistema con\(n = 4\) componentes. Esboce las gráficas de\(r_{4,1}\)\(r_{4,2}\)\(r_{4,3}\),, y\(r_{4,4}\) en el mismo conjunto de ejes.

    Un sistema\(n\) fuera de\(2 n - 1\) sistema es un sistema de reglas mayoritarias.

    1. Calcular la confiabilidad de un sistema 2 de 3.
    2. Calcular la confiabilidad de un sistema de 3 de 5
    3. ¿Para qué valores de un sistema 3 de 5\(p\) es más confiable que un sistema 2 de 3?
    4. Esboce las gráficas de\(r_{3,2}\) y\(r_{5,3}\) sobre el mismo conjunto de ejes.
    5. \(r_{2 n - 1, n} \left( \frac{1}{2} \right) = \frac{1}{2}\)Demuéstralo.
    Contestar
    1. \(r_{3,2}(p) = 3 p^2 - 2 p^3\)
    2. \(r_{5,3}(p) = 10 p^3 - 15 p^4 + 6 \, p^5\)
    3. 3 de 5 es mejor para\(p \ge \frac{1}{2}\)

    En el experimento de monedas binomiales, computar la confiabilidad empírica, con base en 100 corridas, en cada uno de los siguientes casos. Compara tus resultados con las verdaderas probabilidades.

    1. Un sistema 2 de 3 con\(p = 0.3\)
    2. Un sistema de 3 de 5 con\(p = 0.3\)
    3. Un sistema de 2 de 3 con\(p = 0.8\)
    4. Un sistema de 3 de 5 con\(p = 0.8\)

    Comunicaciones confiables

    Considera la transmisión de bits (0s y 1s) a través de un canal ruidoso. Específicamente, supongamos que cuando\(i \in \{0, 1\}\) se transmite el bit, el bit\(i\) se recibe con probabilidad\(p_i \in (0, 1)\) y el bit complementario\(1 - i\) se recibe con probabilidad\(1 - p_i\). Dados los bits transmitidos, los bits se reciben correcta o incorrectamente independientemente unos de otros. Supongamos ahora, que para aumentar la confiabilidad, un bit dado\(I\) se repite\(n \in \N_+\) veces en la transmisión. A priori, creemos que\(\P(I = 1) = \alpha \in (0, 1)\) y\(\P(I = 0) = 1 - \alpha\). Let\(X\) denotar el número de 1s recibidos cuando bit\(I\) se transmite\(n\) veces.

    Encuentra cada uno de los siguientes:

    1. La distribución condicional\(X\) de\(I = i \in \{0, 1\}\)
    2. la función de densidad de probabilidad\(X\)
    3. \(\E(X)\)
    4. \(\var(X)\)
    Contestar
    1. Give\(I = 1\),\(X\) tiene la distribución binomial con parámetros\(n\) y\(p_1\). Dado\(I = 0\),\(X\) tiene la distribución binomial con parámetros\(n\) y\(1 - p_0\).
    2. \(\P(X = k) = \binom{n}{k} \left[\alpha p_1^k (1 - p_1)^{n-k} + (1 - \alpha) (1 - p_0)^k p_0^{n-k}\right]\)para\(k \in \{0, 1, \ldots, n\}\).
    3. \(\E(X) = n \left[\alpha p_1 + (1 - \alpha) (1 - p_0)\right]\)
    4. \(\var(X) = \alpha \left[n p_1 (1 - p_1) + n^2 p_1^2\right] + (1 - \alpha)\left[n p_0 (1 - p_0) + n^2 (1 - p_0)^2\right] - n^2 \left[\alpha p_1 + (1 - \alpha)(1 - p_0)\right]^2\)

    Simplificar los resultados en el último ejercicio en el caso simétrico donde\(p_1 = p_0 =: p\) (para que los bits sean igualmente confiables) y con\(\alpha = \frac{1}{2}\) (para que no tengamos información previa).

    Contestar
    1. Give\(I = 1\),\(X\) tiene la distribución binomial con parámetros\(n\) y\(p\). Dado\(I = 0\),\(X\) tiene la distribución binomial con parámetros\(n\) y\(1 - p\).
    2. \(\P(X = k) = \frac{1}{2}\binom{n}{k} \left[p^k (1 - p)^{n-k} + (1 - p)^k p^{n-k}\right]\)para\(k \in \{0, 1, \ldots, n\}\).
    3. \(\E(X) = \frac{1}{2}n\)
    4. \(\var(X) = n p (1 - p) + \frac{1}{2} n^2 \left[p^2 + (1 - p)^2\right] - \frac{1}{4} n^2\)

    Nuestro interés, por supuesto, es predecir el bit transmitido dados los bits recibidos.

    Encuentra la probabilidad posterior que\(I = 1\) da\(X = k \in \{0, 1, \ldots, n\}\).

    Contestar\[\P(I = 1 \mid X = k) = \frac{\alpha p_1^k (1 - p_1)^{n-k}}{\alpha p_1^k (1 - p_1)^{n-k} + (1 - \alpha) (1 - p_0)^k p_0^{n-k}}\]

    Presumiblemente, nuestra regla de decisión sería concluir que 1 se transmitió si la probabilidad posterior en el ejercicio anterior es mayor que\(\frac{1}{2}\) y concluir que 0 se transmitió si la esta probabilidad es menor que\(\frac{1}{2}\). Si la probabilidad es igual\(\frac{1}{2}\), no tenemos base para preferir un bit sobre el otro.

    Dar la regla de decisión en el caso simétrico donde\(p_1 = p_0 =: p\), para que los bits sean igualmente confiables. Supongamos eso\(p \gt \frac{1}{2}\), para que al menos tengamos una posibilidad mejor que uniforme de recibir el bit transmitido.

    Contestar

    Give\(X = k\), concluimos que el bit 1 se transmitió si\[k \gt \frac{n}{2} - \frac{1}{2} \frac{\ln(\alpha) - \ln(1 - \alpha)}{\ln(p) - \ln(1 - p)}\] y concluimos que el bit 0 se transmitió si se mantiene la desigualdad inversa.

    No en vano, en el caso simétrico sin información previa, de manera que\(\alpha = \frac{1}{2}\), concluimos que ese bit\(i\) se transmitió si la mayoría de los bits recibidos son\(i\).

    Polinomios de Bernstein

    El teorema de aproximación de Weierstrass, llamado así por Karl Weierstrass, establece que cualquier función de valor real que sea continua en un intervalo cerrado y delimitado puede aproximarse uniformemente en ese intervalo, con cualquier grado de precisión, con un polinomio. El teorema es importante, ya que los polinomios son funciones simples y básicas, y un poco sorprendentes, ya que las funciones continuas pueden ser bastante extrañas.

    En 1911, Sergi Bernstein dio una construcción explícita de polinomios que se aproximan uniformemente a una función continua dada, utilizando ensayos de Bernoulli. El resultado de Bernstein es un hermoso ejemplo del método probabilístico, el uso de la teoría de la probabilidad para obtener resultados en otras áreas de las matemáticas que aparentemente no están relacionadas con la probabilidad.

    Supongamos que\(f\) es una función de valor real que es continua en el intervalo\([0, 1]\). El polinomio de grado\(n\) de Bernstein\(f\) se define por\[ b_n(p) = \E_p\left[f(M_n)\right], \quad p \in [0, 1] \] dónde\(M_n\) está la proporción de éxitos en los primeros ensayos de\(n\) Bernoulli con parámetro de éxito\(p\), como se definió anteriormente. Tenga en cuenta que estamos enfatizando la dependencia\(p\) en el operador de valor esperado. El siguiente ejercicio da una representación más explícita, y muestra que el polinomio de Bernstein es, de hecho, un polinomio

    El polinomio Bernstein de grado se\(n\) puede escribir de la siguiente manera:\[ b_n(p) = \sum_{k=0}^n f \left(\frac{k}{n} \right) \binom{n}{k} p^k (1 - p)^{n-k}, \quad p \in [0, 1] \]

    Prueba

    Esto se desprende del cambio de teorema de variables por valor esperado.

    Los polinomios de Bernstein satisfacen las siguientes propiedades:

    1. \(b_n(0) = f(0)\)y\(b_n(1) = f(1)\)
    2. \(b_1(p) = f(0) + \left[f(1) - f(0)\right] p\)para\(p \in [0, 1]\).
    3. \(b_2(p) = f(0) + 2 \, \left[ f \left( \frac{1}{2} \right) - f(0) \right] p + \left[ f(1) - 2 f \left( \frac{1}{2} \right) + f(0) \right] p^2\)para\(p \in [0, 1]\)

    De la parte (a), la gráfica de\(b_n\) pases por los puntos finales\(\left(0, f(0)\right)\) y\(\left(1, f(1)\right)\). De la parte (b), la gráfica de\(b_1\) es una línea que conecta los puntos finales. De (c), la gráfica de\(b_2\) es parábola pasando por los puntos finales y el punto\(\left( \frac{1}{2}, \frac{1}{4} \, f(0) + \frac{1}{2} \, f\left(\frac{1}{2}\right) + \frac{1}{4} \, f(1) \right)\).

    El siguiente resultado da explícitamente el teorema de Bernstein.

    \(b_n \to f\)como\(n \to \infty\) uniformemente en\([0, 1]\).

    Prueba

    Dado que\(f\) es continuo en el intervalo cerrado\([0, 1]\), acotado, se limita en este intervalo. Así, existe una constante\(C\) tal que\(\left|f(p)\right| \le C\) para todos\(p \in [0, 1]\). Además,\(f\) es uniformemente continuo en\([0, 1]\). Así, para cualquiera\(\epsilon \gt 0\) existe\(\delta \gt 0\) tal que si\(p, \, q \in [0, 1]\) y\(\left|p - q\right| \lt \delta\) entonces\(\left|f(p) - f(q)\right| \lt \epsilon\). A partir de propiedades básicas de valor esperado,\[ \left|b_n(p) - f(p)\right| \le \E_p\left[\left|f(M_n) - f(p)\right|, \left|M_n - p\right| \lt \delta\right] + \E_p\left[\left|f(M_n) - f(p)\right|, \left|M_n - p\right| \ge \delta\right] \] De ahí\(\left|b_n(p) - f(p)\right| \le \epsilon + 2 C \P_p\left(\left|M_n - p\right| \ge \delta\right)\) para cualquier\(p \in [0, 1]\). Pero por ley débil de grandes números arriba,\(\P_p\left(\left|M_n - p\right| \ge \delta\right) \to 0\) como\(n \to \infty\) uniformemente en\(p \in [0, 1]\).

    Calcular los polinomios de Bernstein de los órdenes 1, 2 y 3 para la función\(f\) definida por\(f(x) = \cos(\pi x)\) for\( x \in [0, 1]\). Graph\(f\) y los tres polinomios en el mismo conjunto de ejes.

    Contestar
    1. \(b_1(p) = 1 - 2 p\)
    2. \(b_2(p) = 1 - 2 p\)
    3. \(b_3(p) = 1 - \frac{3}{2} p - \frac{3}{2} p^2 + p^3\)

    Utilice un sistema de álgebra computacional para calcular los polinomios de Bernstein de los órdenes 10, 20 y 30 para la función\(f\) definida a continuación. Utilice el CAS para graficar la función y los tres polinomios en los mismos ejes. \[ f(x) = \begin{cases} 0, & x = 0 \\ x \sin\left(\frac{\pi}{x}\right), & x \in (0, 1] \end{cases} \]


    This page titled 11.2: La distribución binomial is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.