Saltar al contenido principal
LibreTexts Español

9.2: Teorema del límite central para ensayos independientes discretos

  • Page ID
    150260
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Hemos ilustrado el Teorema del Límite Central en el caso de los ensayos de Bernoulli, pero este teorema se aplica a una clase mucho más general de procesos de azar. En particular, se aplica a cualquier proceso de ensayo independiente tal que los ensayos individuales tengan varianza finita. Para tal proceso, son válidas tanto la aproximación normal para términos individuales como el Teorema del Límite Central.

    \(S_n = X_1 + X_2 +\cdots+ X_n\)Sea la suma de variables aleatorias discretas\(n\) independientes de un proceso de ensayos independientes con función de distribución común\(m(x)\) definida en los enteros, con media\(\mu\) y varianza\(\sigma^2\). Podemos evitar esto tal como lo hicimos para los juicios de Bernoulli.

    Sumas estandarizadas

    Considerar la variable aleatoria estandarizada\[S_n^* = \frac {S_n - n\mu}{\sqrt{n\sigma^2}}\ .\]

    Esto estandariza\(S_n\) para tener valor esperado 0 y varianza 1. Si\(S_n = j\), entonces\(S_n^*\) tiene el valor\(x_j\) con\[x_j = \frac {j - n\mu}{\sqrt{n\sigma^2}}\ .\] Podemos construir una gráfica de picos tal como lo hicimos para los ensayos de Bernoulli. Cada espiga está centrada en alguna\(x_j\). La distancia entre picos sucesivos es\[b = \frac 1{\sqrt{n\sigma^2}}\ ,\] y la altura de la espiga es\[h = \sqrt{n\sigma^2} P(S_n = j)\ .\]

    El caso de los juicios de Bernoulli es el caso especial para el cual\(X_j = 1\) si el resultado\(j\) th es un éxito y 0 de otra manera; entonces\(\mu = p\) y\(\sigma^2 = \sqrt {pq}\).

    Ahora ilustramos este proceso para dos distribuciones discretas diferentes. El primero es la distribución\(m\), dada por\[m = \pmatrix{ 1 & 2 & 3 & 4 & 5 \cr .2 & .2 & .2 & .2 & .2\cr}\ .\]

    En la Figura [fig 9.5] mostramos las sumas estandarizadas para esta distribución para los casos\(n = 2\) y\(n = 10\). Incluso para\(n = 2\) la aproximación es sorprendentemente buena.

    Para nuestra segunda distribución discreta, elegimos\[m = \pmatrix{ 1 & 2 & 3 & 4 & 5 \cr .4 & .3 & .1 & .1 & .1\cr}\ .\]

    Esta distribución es bastante asimétrica y la aproximación no es muy buena para\(n = 3\), pero por nuevamente\(n = 10\) tenemos una excelente aproximación (ver Figura [fig 9.5.5]). Las figuras [fig 9.5] y [fig 9.5.5] fueron producidas por el programa CLTindTrialsPlot.

    Teorema de Aproximación

    Al igual que en el caso de los ensayos de Bernoulli, estas gráficas sugieren el siguiente teorema de aproximación para las probabilidades individuales.

    [thm 9.3.5] Dejemos\(X_1\),\(X_2\),...,\(X_n\) ser un proceso de ensayos independientes y dejar\(S_n = X_1 + X_2 +\cdots+ X_n\). Supongamos que el mayor divisor común de las diferencias de todos los valores que\(X_j\) puede asumir es 1. Dejar\(E(X_j) = \mu\) y\(V(X_j) = \sigma^2\). Entonces para\(n\) grandes,\[P(S_n = j) \sim \frac {\phi(x_j)}{\sqrt{n\sigma^2}}\ ,\] donde\(x_j = (j - n\mu)/\sqrt{n\sigma^2}\), y\(\phi(x)\) es la densidad normal estándar.

    El programa CLTindTrialsLocal implementa esta aproximación. Cuando ejecutamos este programa para 6 rollos de un dado, y pedimos la probabilidad de que la suma de los rollos sea igual a 21, obtenemos un valor real de .09285, y un valor de aproximación normal de .09537. Si ejecutamos este programa para 24 rollos de un dado, y pedimos la probabilidad de que la suma de los rollos sea 72, obtenemos un valor real de .01724 y un valor de aproximación normal de .01705. Estos resultados muestran que las aproximaciones normales son bastante buenas.

    Teorema del límite central para un proceso de ensayos independientes discretos

    El Teorema de Límite Central para un proceso de ensayos independientes discretos es el siguiente.

    (Teorema de Límite Central) [thm 9.3.6] Let\(S_n = X_1 + X_2 +\cdots+ X_n\) Ser la suma de variables aleatorias independientes\(n\) discretas con distribución común teniendo valor esperado\(\mu\) y varianza\(\sigma^2\). Entonces, para\(a < b\),\[\lim_{n \to \infty} P\left( a < \frac {S_n - n\mu}{\sqrt{n\sigma^2}} < b\right) = \frac 1{\sqrt{2\pi}} \int_a^b e^{-x^2/2}\, dx\ .\]

    Aquí consideramos varios ejemplos.

    Ejemplos

    Un dado se enrolla 420 veces. ¿Cuál es la probabilidad de que la suma de los rollos se encuentre entre 1400 y 1550?

    La suma es una variable aleatoria\[S_{420} = X_1 + X_2 +\cdots+ X_{420}\ ,\] donde cada uno\(X_j\) tiene distribución\[m_X = \pmatrix{ 1 & 2 & 3 & 4 & 5 & 6 \cr 1/6 & 1/6 & 1/6 & 1/6 & 1/6 & 1/6 \cr}\] Hemos visto que\(\mu = E(X) = 7/2\) y\(\sigma^2 = V(X) = 35/12\). Así,\(E(S_{420}) = 420 \cdot 7/2 = 1470\),\(\sigma^2(S_{420}) = 420 \cdot 35/12 = 1225\), y\(\sigma(S_{420}) = 35\). Por lo tanto,\[\begin{aligned} P(1400 \leq S_{420} \leq 1550) &\approx& P\left(\frac {1399.5 - 1470}{35} \leq S_{420}^* \leq \frac {1550.5 - 1470}{35} \right) \\ &=& P(-2.01 \leq S_{420}^* \leq 2.30) \\ &\approx& \mbox{NA}(-2.01, 2.30) = .9670\ . \end{aligned}\] observamos que el programa CLTindTrialsGlobal podría ser utilizado para calcular estas probabilidades.

    Ejemplo\(\PageIndex{6}\):

    El promedio de calificaciones de un estudiante es el promedio de sus calificaciones en 30 cursos. Las calificaciones se basan en 100 puntos posibles y se registran como enteros. Supongamos que, en cada curso, el instructor comete un error en la calificación de\(k\) con probabilidad\(|p/k|\), donde\(k = \pm1\)\(\pm2\),,\(\pm3\),\(\pm4\),\(\pm5\). La probabilidad de que no haya error es entonces\(1 - (137/30)p\). (El parámetro\(p\) representa la inexactitud de la calificación del instructor.) Así, en cada curso, hay dos calificaciones para el alumno, a saber, la calificación “correcta” y la nota registrada. Por lo que hay dos calificaciones promedio para el alumno, a saber, el promedio de las calificaciones correctas y el promedio de las calificaciones registradas.

    Deseamos estimar la probabilidad de que estas dos calificaciones promedio difieran en menos de .05 para un estudiante determinado. Ahora asumimos eso\(p = 1/20\). También asumimos que el error total es la suma\(S_{30}\) de 30 variables aleatorias independientes cada una con distribución\[m_X: \left\{ \begin{array}{ccccccccccc} -5 & -4 & -3 & -2 & -1 & 0 & 1 & 2 & 3 & 4 & 5 \\ \frac1{100} & \frac1{80} & \frac1{60} & \frac1{40} & \frac1{20} & \frac{463}{600} & \frac1{20} & \frac1{40} & \frac1{60} & \frac1{80} & \frac1{100} \end{array} \right \}\ .\] Uno puede calcular fácilmente eso\(E(X) = 0\) y\(\sigma^2(X) = 1.5\). Entonces tenemos

    \[\begin{array}{ll} P\left(-.05 \leq \frac {S_{30}}{30} \leq .05 \right) &= P(-1.5 \leq S_{30} \leq1.5) \\ & \\ &= P\left( \frac{-1.5}{\sqrt{30\cdot1.5}} \leq S_{30}^* \leq \frac{1.5}{\sqrt{30\cdot1.5}} \right) \\ & \\ &= P(-.224 \leq S_{30}^* \leq .224) \\ & \\ & \approx \mbox{NA}(-.224, .224) = .1772\ . \end{array}\]

    Esto significa que solo hay un 17.7% de probabilidad de que el promedio de calificaciones de un estudiante determinado sea preciso dentro de .05. (Así, por ejemplo, si dos candidatos a valedictorian han registrado promedios de 97.1 y 97.2, existe una probabilidad apreciable de que sus promedios correctos estén en el orden inverso). Para una mayor discusión de este ejemplo, véase el artículo de R. M. Kozelka. 5

    Un teorema de límite central más general

    En Teorema\(\PageIndex{1}\), se asumió que las variables aleatorias discretas que se estaban sumando eran independientes e idénticas distribuidas. Resulta que la suposición de distribuciones idénticas puede debilitarse sustancialmente. Se ha trabajado mucho en esta materia, con una importante contribución que ha hecho J. W. Lindeberg. Lindeberg encontró una condición en la secuencia\(\{X_n\}\) que garantiza que la distribución de la suma\(S_n\) se distribuye asintóticamente normalmente. Feller demostró que la condición de Lindeberg también es necesaria, en el sentido de que si la condición no se sostiene, entonces la suma no\(S_n\) se distribuye asintóticamente normalmente. Para una declaración precisa del Teorema de Lindeberg, remitimos al lector a Feller. 6 Una condición suficiente que es más fuerte (pero más fácil de afirmar) que la condición de Lindeberg, y es más débil que la condición en el Teorema\(\PageIndex{1}\), se da en el siguiente teorema.

    Teorema\(\PageIndex{2}\)

    (Teorema de Límite Central) Let\(X_1,\ X_2,\ \ldots,\ X_n\ ,\ \ldots\) Ser una secuencia de variables aleatorias discretas independientes, y let\(S_n = X_1 + X_2 +\cdots+ X_n\). Para cada uno\(n\), denotan la media y varianza de\(X_n\) por\(\mu_n\) y\(\sigma^2_n\), respectivamente. Definir la media y varianza\(S_n\) de ser\(m_n\) y\(s_n^2\), respectivamente, y asumir que\(s_n \rightarrow \infty\). Si existe una constante\(A\), tal que\(|X_n| \le A\) para todos\(n\), entonces para\(a < b\),\[\lim_{n \to \infty} P\left( a < \frac {S_n - m_n}{s_n} < b\right) = \frac 1{\sqrt{2\pi}} \int_a^b e^{-x^2/2}\, dx\ .\]

    La condición que\(|X_n| \le A\) para todos a veces\(n\) se describe diciendo que la secuencia\(\{X_n\}\) está uniformemente delimitada. La condición que\(s_n \rightarrow \infty\) sea necesaria (ver Ejercicio [exer 9.2.114]).

    Ilustramos este teorema generando una secuencia de distribuciones\(n\) aleatorias en el intervalo\([a, b]\). Luego, circunvolucionamos estas distribuciones para encontrar la distribución de la suma de experimentos\(n\) independientes gobernados por estas distribuciones. Finalmente, estandarizamos la distribución para que la suma tenga media 0 y desviación estándar 1 y la comparamos con la densidad normal. El programa CLTGeneral realiza este trámite.

    En la Figura [fig 9.6] mostramos el resultado de ejecutar este programa para\([a, b] = [-2, 4]\), y\(n = 1,\ 4,\) y 10. Vemos que nuestra primera distribución aleatoria es bastante asimétrica. Para cuando elegimos la suma de diez experimentos de este tipo tenemos un muy buen ajuste a la curva normal.

    El teorema anterior esencialmente dice que cualquier cosa que pueda pensarse como compuesta como la suma de muchas pequeñas piezas independientes se distribuye aproximadamente normalmente. Esto nos lleva a una de las preguntas más importantes que se hicieron sobre la genética en los años 1800.

    La distribución normal y la genética

    Cuando uno mira la distribución de alturas de adultos de un sexo en una población determinada, no se puede evitar notar que esta distribución se parece a la distribución normal. Un ejemplo de esto se muestra en la Figura [fig 9.61]. Esta figura muestra la distribución de alturas de 9593 mujeres entre las edades de 21 y 74 años. Estos datos provienen de la Encuesta de Examen de Salud y Nutrición I (HANES I). Para esta encuesta, se eligió una muestra de la población civil estadounidense. La encuesta se realizó entre 1971 y 1974.

    Una pregunta natural que hacer es “¿Cómo sucede esto?”. Francis Galton, científico inglés del siglo XIX, estudió esta cuestión, y otras cuestiones relacionadas, y construyó modelos de probabilidad que fueron de gran importancia para explicar los efectos genéticos sobre atributos como la altura. De hecho, una de las ideas más importantes en estadística, la idea de regresión a la media, fue inventada por Galton en sus intentos de entender estos efectos genéticos.

    Galton se enfrentó a una aparente contradicción. Por un lado, sabía que la distribución normal surge en situaciones en las que se están sumando muchos pequeños efectos independientes. Por otro lado, también sabía que muchos atributos cuantitativos, como la altura, están fuertemente influenciados por factores genéticos: los padres altos tienden a tener descendencia alta. Así, en este caso, parece haber dos grandes efectos, a saber, los padres. Galton era ciertamente consciente de que los factores no genéticos jugaron un papel en la determinación de la altura de un individuo. Sin embargo, a menos que estos factores no genéticos abrumen a los genéticos, refutando así la hipótesis de que la herencia es importante para determinar la altura, no parecía posible que conjuntos de padres de alturas dadas tuvieran descendencia cuyas alturas estuvieran normalmente distribuidas.

    Uno puede expresar simbólicamente el problema anterior de la siguiente manera. Supongamos que elegimos dos números reales positivos específicos\(x\) y\(y\), para luego encontrar todos los pares de padres uno de los cuales es\(x\) unidades de altura y el otro de los cuales es\(y\) unidades de altura. Luego miramos a todos los descendientes de estos pares de padres. Se puede postular la existencia de una función\(f(x, y)\) que denota el efecto genético de las alturas de los padres sobre las alturas de la descendencia. Entonces se puede dejar\(W\) denotar los efectos de los factores no genéticos en las alturas de la descendencia. Entonces, para un conjunto dado de alturas\(\{x, y\}\), la variable aleatoria que representa las alturas de la descendencia viene dada por\[H = f(x, y) + W\ ,\] donde\(f\) es una función determinista, es decir, da una salida para un par de entradas\(\{x, y\}\). Si asumimos que el efecto de\(f\) es grande en comparación con el efecto de\(W\), entonces la varianza de\(W\) es pequeña. Pero como f es determinista, la varianza de\(H\) es igual a la varianza de\(W\), por lo que la varianza de\(H\) es pequeña. Sin embargo, Galton observó a partir de sus datos que la varianza de las alturas de la descendencia de un par dado de alturas parentales no es pequeña. Esto parecería implicar que la herencia juega un pequeño papel en la determinación de la altura de un individuo. Más adelante en esta sección, describiremos la forma en que Galton sorteó este problema.

    Consideraremos ahora la explicación moderna de por qué ciertos rasgos, como las alturas, se distribuyen aproximadamente normalmente. Para ello, necesitamos introducir alguna terminología desde el campo de la genética. Las células de un organismo vivo que no están directamente involucradas en la transmisión de material genético a la descendencia se denominan células somáticas, y las células restantes se denominan células germinales. Los organismos de una especie determinada tienen su información genética codificada en conjuntos de entidades físicas, llamadas cromosomas. Los cromosomas están emparejados en cada célula somática. Por ejemplo, los seres humanos tienen 23 pares de cromosomas en cada célula somática. Las células sexuales contienen un cromosoma de cada par. En la reproducción sexual, dos células sexuales, una de cada progenitor, aportan sus cromosomas para crear el conjunto de cromosomas para la descendencia.

    Los cromosomas contienen muchas subunidades, llamadas genes. Los genes consisten en moléculas de ADN, y un gen tiene, codificado en su ADN, información que conduce a la regulación de las proteínas. En el presente contexto, consideraremos aquellos genes que contienen información que tiene un efecto sobre algún rasgo físico, como la altura, del organismo. El emparejamiento de los cromosomas da lugar a un emparejamiento de los genes en los cromosomas.

    En una especie dada, cada gen puede ser cualquiera de varias formas. Estas diversas formas se llaman alelos. Uno debería pensar en los diferentes alelos como potencialmente productores de diferentes efectos sobre el rasgo físico en cuestión. De los dos alelos que se encuentran en un par de genes dado en un organismo, uno de los alelos provino de un progenitor y el otro alelo vino del otro progenitor. Los posibles tipos de pares de alelos (sin tener en cuenta el orden) se denominan genotipos.

    Si asumimos que la altura de un ser humano está controlada en gran medida por un gen específico, entonces nos enfrentamos a la misma dificultad que tenía Galton. Estamos asumiendo que cada padre tiene un par de alelos que controlan en gran medida sus alturas. Dado que cada progenitor aporta un alelo de este par de genes a cada una de sus crías, hay cuatro pares de alelos posibles para la descendencia en esta ubicación génica. El supuesto es que estos pares de alelos controlan en gran medida la altura de la descendencia, y también estamos asumiendo que los factores genéticos superan a los factores no genéticos. De ello se deduce que entre las crías deberíamos ver varios modos en la distribución de altura de la descendencia, un modo correspondiente a cada posible par de alelos. Esta distribución no corresponde a la distribución observada de alturas.

    Una hipótesis alternativa, que explica la observación de alturas normalmente distribuidas en crías de un sexo dado, es la hipótesis de múltiples genes. Bajo esta hipótesis, asumimos que hay muchos genes que afectan la altura de un individuo. Estos genes pueden diferir en la cantidad de sus efectos. Así, podemos representar cada par de genes por una variable aleatoria\(X_i\), donde el valor de la variable aleatoria es el efecto del par de alelos sobre la altura del individuo. Así, por ejemplo, si cada progenitor tiene dos alelos diferentes en el par de genes bajo consideración, entonces la descendencia tiene uno de cuatro pares posibles de alelos en esta ubicación génica. Ahora la altura de la descendencia es una variable aleatoria, la cual puede expresarse como\[H = X_1 + X_2 + \cdots + X_n + W\ ,\] si hubiera\(n\) genes que afecten la altura. (Aquí, como antes, la variable aleatoria\(W\) denota efectos no genéticos). Si bien\(n\) es fijo, si es bastante grande, entonces el Teorema\(\PageIndex{2}\) implica que la suma\(X_1 + X_2 + \cdots + X_n\) se distribuye aproximadamente normalmente. Ahora bien, si asumimos que los\(X_i\)'s tienen un efecto acumulativo significativamente mayor que\(W\) lo hace, entonces\(H\) se distribuye aproximadamente normalmente.

    Otra característica observada de la distribución de alturas de adultos de un sexo en una población es que la varianza no parece aumentar o disminuir de una generación a la siguiente. Esto se sabía en la época de Galton, y sus intentos de explicar esto lo llevaron a la idea de regresión a la media. Esta idea se discutirá más a fondo en los comentarios históricos al final de la sección. (La razón por la que solo consideramos un sexo es que las alturas humanas están claramente vinculadas al sexo, y en general, si tenemos dos poblaciones que están normalmente distribuidas cada una, entonces su unión no necesita distribuirse normalmente).

    Utilizando la hipótesis de múltiples genes, es fácil explicar por qué la varianza debe ser constante de generación en generación. Comenzamos asumiendo que para una localización específica del gen, hay\(k\) alelos, que denotaremos por\(A_1,\ A_2,\ \ldots,\ A_k\). Suponemos que las crías son producidas por apareamiento aleatorio. Con esto queremos decir que dada cualquier descendencia, es igualmente probable que proviniera de cualquier par de padres de la generación anterior. Hay otra manera de ver el apareamiento aleatorio que facilita los cálculos. Consideramos el conjunto\(S\) de todos los alelos (en la ubicación del gen dado) en todas las células germinales de todos los individuos de la generación parental. En términos del conjunto\(S\), por apareamiento aleatorio queremos decir que cada par de alelos en\(S\) es igualmente probable que resida en cualquier descendencia en particular. (El lector podría oponerse a esta forma de pensar sobre el apareamiento aleatorio, ya que permite que dos alelos del mismo progenitor terminen en una descendencia; pero si el número de individuos en la población parental es grande, entonces si permitimos o no este evento no afecta mucho a las probabilidades).

    Porque\(1 \le i \le k\), dejamos\(p_i\) denotar la proporción de alelos en la población parental que son de tipo\(A_i\). Es claro que esto es lo mismo que la proporción de alelos en las células germinales de la población parental, asumiendo que cada progenitor produce aproximadamente el mismo número de células germinales. Considerar la distribución de alelos en la descendencia. Dado que es igualmente probable que cada célula germinal sea elegida para cualquier descendencia en particular, la distribución de los alelos en la descendencia es la misma que en los padres.

    A continuación consideramos la distribución de genotipos en las dos generaciones. Demostraremos el siguiente hecho: la distribución de genotipos en la generación de crías depende únicamente de la distribución de alelos en la generación parental (en particular, no depende de la distribución de genotipos en la generación parental). Considera los posibles genotipos; hay\(k(k+1)/2\) de ellos. Bajo nuestros supuestos, el genotipo\(A_iA_i\) ocurrirá con frecuencia\(p_i^2\), y el genotipo\(A_iA_j\), con\(i \ne j\), ocurrirá con frecuencia\(2p_ip_j\). Así, las frecuencias de los genotipos dependen únicamente de las frecuencias alélicas en la generación parental, como se reivindica.

    Esto quiere decir que si partimos de una cierta generación, y una cierta distribución de alelos, entonces en todas las generaciones posteriores a la que iniciamos, se fijará tanto la distribución alélica como la distribución del genotipo. Esta última declaración es conocida como la Ley Hardy-Weinberg.

    Podemos describir las consecuencias de esta ley para la distribución de alturas entre adultos de un sexo en una población. Recordamos que la altura de una descendencia estuvo dada por una variable aleatoria\(H\), donde\[H = X_1 + X_2 + \cdots + X_n + W\ ,\] con los\(X_i\)'s correspondientes a los genes que afectan la altura, y la variable aleatoria que\(W\) denota efectos no genéticos. La Ley Hardy-Weinberg establece que para cada uno\(X_i\), la distribución en la generación de descendencia es la misma que la distribución en la generación parental. Así, si asumimos que la distribución de\(W\) es aproximadamente la misma de generación en generación (o si asumimos que sus efectos son pequeños), entonces la distribución de\(H\) es la misma de generación en generación. (De hecho, los efectos dietéticos son parte de\(W\), y es evidente que en muchas poblaciones humanas, las dietas han cambiado bastante de una generación a otra en los últimos tiempos. Se piensa que este cambio es una de las razones por las que los humanos, en promedio, son cada vez más altos. También es el caso de que\(W\) se cree que los efectos de son pequeños en relación con los efectos genéticos de los padres).

    Discusión

    En términos generales, el Teorema del Límite Central contiene más información que la Ley de Números Grandes, porque nos da información detallada sobre la de la distribución de\(S_n^*\); para grandes\(n\) la forma es aproximadamente la misma que la forma de la densidad normal estándar. Más específicamente, el Teorema del Límite Central dice que si estandarizamos y corregimos en altura la distribución de\(S_n\), entonces la función de densidad normal es una muy buena aproximación a esta distribución cuando\(n\) es grande. Así, tenemos una aproximación computable para la distribución para\(S_n\), lo que nos proporciona una poderosa técnica para generar respuestas para todo tipo de preguntas sobre sumas de variables aleatorias independientes, incluso si las variables aleatorias individuales tienen distribuciones diferentes.

    Observaciones Históricas

    A mediados de la década de 1800, el matemático belga Quetelet 7 había demostrado empíricamente que la distribución normal se producía en datos reales, y también había dado un método para ajustar la curva normal a un conjunto de datos dado. Laplace 8 había demostrado mucho antes que la suma de muchas variables aleatorias independientes distribuidas de manera idéntica es aproximadamente normal. Galton sabía que ciertos rasgos físicos en una población parecían estar aproximadamente distribuidos normalmente, pero no consideró que el resultado de Laplace fuera una buena explicación de cómo se produce esta distribución. Damos una cita de Galton que aparece en el fascinante libro de S. Stigler 9 sobre la historia de la estadística:

    Primero, permítanme señalar un hecho que Quetelet y todos los escritores que han seguido en sus caminos han pasado por alto de manera inexplicable, y que tiene una relación íntima con nuestro trabajo de hoy. Es que, aunque las características de las plantas y animales se ajustan a la ley, la razón por la que lo hacen es todavía totalmente inexplicable. La esencia de la ley es que las diferencias deben deberse en su totalidad a las acciones colectivas de una multitud de influencias independientes en diversas combinaciones... Ahora los procesos de la herencia... no son influencias mezquinas, sino muy importantes... La conclusión es... que los procesos de herencia deben trabajar armónicamente con la ley de la desviación, y ser ellos mismos en algún sentido conformables a ella.

    Galton inventó un dispositivo conocido como quincunx (ahora comúnmente llamado tablero Galton), que usamos en el Ejemplo 3.2.1 para mostrar cómo obtener físicamente una distribución binomial. Por supuesto, el Teorema del Límite Central dice que para valores grandes del parámetro\(n\), la distribución binomial es aproximadamente normal. Galton utilizó el quincunx para explicar cómo la herencia afecta la distribución de un rasgo entre las crías.

    Consideramos, como lo hizo Galton, qué pasa si interrumpimos, a alguna altura intermedia, el avance del disparo que está cayendo en el quincunx. Se hace referencia al lector a la Figura [fig 9.62]. Esta figura es un dibujo de Karl Pearson, 10 basado en las notas de Galton. En esta figura, el disparo se está segregando temporalmente en compartimentos en la línea AB. (La línea A\(^{\prime}\) B\(^{\prime}\) forma una plataforma sobre la que puede descansar el disparo). Si la línea AB no está demasiado cerca de la parte superior del quincunx, entonces el disparo se distribuirá aproximadamente normalmente en esta línea. Ahora supongamos que se abre un compartimento, como se muestra en la figura. El disparo de ese compartimento caerá, formando una distribución normal en la parte inferior del quincunx. Si ahora todos los compartimentos están abiertos, todo el disparo caerá, produciendo la misma distribución que ocurriría si el disparo no se detuviera temporalmente en la línea AB. Pero la acción de detener el disparo en la línea AB, y luego liberar los compartimentos uno a la vez, es lo mismo que enredar dos distribuciones normales. Se están mezclando las distribuciones normales en la parte inferior, correspondientes a cada compartimento en la línea AB, siendo sus pesos el número de disparos en cada compartimento. Por otro lado, ya se sabe que si los disparos están libres de obstáculos, la distribución final es aproximadamente normal. Así, este dispositivo muestra que la convolución de dos distribuciones normales vuelve a ser normal.

    Galton también consideró el quincunx desde otra perspectiva. Segregó en siete grupos, en peso, un conjunto de 490 semillas de guisante dulce. Entregó 10 semillas de cada uno de los siete grupos a cada uno de los siete amigos, quienes cultivaron las plantas a partir de las semillas. Galton encontró que cada grupo producía semillas cuyos pesos se distribuían normalmente. (El guisante se reproduce por autopolinización, por lo que no necesita considerar la posibilidad de interacción entre diferentes grupos). Además, encontró que las varianzas de los pesos de las crías fueron las mismas para cada grupo. Esta segregación en grupos corresponde a los compartimentos en la línea AB en el quincunx. Así, los chícharos estaban actuando como si estuvieran siendo gobernados por una convolución de distribuciones normales.

    Ahora se enfrentaba a un problema. Hemos demostrado en el Capítulo 7 y Galton sabía, que la convolución de dos distribuciones normales produce una distribución normal con una varianza mayor que cualquiera de las distribuciones originales. Pero sus datos sobre las semillas de guisante dulce mostraron que la varianza de la población de crías fue la misma que la varianza de la población progenitora. Su respuesta a este problema fue postular un mecanismo al que llamó, y ahora se llama. Como dice Stigler: 11

    Los siete grupos de progenie se distribuyeron normalmente, pero no sobre el peso de sus padres. Más bien se distribuyeron en todos los casos alrededor de un valor que estaba más cerca del peso promedio de la población que el del progenitor. Además, esta reversión siguió “la ley más simple posible”, es decir, era lineal. La desviación promedio de la progenie del promedio poblacional estuvo en la misma dirección que la del progenitor, pero sólo un tercio tan grande. La progenie media volvió al tipo, y el aumento de la variación fue suficiente para mantener la variabilidad poblacional.

    Galton ilustró la reversión con la ilustración mostrada en la Figura [fig 9.63]. 12 La población parental se muestra en la parte superior de la figura, y las líneas inclinadas están destinadas a corresponder al efecto de reversión. La población de crías se muestra en la parte inferior de la figura.

    Ejercicio\(\PageIndex{1}\)

    Un dado se enrolla 24 veces. Utilice el Teorema de Límite Central para estimar la probabilidad de que

    1. la suma es mayor a 84.
    2. la suma es igual a 84.

    Ejercicio\(\PageIndex{2}\)

    Un andador aleatorio comienza en 0 en el\(x\) eje -y en cada momento la unidad mueve 1 paso a la derecha o 1 paso a la izquierda con probabilidad 1/2. Estimar la probabilidad de que, después de 100 pasos, el andador esté a más de 10 pasos desde la posición inicial.

    Ejercicio\(\PageIndex{3}\)

    Un trozo de cuerda se compone de 100 hilos. Supongamos que la resistencia a la rotura de la cuerda es la suma de las resistencias a la rotura de los hilos individuales. Supongamos además que esta suma puede considerarse como la suma de un proceso de ensayos independientes con 100 experimentos cada uno con valor esperado de 10 libras y desviación estándar 1. Encuentra la probabilidad aproximada de que la cuerda soporte un peso

    1. de 1000 libras.
    2. de 970 libras.

    Ejercicio\(\PageIndex{4}\)

    Escribe un programa para encontrar el promedio de 1000 dígitos aleatorios 0, 1, 2, 3, 4, 5, 6, 7, 8 o 9. Tener la prueba del programa para ver si el promedio se encuentra dentro de tres desviaciones estándar del valor esperado de 4.5. Modifique el programa para que repita esta simulación 1000 veces y realice un seguimiento del número de veces que se pasa la prueba. ¿Tu resultado concuerda con el Teorema del Límite Central?

    Ejercicio\(\PageIndex{5}\)

    Se lanza un dado hasta que la primera vez que la suma total de los valores faciales del dado sea de 700 o mayor. Estimar la probabilidad de que, para que esto suceda,

    1. se requieren más de 210 tiradas.
    2. Se requieren menos de 190 tiradas.
    3. entre 180 y 210 tiradas, inclusive, se requieren.

    Ejercicio\(\PageIndex{6}\)

    Un banco acepta rollos de centavos y le da 50 centavos de crédito a un cliente sin contar los contenidos. Supongamos que un rollo contiene 49 centavos el 30 por ciento del tiempo, 50 centavos el 60 por ciento del tiempo y 51 centavos el 10 por ciento del tiempo.

    1. Encuentra el valor esperado y la varianza por la cantidad que el banco pierde en una tirada típica.
    2. Estimar la probabilidad de que el banco pierda más de 25 centavos en 100 rollos.
    3. Estimar la probabilidad de que el banco pierda exactamente 25 centavos en 100 rollos.
    4. Estimar la probabilidad de que el banco pierda dinero en 100 rollos.
    5. ¿Cuántos rollos necesita cobrar el banco para tener una probabilidad del 99 por ciento de una pérdida neta?

    Ejercicio\(\PageIndex{7}\)

    Un instrumento topográfico comete un error de\(-2\)\(-1\),, 0, 1, o 2 pies con probabilidades iguales al medir la altura de una torre de 200 pies.

    1. Encuentra el valor esperado y la varianza para la altura obtenida usando este instrumento una vez.
    2. Estimar la probabilidad de que en 18 mediciones independientes de esta torre, el promedio de las mediciones esté entre 199 y 201, inclusive.

    Ejercicio\(\PageIndex{8}\)

    Para\(\PageIndex{9}\) estimación de ejemplo\(P(S_{30} = 0)\). Es decir, estimar la probabilidad de que los errores se cancelen y el promedio de calificaciones del alumno sea correcto.

    Ejercicio\(\PageIndex{9}\)

    Demostrar la Ley de Números Grandes utilizando el Teorema del Límite Central.

    Ejercicio\(\PageIndex{10}\)

    Peter y Paul coinciden con centavos 10, 000 veces. Describe brevemente lo que cada uno de los siguientes teoremas te dice sobre la fortuna de Pedro.

    1. La Ley de los Grandes Números.
    2. El Teorema del Límite Central.

    Ejercicio\(\PageIndex{11}\)

    Un turista en Las Vegas se sintió atraído por cierto juego de azar en el que el cliente apuesta 1 dólar en cada jugada; una victoria luego paga al cliente 2 dólares más el retorno de su apuesta, aunque una pérdida le cuesta solo su apuesta. Los conocedores de Las Vegas, y alertan a los estudiantes de teoría de probabilidad, saben que la probabilidad de ganar en este juego es de 1/4. Al ser sacado de las mesas por el hambre, el turista había jugado este juego 240 veces. Asumiendo que no sucedieron milagros cercanos, ¿de cuánto más pobre era el turista al salir del casino? ¿Cuál es la probabilidad de que no haya perdido dinero?

    Ejercicio\(\PageIndex{12}\)

    Hemos visto que, al jugar a la ruleta en Montecarlo (Ejemplo [examen 6.7]), apostar 1 dólar en rojo o 1 dólar en 17 cantidades a elegir entre las distribuciones\[m_X = \pmatrix{ -1 & -1/2 & 1 \cr 18/37 & 1/37 & 18/37\cr }\] o\[m_X = \pmatrix{ -1 & 35 \cr 36/37 & 1/37 \cr }\] Planeas elegir uno de estos métodos y utilizarlo para hacer 100 apuestas de 1 dólar usando el método elegido. Utilizando el Teorema del Límite Central, estime la probabilidad de ganar dinero por cada uno de los dos juegos. Compara tus estimaciones con las probabilidades reales, que se pueden mostrar, a partir de cálculos exactos, para igualar .437 y .509 a tres decimales.

    Ejercicio\(\PageIndex{13}\)

    En Ejemplo\(\PageIndex{9}\) encontrar el mayor valor de\(p\) eso da probabilidad .954 de que el primer lugar decimal es correcto.

    Ejercicio\(\PageIndex{14}\)

    Se ha sugerido que el Ejemplo no\(\PageIndex{9}\) es realista, en el sentido de que las probabilidades de errores son demasiado bajas. Haga su propia estimación (razonable) para la distribución\(m(x)\), y determine la probabilidad de que el promedio de calificaciones de un estudiante sea preciso dentro de .05. También determinar la probabilidad de que sea precisa dentro de .5.

    Ejercicio\(\PageIndex{15}\)

    Encontrar una secuencia de variables aleatorias independientes discretas uniformemente delimitadas de\(\{X_n\}\) tal manera que la varianza de su suma no tiende a\(\infty\) como\(n \rightarrow \infty\), y tal que su suma no se distribuye normalmente asintóticamente.


    This page titled 9.2: Teorema del límite central para ensayos independientes discretos is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.