Saltar al contenido principal
LibreTexts Español

8.1: Variables Aleatorias Discretas

  • Page ID
    150079
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Ahora estamos en condiciones de probar nuestro primer teorema fundamental de probabilidad. Hemos visto que una manera intuitiva de ver la probabilidad de un determinado desenlace es como la frecuencia con la que ese desenlace ocurre a largo plazo, cuando el experimento se repite un gran número de veces. También hemos definido matemáticamente la probabilidad como un valor de una función de distribución para la variable aleatoria que representa el experimento. La Ley de Grandes Números, que es un teorema probado sobre el modelo matemático de probabilidad, muestra que este modelo es consistente con la interpretación de frecuencia de la probabilidad. Este teorema es en algún momento s llamado el Para saber qué pasaría si esta ley no fuera cierta, ver el artículo de Robert M. Coates. 1

    Desigualdad de Chebyshev

    Para discutir la Ley de Grandes Números, primero necesitamos una desigualdad importante llamada

    (Desigualdad Chebyshev) Let\(X\) Ser una variable aleatoria discreta con valor esperado\(\mu = E(X)\), y dejar\(\epsilon > 0\) ser cualquier número real positivo. Entonces\[P(|X - \mu| \geq \epsilon) \leq \frac {V(X)}{\epsilon^2}\ .\] Let\(m(x)\) denotar la función de distribución de\(X\). Entonces la probabilidad que\(X\) difiere de\(\mu\) por lo menos\(\epsilon\) viene dada por\[P(|X - \mu| \geq \epsilon) = \sum_{|x - \mu| \geq \epsilon} m(x)\ .\] Sabemos que\[V(X) = \sum_x (x - \mu)^2 m(x)\ ,\] y esto es claramente al menos tan grande como\[\sum_{|x - \mu| \geq \epsilon} (x - \mu)^2 m(x)\ ,\] ya que todas las summands son positivas y hemos restringido el rango de suma en la segunda suma. Pero esta última suma es por lo menos\[\begin{aligned} \sum_{|x - \mu| \geq \epsilon} \epsilon^2 m(x) &=& \epsilon^2 \sum_{|x - \mu| \geq \epsilon} m(x) \\ &=& \epsilon^2 P(|X - \mu| \geq \epsilon)\ .\\\end{aligned}\] Entonces,\[P(|X - \mu| \geq \epsilon) \leq \frac {V(X)}{\epsilon^2}\ .\]

    Tenga\(X\) en cuenta que en el teorema anterior puede ser cualquier variable aleatoria discreta, y\(\epsilon\) cualquier número positivo.

    Dejar\(X\) por cualquier variable aleatoria con\(E(X) = \mu\) y\(V(X) = \sigma^2\). Entonces, si\(\epsilon = k\sigma\), Desigualdad de Chebyshev afirma que\[P(|X - \mu| \geq k\sigma) \leq \frac {\sigma^2}{k^2\sigma^2} = \frac 1{k^2}\ .\] Así, para cualquier variable aleatoria, la probabilidad de una desviación de la media de más de las desviaciones\(k\) estándar es\({} \leq 1/k^2\). Si, por ejemplo,\(k = 5\),\(1/k^2 = .04\).

    La desigualdad de Chebyshev es la mejor desigualdad posible en el sentido de que, para cualquiera\(\epsilon > 0\), es posible dar un ejemplo de una variable aleatoria para la que la Desigualdad de Chebyshev es de hecho una igualdad. Para ver esto, dado\(\epsilon > 0\), elija\(X\) con distribución\[p_X = \pmatrix{ -\epsilon & +\epsilon \cr 1/2 & 1/2 \cr}\ .\] Entonces\(E(X) = 0\),\(V(X) = \epsilon^2\), y\[P(|X - \mu| \geq \epsilon) = \frac {V(X)}{\epsilon^2} = 1\ .\]

    Ahora estamos preparados para declarar y acreditar la Ley de Grandes Números.

    Ley de Grandes Números

    (Ley de Números Grandes) Dejar\(X_1\),\(X_2\),...,\(X_n\) ser un proceso de ensayos independientes, con valor esperado finito\(\mu = E(X_j)\) y varianza finita\(\sigma^2 = V(X_j)\). Vamos\(S_n = X_1 + X_2 +\cdots+ X_n\). Entonces para cualquiera\(\epsilon > 0\),\[P\left( \left| \frac {S_n}n - \mu \right| \geq \epsilon \right) \to 0\] como\(n \rightarrow \infty\). Equivalentemente,\[P\left( \left| \frac {S_n}n - \mu \right| < \epsilon \right) \to 1\] como\(n \rightarrow \infty\). Ya que\(X_1\)\(X_2\),,...,\(X_n\) son independientes y tienen las mismas distribuciones, podemos aplicar el Teorema [thm 6.9]. Obtenemos\[V(S_n) = n\sigma^2\ ,\] y\[V (\frac {S_n}n) = \frac {\sigma^2}n\ .\] También sabemos que\[E (\frac {S_n}n) = \mu\ .\] Por la Desigualdad de Chebyshev, para cualquiera\(\epsilon > 0\),\[P\left( \left| \frac {S_n}n - \mu \right| \geq \epsilon \right) \leq \frac {\sigma^2}{n\epsilon^2}\ .\] Así, para fijo\(\epsilon\),\[P\left( \left| \frac {S_n}n - \mu \right| \geq \epsilon \right) \to 0\] como\(n \rightarrow \infty\), o equivalentemente,\[P\left( \left| \frac {S_n}n - \mu \right| < \epsilon \right) \to 1\] como\(n \rightarrow \infty\).

    Ley de Promedios

    Tenga en cuenta que\(S_n/n\) es un promedio de los resultados individuales, y a menudo se llama a la Ley de Grandes Números la “ley de los promedios”. Es un hecho llamativo que podemos comenzar con un experimento aleatorio sobre el que poco se puede predecir y, tomando promedios, obtener un experimento en el que el resultado se pueda predecir con un alto grado de certeza. A la Ley de Números Grandes, como la hemos dicho, se le suele llamar la “Ley Débil de los Números Grandes” para distinguirla de la “Ley Fuerte de los Números Grandes” descrita en el Ejercicio [exer 8.1.16].

    Consideremos el importante caso especial de los ensayos de Bernoulli con probabilidad\(p\) de éxito. Que\(X_j = 1\) si el resultado\(j\) th es un éxito y 0 si es un fracaso. Entonces\(S_n = X_1 + X_2 +\cdots+ X_n\) es el número de éxitos en\(n\) ensayos y\(\mu = E(X_1) = p\). La Ley de Grandes Números establece que para cualquier\(\epsilon > 0\)\[P\left( \left| \frac {S_n}n - p \right| < \epsilon \right) \to 1\] como\(n \rightarrow \infty\). El comunicado anterior dice que, en un gran número de repeticiones de un experimento de Bernoulli, podemos esperar que la proporción de veces que ocurrirá el evento esté cerca\(p\). Esto demuestra que nuestro modelo matemático de probabilidad concuerda con nuestra interpretación de frecuencia de probabilidad.

    Lanza de monedas

    Consideremos el caso especial de lanzar una moneda\(n\) veces con\(S_n\) el número de cabezas que aparecen. Entonces la variable aleatoria\(S_n/n\) representa la fracción de veces que las cabezas se vuelven hacia arriba y tendrán valores entre 0 y 1. La Ley de Números Grandes predice que los resultados para esta variable aleatoria serán, para grandes\(n\), cerca de 1/2.

    En la Figura [fig 8.1], hemos trazado la distribución para este ejemplo para aumentar los valores de\(n\). Hemos marcado los resultados entre .45 y .55 por puntos en la parte superior de los picos. Vemos que a medida que\(n\) aumenta la distribución se concentra cada vez más alrededor de .5 y un porcentaje cada vez mayor del área total se contiene dentro del intervalo\((.45,.55)\), como lo predice la Ley de Números Grandes.

    Laminación de matrices

    Considera\(n\) rollos de un dado. Que\(X_j\) sea el resultado del\(j\) th rollo. Entonces\(S_n = X_1 + X_2 +\cdots+ X_n\) es la suma de los primeros\(n\) rollos. Este es un proceso de ensayos independientes con\(E(X_j) = 7/2\). Así, por la Ley de Grandes Números, para cualquiera\(\epsilon > 0\)\[P\left( \left| \frac {S_n}n - \frac 72 \right| \geq \epsilon \right) \to 0\] como\(n \rightarrow \infty\). Una forma equivalente de afirmar esto es que, para cualquier\(\epsilon > 0\),\[P\left( \left| \frac {S_n}n - \frac 72 \right| < \epsilon \right) \to 1\] como\(n \rightarrow \infty\).

    Comparaciones numéricas

    Cabe destacar que, aunque la Desigualdad de Chebyshev prueba la Ley de Grandes Números, en realidad es una desigualdad muy cruda para las probabilidades involucradas. Sin embargo, su fuerza radica en el hecho de que es cierto para cualquier variable aleatoria en absoluto, y nos permite probar un teorema muy poderoso.

    En el siguiente ejemplo, comparamos las estimaciones dadas por la Desigualdad de Chebyshev con los valores reales.

    Dejemos\(X_1\),\(X_2\),...,\(X_n\) ser un proceso de juicios de Bernoulli con probabilidad .3 para el éxito y .7 para el fracaso. Que\(X_j = 1\) si el resultado\(j\) th es un éxito y 0 de lo contrario. Entonces,\(E(X_j) = .3\) y\(V(X_j) = (.3)(.7) = .21\). Si\[A_n = \frac {S_n}n = \frac {X_1 + X_2 +\cdots+ X_n}n\] es el de la\(X_i\), entonces\(E(A_n) = .3\) y\(V(A_n) = V(S_n)/n^2 = .21/n\). La desigualdad de Chebyshev establece que si, por ejemplo\(\epsilon = .1\),,\[P(|A_n - .3| \geq .1) \leq \frac {.21}{n(.1)^2} = \frac {21}n\ .\] Así, si\(n = 100\),\[P(|A_{100} - .3| \geq .1) \leq .21\ ,\] o si\(n = 1000\),\[P(|A_{1000} - .3| \geq .1) \leq .021\ .\] Estos pueden ser reescritos como\[\begin{aligned} P(.2 < A_{100} < .4) &\geq& .79\ , \\ P(.2 < A_{1000} < .4) &\geq& .979\ .\end{aligned}\] Estos valores deben compararse con los valores reales, que son (a seis decimales)\[\begin{aligned} P(.2 < A_{100} < .4) &\approx& .962549 \\ P(.2 < A_{1000} < .4) &\approx& 1\ .\\\end{aligned}\] El programa La ley puede ser utilizada para llevar a cabo los cálculos anteriores de manera sistemática.

    Observaciones Históricas

    La Ley de Grandes Números fue probada por primera vez por el matemático suizo James Bernoulli en la cuarta parte de su obra publicada póstumamente en 1713. 2 Como suele suceder con una primera prueba, la prueba de Bernoulli fue mucho más difícil que la prueba que hemos presentado utilizando la desigualdad de Chebyshev. Chebyshev desarrolló su desigualdad para probar una forma general de la Ley de Grandes Números (ver Ejercicio [exer 8.1.13]). La desigualdad misma apareció mucho antes en una obra de Bienaymé, y al discutir su historia Maistrov señala que durante mucho tiempo se la denominó Desigualdad Bienaymé-Chebyshev. 3

    En Bernoulli proporciona a su lector una larga discusión sobre el significado de su teorema con muchos ejemplos. En la notación moderna tiene un evento que ocurre con probabilidad\(p\) pero desconoce\(p\). Quiere estimar\(p\) por la fracción\(\bar{p}\) de las veces que ocurre el evento cuando el experimento se repite varias veces. Se discute en detalle el problema de estimar, mediante este método, la proporción de bolas blancas en una urna que contiene un número desconocido de bolas blancas y negras. Esto lo haría dibujando una secuencia de bolas de la urna, reemplazando la bola extraída después de cada sorteo, y estimando la proporción desconocida de bolas blancas en la urna por la proporción de las bolas dibujadas que son blancas. Demuestra que, al elegir lo suficientemente\(n\) grande puede obtener cualquier precisión y confiabilidad deseadas para la estimación. También proporciona una animada discusión sobre la aplicabilidad de su teorema para estimar la probabilidad de morir de una enfermedad en particular, de diferentes tipos de clima que ocurren, y así sucesivamente.

    Al hablar del número de juicios necesarios para emitir un juicio, Bernoulli observa que el “hombre de la calle” cree en la “ley de los promedios”.

    Además, no puede escapar a nadie que por juzgar de esta manera sobre cualquier evento en absoluto, no es suficiente usar uno o dos juicios, sino que se requiere una gran cantidad de juicios. Y a veces el hombre más estupido—por algún instinto de la naturaleza y por ninguna instrucción previa (esto es realmente asombroso )— sabe con certeza que cuantas más observaciones de este tipo se tomen, menor será el peligro de desviarse de la marca. 4

    Pero continúa diciendo que debe contemplar otra posibilidad.

    Aquí hay que contemplar algo más que quizás nadie ha pensado hasta ahora. Ciertamente queda por preguntarse si después de que se ha incrementado el número de observaciones, se incrementa la probabilidad de lograr la verdadera relación entre el número de casos en los que puede ocurrir algún evento y en los que no puede suceder, de manera que esta probabilidad finalmente supere cualquier grado de certeza dado ; o si el problema tiene, por así decirlo, su propia asíntota—es decir, si se da algún grado de certeza que nunca se puede superar. 5

    Bernoulli reconoció la importancia de este teorema, escribiendo:

    Por lo tanto, este es el problema que ahora planteo y doy a conocer después de que ya lo he reflexionado desde hace veinte años. Tanto su novedad como su muy gran utilidad, aunada a su igual de gran dificultad, pueden superar en peso y valorar todos los capítulos restantes de esta tesis. 6

    Bernoulli concluye su larga prueba con el comentario:

    De donde, finalmente, esta cosa parece seguir: que si las observaciones de todos los eventos se continuaran a lo largo de toda la eternidad, (y de ahí la probabilidad última tendería hacia la certeza perfecta), todo en el mundo se percibiría que sucedía en proporciones fijas y de acuerdo con una ley constante de alternancia, de manera que incluso en los sucesos más accidentales y fortuitos estaríamos obligados a reconocer, por así decirlo, cierta necesidad y, por así decirlo, cierto destino.

    Ahora sé si Platón deseaba apuntar a esto en su doctrina del retorno universal de las cosas, según la cual predijo que todas las cosas volverán a su estado original después de que hayan pasado incontables edades. 7

    Ejercicio\(\PageIndex{1}\)

    Una moneda justa se arroja 100 veces. El número esperado de cabezas es 50, y la desviación estándar para el número de cabezas es\((100 \cdot 1/2 \cdot 1/2)^{1/2} = 5\). ¿Qué le dice la Desigualdad de Chebyshev sobre la probabilidad de que el número de cabezas que aparecen se desvíe del número 50 esperado en tres o más desviaciones estándar (es decir, en al menos 15)?

    Ejercicio\(\PageIndex{2}\)

    Escribe un programa que utilice la función\(\mbox {binomial}(n,p,x)\) para calcular la probabilidad exacta que estimaste en Ejercicio [exer 8.1.1]. Compara los dos resultados.

    Ejercicio\(\PageIndex{3}\)

    Escribe un programa para echar una moneda 10, 000 veces. \(S_n\)Sea el número de cabezas en los primeros\(n\) tirados. Haga que su programa imprima, después de cada 1000 tiradas,\(S_n - n/2\). Sobre la base de esta simulación, ¿es correcto decir que puedes esperar cabezas aproximadamente la mitad del tiempo cuando lanzas una moneda una gran cantidad de veces?

    Ejercicio\(\PageIndex{4}\)

    Una apuesta de 1 dólar a los dados tiene una ganancia esperada de\(-.0141\). ¿Qué dice la Ley de Números Grandes sobre tus ganancias si haces una gran cantidad de apuestas de 1 dólar en la mesa de dados? ¿Te asegura que tus pérdidas serán pequeñas? ¿Te asegura que si\(n\) es muy grande perderás?

    Ejercicio\(\PageIndex{5}\)

    Dejar\(X\) ser una variable aleatoria con\(E(X) =0\) y\(V(X) = 1\). ¿Qué valor entero nos\(k\) va a asegurar eso\(P(|X| \geq k) \leq .01\)?

    Ejercicio\(\PageIndex{6}\)

    \(S_n\)Sea el número de éxitos en los ensayos de\(n\) Bernoulli con probabilidad\(p\) de éxito en cada ensayo. Mostrar, usando la desigualdad de Chebyshev, que para cualquier\(\epsilon > 0\)\[P\left( \left| \frac {S_n}n - p \right| \geq \epsilon \right) \leq \frac {p(1 - p)}{n\epsilon^2}\ .\]

    Ejercicio\(\PageIndex{7}\)

    Encuentra el valor máximo posible para\(p(1 - p)\) if\(0 < p < 1\). Utilizando este resultado y Ejercicio [exer 8.1.6], muestran que la estimación\[P\left( \left| \frac {S_n}n - p \right| \geq \epsilon \right) \leq \frac 1{4n\epsilon^2}\] es válida para cualquier\(p\).

    Ejercicio\(\PageIndex{8}\)

    Una moneda justa se arroja una gran cantidad de veces. ¿Nos asegura la Ley de Grandes Números que, si\(n\) es lo suficientemente grande, con\(\mbox {probability} > .99\) el número de cabezas que aparecen no se desviará\(n/2\) de en más de 100?

    Ejercicio\(\PageIndex{9}\)

    En Ejercicio [sec 6.2]. [exer 6.2.16], demostraste que, para el problema del chequeo de sombreros, el número\(S_n\) de personas que recuperan sus propios sombreros tiene\(E(S_n) = V(S_n) = 1\). Usando la Desigualdad de Chebyshev,\(P(S_n \geq 11) \leq .01\) demuéstralo para cualquiera\(n \geq 11\).

    Ejercicio\(\PageIndex{10}\)

    Dejar\(X\) por cualquier variable aleatoria que tome valores 0, 1, 2,...,\(n\) y tenga\(E(X) = V(X) = 1\). Demostrar que, para cualquier entero positivo\(k\),\[P(X \geq k + 1) \leq \frac 1{k^2}\ .\]

    Ejercicio\(\PageIndex{11}\)

    Tenemos dos monedas: una es una moneda justa y la otra es una moneda que produce cabezas con probabilidad 3/4. Una de las dos monedas se recoge al azar, y esta moneda se arroja\(n\) veces. \(S_n\)Sea el número de cabezas que aparece en estos\(n\) tirones. ¿La Ley de Grandes Números nos permite predecir la proporción de cabezas que van a aparecer a la larga? Después de haber observado un gran número de tiradas, ¿podemos decir qué moneda se eligió? ¿Cuántos tirados bastan para que estemos 95 por ciento seguros?

    Ejercicio\(\PageIndex{12}\)

    (Chebyshev 8) Supongamos que\(X_1\)\(X_2\),,...,\(X_n\) son variables aleatorias independientes con distribuciones posiblemente diferentes y dejan\(S_n\) ser su suma. Vamos\(m_k = E(X_k)\),\(\sigma_k^2 = V(X_k)\), y\(M_n = m_1 + m_2 +\cdots+ m_n\). Asumir eso\(\sigma_k^2 < R\) para todos\(k\). Demostrar que, para cualquier\(\epsilon > 0\),\[P\left( \left| \frac {S_n}n - \frac {M_n}n \right| < \epsilon \right) \to 1\] como\(n \rightarrow \infty\).

    Ejercicio\(\PageIndex{13}\)

    Una moneda justa se arroja repetidamente. Antes de cada lanzamiento, se le permite decidir si apostar por el resultado. ¿Puedes describir un sistema de apuestas con infinitamente muchas apuestas que te permitirán, a la larga, ganar más de la mitad de tus apuestas? (Tenga en cuenta que estamos despermitiendo un sistema de apuestas que dice apostar hasta que esté por delante, luego salga). Escribir un programa de computadora que implemente este sistema de apuestas. Como se indicó anteriormente, su programa debe decidir si apostar por un resultado en particular antes de que se determine ese resultado. Por ejemplo, puede seleccionar solo los resultados que vienen después de que haya habido tres colas seguidas. Ve si puedes obtener más del 50% de cabezas por tu “sistema”.

    Ejercicio\(\PageIndex{14}\)

    Demostrar el siguiente análogo de la Desigualdad de Chebyshev:\[P(|X - E(X)| \geq \epsilon) \leq \frac 1\epsilon E(|X - E(X)|)\ .\]

    Ejercicio\(\PageIndex{15}\)

    Hemos demostrado un teorema que a menudo se llama la “Ley Débil de los Grandes Números”. La intuición de la mayoría de las personas y nuestras simulaciones por computadora sugieren que, si lanzamos una moneda una secuencia de veces, la proporción de cabezas realmente se acercará a 1/2;\(S_n\) es decir, si es el número de cabezas en\(n\) tiempos, entonces tendremos\[A_n = \frac {S_n}n \to \frac 12\] como\(n \to \infty\). Por supuesto, no podemos estar seguros de esto ya que no somos capaces de arrojar la moneda un número infinito de veces, y, si pudiéramos, la moneda podría subir de cabeza cada vez. No obstante, la “Ley Fuerte de Grandes Números”, probada en cursos más avanzados, establece que\[P\left( \frac {S_n}n \to \frac 12 \right) = 1\ .\] Describir un espacio muestral\(\Omega\) que nos permita platicar sobre el evento\[E = \left\{\, \omega : \frac {S_n}n \to \frac 12\, \right\}\ .\] ¿Podríamos asignar la medida equiprobable a este espacio?

    Ejercicio\(\PageIndex{16}\)

    En este ejercicio, construiremos un ejemplo de una secuencia de variables aleatorias que satisfaga la ley débil de los grandes números, pero no la ley fuerte. La distribución de\(X_i\) tendrá que depender de\(i\), pues de lo contrario ambas leyes quedarían satisfechas. (Este problema nos lo comunicó David Maslen.) .1in Supongamos que tenemos una secuencia infinita de eventos mutuamente independientes\(A_1, A_2, \ldots\). Dejar\(a_i = P(A_i)\), y dejar\(r\) ser un entero positivo.

    1. Encuentra una expresión de la probabilidad de que ninguno de los\(A_i\) con\(i>r\) ocurra.
    2. Usa el hecho de que\(x-1 \leq e^{-x}\) para demostrar que\[P(\mbox{No \ $A_i$ \ with \ $i > r$ \ occurs}) \leq e^{-\sum_{i=r}^{\infty} a_i}\]
    3. (El primer lema de Borel-Cantelli) Demostrar que si\(\sum_{i=1}^{\infty} a_i\) diverge, entonces\[P(\mbox{infinitely\ many\ $A_i$\ occur}) = 1.\] .1in Ahora, deja\(X_i\) ser una secuencia de variables aleatorias mutuamente independientes tal que para cada entero positivo\(i \geq 2\),\[P(X_i = i) = \frac{1}{2i\log i}, \quad P(X_i = -i) = \frac{1}{2i\log i}, \quad P(X_i =0) = 1 - \frac{1}{i \log i}.\] Cuando\(i=1\) dejamos\(X_i=0\) con probabilidad\(1\). Como de costumbre dejamos\(S_n = X_1 + \cdots + X_n\). Tenga en cuenta que la media de cada uno\(X_i\) es\(0\).
    4. Encuentra la varianza de\(S_n\).
    5. Demostrar que la secuencia\(\langle X_i \rangle\) satisface la Ley Débil de los Números Grandes, es decir, probar que para cualquiera\(\epsilon > 0\)\[P\biggl(\biggl|{\frac{S_n}{n}}\biggr| \geq \epsilon\biggr) \rightarrow 0\ ,\]\(n\) tiende al infinito. .1in Mostramos ahora que\(\{ X_i \}\) no satisface la Ley Fuerte de los Números Grandes. Supongamos que\(S_n / n \rightarrow 0\). Entonces porque eso lo\[\frac{X_n}{n} = \frac{S_n}{n} - \frac{n-1}{n} \frac{S_{n-1}}{n-1}\ ,\] sabemos\(X_n / n \rightarrow 0\). A partir de la definición de límites, concluimos que la desigualdad sólo\(|X_i| \geq \frac{1}{2} i\) puede ser cierta para finitamente muchos\(i\).
    6. Que\(A_i\) sea el evento\(|X_i| \geq \frac{1}{2} i\). Encuentra\(P(A_i)\). Mostrar que\(\sum_{i=1}^{\infty} P(A_i)\) diverge (usa la Prueba Integral).
    7. Demostrar que\(A_i\) ocurre para infinitamente muchos\(i\).
    8. Demostrar eso\[P\biggl(\frac{S_n}{n} \rightarrow 0\biggr) = 0,\] y de ahí que la Ley Fuerte de Números Grandes fracasa para la secuencia\(\{ X_i \}\).

    Ejercicio\(\PageIndex{17}\)

    Tiremos una moneda sesgada que viene a la cabeza con probabilidad\(p\) y asumamos la validez de la Ley Fuerte de Números Grandes como se describe en el Ejercicio [exer 8.1.16]. Entonces, con probabilidad 1,\[\frac {S_n}n \to p\] como\(n \to \infty\). Si\(f(x)\) es una función continua en el intervalo de la unidad, entonces también tenemos\[f\left( \frac {S_n}n \right) \to f(p)\ .\]

    Por último, podríamos esperar que\[E\left(f\left( \frac {S_n}n \right)\right) \to E(f(p)) = f(p)\ .\] Demostrar que, si todo esto es correcto, como de hecho lo es, habríamos probado que cualquier función continua en el intervalo unitario es un límite de funciones polinómicas. Se trata de un boceto de una prueba probabilística de un teorema importante en matemáticas llamado


    This page titled 8.1: Variables Aleatorias Discretas is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.