Saltar al contenido principal
LibreTexts Español

6.3: La Ley de los Grandes Números

  • Page ID
    152203
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\cov}{\text{cov}}\)\(\newcommand{\bs}{\boldsymbol}\)

    Teoría Básica

    Esta sección continúa la discusión de la media muestral desde la última sección, pero ahora consideramos el escenario más interesante donde las variables son aleatorias. Específicamente, supongamos que tenemos un experimento aleatorio básico con una medida de probabilidad subyacente\( \P \), y que\(X\) es una variable aleatoria para el experimento. Supongamos ahora que realizamos replicaciones\(n\) independientes del experimento básico. Esto define un nuevo experimento compuesto con una secuencia de variables aleatorias independientes\(\bs{X} = (X_1, X_2, \ldots, X_n)\), cada una con la misma distribución que\(X\). Recordemos que en términos estadísticos,\(\bs{X}\) es una muestra aleatoria de tamaño\(n\) a partir de la distribución de\(X\). Todas las estadísticas relevantes discutidas en el apartado anterior, están definidas para\(\bs{X}\), pero por supuesto ahora estas estadísticas son variables aleatorias con distribuciones propias. En su mayor parte, utilizamos la notación establecida previamente, excepto la de la convención habitual de denotar variables aleatorias con mayúsculas. Por supuesto, también se aplican las propiedades deterministas y las relaciones establecidas previamente. Cuando ejecutamos acutalmente el experimento y observamos los valores\( \bs{x} = (x_1, x_2, \ldots, x_n) \) de las variables aleatorias, entonces estamos precisamente en la configuración de la sección anterior.

    Supongamos ahora que la variable básica\( X \) es de valor real, y vamos a\(\mu = \E(X)\) denotar el valor esperado de\(X\) y\(\sigma^2 = \var(X)\) la varianza de\(X\) (asumida finita). La media muestral es\[ M = \frac{1}{n} \sum_{i=1}^n X_i \] Ofen la media de distribución\(\mu\) es desconocida y la media\(M\) muestral se utiliza como estimador de este parámetro desconocido.

    Momentos

    La media y varianza de\(M\) son

    1. \(\E(M) = \mu\)
    2. \(\var(M) = \sigma^2 / n\)
    Prueba
    1. Esto se deduce de la propiedad lineal del valor esperado:\[ \E(M) = \frac{1}{n} \sum_{i=1}^n \E(X_i) = \frac{1}{n} \sum_{i=1}^n \mu = \frac{1}{n} n \mu = \mu \]
    2. Esto se desprende de las propiedades básicas de varianza. Recordemos en particular que la varianza de la suma de variables independientes es la suma de las varianzas. \[ \var(M) = \frac{1}{n^2} \sum_{i=1}^n \var(X_i) = \frac{1}{n^2} \sum_{i=1}^n \sigma^2 = \frac{1}{n^2} n \sigma^2 = \frac{\sigma^2}{n} \]

    La parte (a) significa que la media de la muestra\(M\) es un estimador imparcial de la media de distribución\(\mu\). Por lo tanto, la varianza de\(M\) es el error cuadrático medio, cuando\(M\) se utiliza como estimador de\(\mu\). Tenga en cuenta que la varianza de\(M\) es una función creciente de la varianza de distribución y una función decreciente del tamaño de la muestra. Ambos tienen sentido intuitivo si pensamos en la media de la muestra\(M\) como un estimador de la media de distribución\(\mu\). El hecho de que el error cuadrático medio (varianza en este caso) disminuya a 0 a medida que\(n\) aumenta el tamaño de la muestra,\(\infty\) significa que la media de la muestra\(M\) es un estimador consistente de la media de distribución\(\mu\).

    Recordemos que\(X_i - M\) es la desviación\(X_i\) de\(M\), es decir, la distancia dirigida de\(M\) a\(X_i\). El siguiente teorema establece que la media muestral no está correlacionada con cada desviación, resultado que será crucial para mostrar la independencia de la media muestral y la varianza de la muestra cuando la distribución muestral es normal.

    \(M\)y no\(X_i - M\) están correlacionados.

    Prueba

    Este resultado se deriva de propiedades simples de covarianza. Tenga en cuenta que\( \cov(M, X_i - M) = \cov(M, X_i) - \cov(M, M) \). Por independencia,\[ \cov(M, X_i) = \cov\left(\frac{1}{n}\sum_{j=1}^n X_j, X_i\right) = \frac{1}{n} \sum_{j=1}^n \cov(X_j, X_i) = \frac{1}{n} \cov(X_i, X_i) = \frac{1}{n} \var(X_i) = \frac{\sigma^2}{n} \] Pero por teorema anterior,\(\cov(M, M) = \var(M) = \sigma^2 / n\).

    Las leyes débiles y fuertes de los grandes números

    La ley de los grandes números establece que la media muestral converge a la media de distribución a medida que aumenta el tamaño de la muestra, y es uno de los teoremas fundamentales de la probabilidad. Existen diferentes versiones de la ley, dependiendo del modo de convergencia.

    Supongamos nuevamente que\(X\) es una variable aleatoria de valor real para nuestro experimento básico, con media\(\mu\) y desviación estándar\(\sigma\) (asumida finita). Repetimos el experimento básico indefinidamente para crear un nuevo experimento compuesto con una secuencia infinita de variables aleatorias independientes\((X_1, X_2, \ldots)\), cada una con la misma distribución que\(X\). En términos estadísticos, estamos muestreando a partir de la distribución de\(X\). En términos probabilísticos, tenemos una secuencia independiente, idéntica distribuida (IID). Para cada una\(n\), vamos a\(M_n\) denotar la media muestral de las primeras variables de\(n\) muestra:\[ M_n = \frac{1}{n} \sum_{i=1}^n X_i \] Del resultado anterior sobre varianza, tenga en cuenta que\(\var(M_n) = \E\left[\left(M_n - \mu\right)^2\right] \to 0\) como\(n \to \infty\). Esto significa que\(M_n \to \mu\) como\(n \to \infty\) en el cuadrado medio. Como se afirma en el teorema siguiente,\(M_n \to \mu\) como también\(n \to \infty\) en probabilidad.

    \(\P\left(\left|M_n - \mu\right| \gt \epsilon\right) \to 0\)como\(n \to \infty\) para cada\(\epsilon \gt 0\).

    Prueba

    Esto se desprende de la desigualdad de Chebyshev:\[ \P\left(\left|M_n - \mu\right| \gt \epsilon\right) \le \frac{\var(M_n)}{\epsilon^2} = \frac{\sigma^2}{n \epsilon^2} \to 0 \text{ as } n \to \infty \]

    Recordemos que en general, la convergencia en el cuadrado medio implica convergencia en probabilidad. La convergencia de la media de la muestra con la media de distribución en cuadrados medios y en probabilidad se conocen como leyes débiles de números grandes.

    Finalmente, la fuerte ley de números grandes establece que la media muestral\(M_n\) converge a la media de distribución\(\mu\) con probabilidad 1. Como su nombre indica, este es un resultado mucho más fuerte que las leyes débiles. Necesitaremos alguna notación adicional para la prueba. Primero déjalo\(Y_n = \sum_{i=1}^n X_i\) así\(M_n = Y_n / n\). A continuación, recordar las definiciones de las partes positivas y negativas un número real\(x\):\(x^+ = \max\{x, 0\}\),\(x^- = \max\{-x, 0\}\). Tenga en cuenta que\(x^+ \ge 0\)\(x^- \ge 0\),\(x = x^+ - x^-\), y\(|x| = x^+ + x^-\).

    \(M_n \to \mu\)como\(n \to \infty\) con probabilidad 1.

    Prueba

    La prueba se encuentra en tres grandes pasos. El primer paso es demostrar que con probabilidad 1,\(M_{n^2} \to \mu\) como\( n \to \infty\). De la desigualdad de Chebyshev,\(\P\left(\left|M_{n^2} - \mu\right| \gt \epsilon\right) \le \sigma^2 \big/ n^2 \epsilon^2 \) para todos\(n \in \N_+\) y cada uno\(\epsilon \gt 0\). Ya que\( \sum_{n=1}^\infty \sigma^2 \big/ n^2 \epsilon^2 \lt \infty \), se deduce del primer lema de Borel-Cantelli que para cada\(\epsilon \gt 0\),\[\P\left(\left|M_{n^2} - \mu \right| \gt \epsilon \text{ for infinitely many } n \in \N_+\right) = 0\] Siguiente, de la desigualdad de Boole se deduce que\[\P\left(\text{For some rational } \epsilon \gt 0, \left|M_{n^2} - \mu\right| \gt \epsilon \text{ for infinitely many } n \in \N_+\right) = 0\] Esto equivale al statment que\( M_{n^2} \to \mu \) como\( n \to \infty \) con probabilidad 1.

    Para nuestro siguiente paso, mostraremos que si la variable de muestreo subyacente es no negativa, de modo que\(\P(X \ge 0) = 1\), entonces\(M_n \to \mu\) como\( n \to \infty \). con probabilidad 1. Obsérvese primero que con probabilidad 1,\(Y_n\) está aumentando en\(n\). Para\(n \in \N_+\), deja\(k_n\) ser el entero positivo único tal que\(k_n^2 \le n \lt (k_n + 1)^2\). De la propiedad creciente y álgebra simple, se deduce que con probabilidad 1,\[ \frac{Y_{k_n^2}}{(k_n + 1)^2} \le \frac{Y_n}{n} \le \frac{Y_{(k_n + 1)^2}}{k_n^2} \] Desde nuestro primer paso, con probabilidad 1,\[ \frac{Y_{k_n^2}}{(k_n + 1)^2} = \frac{Y_{k_n^2}}{k_n^2} \frac{k_n^2}{(k_n+1)^2} \to \mu \text{ as } n \to \infty \] Similarmente con probabilidad 1\[ \frac{Y_{(k_n+1)^2}}{k_n^2} = \frac{Y_{(k_n+1)^2}}{(k_n+1)^2} \frac{(k_n+1)^2}{k_n^2} \to \mu \text{ as } n \to \infty \] Finalmente por el teorema de squeeze para límites se deduce que con probabilidad 1,\( M_n = Y_n / n \to \mu \) como\( n \to \infty \).

    Finalmente relajamos la condición de que la variable de muestreo subyacente no\(X\) sea negativa. Del paso dos, se deduce que\(\frac{1}{n} \sum_{i=1}^n X_i^+ \to \E\left(X^+\right)\) como\(n \to \infty\) con probabilidad 1, y\(\frac{1}{n} \sum_{i=1}^n X_i^- \to \E\left(X^-\right)\) como\(n \to \infty\) con probabilidad 1. Ahora del álgebra y la linealidad del valor esperado, con probabilidad 1,\[ \frac{1}{n} \sum_{i=1}^n X_i = \frac{1}{n}\sum_{i=1}^n \left(X_i^+ - X_i^-\right) = \frac{1}{n} \sum_{i=1}^n X_i^+ - \sum_{i=1}^n X_i^- \to \E\left(X^+\right) - \E\left(X^-\right) = \E\left(X^+ - X^-\right) = \E(X) \text{ as } n \to \infty \]

    La prueba de la fuerte ley de números grandes dada anteriormente requiere que la varianza de la distribución muestral sea finita (nótese que esto es crítico en el primer paso). No obstante, hay mejores pruebas que solo lo requieren\(\E\left(\left|X\right|\right) \lt \infty\). Una prueba elegante que demuestra que al\( M_n \to \mu \) igual que\( n \to \infty \) con la probabilidad 1 y en la media, utilizando martingales al revés, se da en el capítulo sobre martingales. En los siguientes párrafos, aplicamos la ley de grandes números a algunas de las estadísticas especiales estudiadas en el apartado anterior.

    Probabilidad Emprical

    Supongamos que\(X\) es la variable aleatoria de resultado para un experimento básico, con espacio muestral\(S\) y medida de probabilidad\(\P\). Ahora supongamos que repetimos el experimento básico indefinitley para formar una secuencia de variables aleatorias independientes\((X_1, X_2, \ldots)\) cada una con la misma distribución que\(X\). Es decir, tomamos muestras de la distribución de\(X\). Para\(A \subseteq S\), vamos a\(P_n(A)\) denotar la probabilidad empricial de\(A\) corresponder a la muestra\((X_1, X_2, \ldots, X_n)\):\[ P_n(A) = \frac{1}{n} \sum_{i=1}^n \bs{1}(X_i \in A) \] Ahora por supuesto,\(P_n(A)\) es una variable aleatoria para cada evento\(A\). De hecho, la suma\(\sum_{i=1}^n \bs{1}(X_i \in A)\) tiene la distribución binomial con parámetros\(n\) y\(\P(A)\).

    Para cada evento\(A\),

    1. \(\E\left[P_n(A)\right] = \P(A)\)
    2. \(\var\left[P_n(A)\right] = \frac{1}{n} \P(A) \left[1 - \P(A)\right]\)
    3. \(P_n(A) \to \P(A)\)como\(n \to \infty\) con probabilidad 1.
    Prueba

    Estos resultados se derivan de los resultados de esta sección, ya que\( P_n(A) \) es la media muestral para la muestra aleatoria\( \{\bs{1}(X_i \in A): i \in \{1, 2, \ldots, n\}\} \) de la distribución de\( \bs{1}(X \in A) \).

    Este caso especial de la ley de los grandes números es central en el concepto mismo de probabilidad: la frecuencia relativa de un evento converge a la probabilidad del evento a medida que se repite el experimento.

    La función de distribución empírica

    Supongamos ahora que\(X\) es una variable aleatoria de valor real para un experimento básico. Recordemos que la función de distribución de\(X\) es la función\(F\) dada por\[ F(x) = \P(X \le x), \quad x \in \R \] Ahora supongamos que repetimos indefinidamente el experimento básico para formar una secuencia de variables aleatorias independientes\((X_1, X_2, \ldots)\), cada una con la misma distribución que\(X\). Es decir, tomamos muestras de la distribución de\(X\). Dejar\(F_n\) denotar la función de distribución empírica correspondiente a la muestra\((X_1, X_2, \ldots, X_n)\):\[ F_n(x) = \frac{1}{n} \sum_{i=1}^n \bs{1}(X_i \le x), \quad x \in \R \] Ahora, por supuesto,\(F_n(x)\) es una variable aleatoria para cada uno\(x \in \R\). De hecho, la suma\(\sum_{i=1}^n \bs{1}(X_i \le x)\) tiene la distribución binomial con parámetros\(n\) y\(F(x)\).

    Para cada uno\(x \in \R\),

    1. \(\E\left[F_n(x)\right] = F(x)\)
    2. \(\var\left[F_n(x)\right] = \frac{1}{n} F(x) \left[1 - F(x)\right]\)
    3. \(F_n(x) \to F(x)\)como\(n \to \infty\) con probabilidad 1.
    Prueba

    Estos resultados siguen inmediatamente de los resultados de esta sección, ya que\( F_n(x) \) es la media muestral para la muestra aleatoria\( \{\bs{1}(X_i \le x): i \in \{1, 2, \ldots, n\}\} \) de la distribución de\( \bs{1}(X \le x) \).

    Densidad empírica para una variable discreta

    Supongamos ahora que\(X\) es una variable aleatoria para un experimento básico con una distribución discreta en un conjunto contable\(S\). Recordemos que la función de densidad de probabilidad de\(X\) es la función\(f\) dada por\[ f(x) = \P(X = x), \quad x \in S \] Ahora supongamos que repetimos el experimento básico para formar una secuencia de variables aleatorias independientes\((X_1, X_2, \ldots)\) cada una con la misma distribución que\(X\). Es decir, tomamos muestras de la distribución de\(X\). Dejar\(f_n\) denotar la función de densidad de probabilidad empírica correspondiente a la muestra\((X_1, X_2, \ldots, X_n)\):\[ f_n(x) = \frac{1}{n} \sum_{i=1}^n \bs{1}(X_i = x), \quad x \in S \] Ahora, por supuesto,\(f_n(x)\) es una variable aleatoria para cada uno\(x \in S\). De hecho, la suma\(\sum_{i=1}^n \bs{1}(X_i = x)\) tiene la distribución binomial con parámetros\(n\) y\(f(x)\).

    Para cada uno\(x \in S\),

    1. \(\E\left[f_n(x)\right] = f(x)\)
    2. \(\var\left[f_n(x)\right] = \frac{1}{n} f(x) \left[1 - f(x)\right]\)
    3. \(f_n(x) \to f(x)\)como\(n \to \infty\) con probabilidad 1.
    Prueba

    Estos resultados siguen inmediatamente de los resultados de esta sección, ya que\( f_n(x) \) es la media muestral para la muestra aleatoria\( \{\bs{1}(X_i = x): i \in \{1, 2, \ldots, n\}\} \) de la distribución de\( \bs{1}(X = x) \).

    Recordemos que una intersección contable de eventos con probabilidad 1 todavía tiene probabilidad 1. Así, en el contexto del teorema anterior, en realidad tenemos\[ \P\left[f_n(x) \to f(x) \text{ as } n \to \infty \text{ for every } x \in S\right] = 1 \]

    Densidad empírica para una variable continua

    Supongamos ahora que\(X\) es una variable aleatoria para un experimento básico, con una distribución continua encendida\(S \subseteq \R^d\), y que\(X\) tiene función de densidad de probabilidad\(f\). Técnicamente,\(f\) es la función de densidad de probabilidad con respecto a la medida estándar (Lebsesgue)\(\lambda_d\). Así, por definición,\[ \P(X \in A) = \int_A f(x) \, dx, \quad A \subseteq S \] nuevamente repetimos el experimento básico para generar una secuencia de variables aleatorias independientes\((X_1, X_2, \ldots)\) cada una con la misma distribución que\(X\). Es decir, tomamos muestras de la distribución de\(X\). Supongamos ahora que\(\mathscr{A} = \{A_j: j \in J\}\) es una partición de\(S\) en un número contable de subconjuntos, cada uno con un tamaño positivo y finito. Dejar\(f_n\) denotar la función de densidad de probabilidad empírica correspondiente a la muestra\((X_1, X_2, \ldots, X_n)\) y a la partición\(\mathscr{A}\): Por\[ f_n(x) = \frac{P_n(A_j)}{\lambda_d(A_j)} = \frac{1}{n \, \lambda_d(A_j)} \sum_{i=1}^n \bs{1}(X_i \in A_j); \quad j \in J, \; x \in A_j \] supuesto ahora,\(f_n(x)\) es una variable aleatoria para cada uno\(x \in S\). Si la partición es suficientemente fina (por lo que\(\lambda_d(A_j)\) es pequeña para cada una\(j\)), y si el tamaño de la muestra\(n\) es suficientemente grande, entonces por la ley de grandes números,\[ f_n(x) \approx f(x), \quad x \in S \]

    Ejercicios

    Ejercicios de simulación

    En el experimento de dados, recuerde que las puntuaciones de dados forman una muestra aleatoria a partir de la distribución de dados especificada. Seleccione la variable aleatoria promedio, que es la media muestral de la muestra de puntuaciones de dados. Para cada distribución de troqueles, comience con 1 dado y aumente el tamaño de la muestra\(n\). Observe cómo la distribución de la media de la muestra comienza a parecerse a una distribución de masa puntual. Obsérvese también que la media de la media muestral permanece igual, pero la desviación estándar de la media muestral disminuye. Para valores seleccionados\(n\) y distribuciones de matrices seleccionadas, ejecute la simulación 1000 veces y compare la función de frecuencia relativa de la media de la muestra con la función de densidad de probabilidad verdadera, y compare los momentos empíricos de la media de la muestra con los momentos verdaderos.

    Varias aplicaciones en este proyecto son simulaciones de experimentos aleatorios con eventos de interés. Cuando ejecutas el experimento, estás realizando replicaciones independientes del experimento. En la mayoría de los casos, la app muestra la frecuencia relativa del evento y su complemento, tanto gráficamente en azul como numéricamente en una tabla. Cuando ejecutas el experimento, las frecuencias relativas se muestran gráficamente en rojo y también numéricamente.

    En la simulación del experimento de monedas de Buffon, el evento de interés es que la moneda cruza una grieta. Para varios valores del parámetro (el radio de la moneda), ejecute el experimento 1000 veces y compare la frecuencia relativa del evento con la probabilidad verdadera.

    En la simulación del experimento de Bertrand, el evento de interés es que un acorde aleatorio en un círculo será más largo que la longitud de un lado del triángulo equilátero inscrito. Para cada uno de los diversos modelos, ejecute el experimento 1000 veces y compuare la frecuencia relativa del evento a la probabilidad verdadera.

    Muchas de las aplicaciones de este proyecto son simulaciones de experimentos que dan como resultado variables discretas. Cuando ejecutas la simulación, estás realizando replicaciones independientes del experimento. En la mayoría de los casos, la aplicación muestra la función de densidad de probabilidad verdadera numéricamente en una tabla y visualmente como un gráfico de barras azul. Al ejecutar la simulación, la función de frecuencia relativa también se muestra numéricamente en la tabla y visualmente como un gráfico de barras rojo.

    En la simulación del experimento de monedas binomiales, seleccione el número de cabezas. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y compare la media de la muestra con la media de distribución, y compare la función de densidad empírica con la función de densidad de probabilidad.

    En la simulación del experimento de emparejamiento, la variable aleatoria es el número de coincidencias. Para los valores seleccionados del parámetro, ejecute la simulación 1000 veces y compare la media de la muestra y la media de distribución, y compare la función de densidad empírica con la función de densidad de probabilidad.

    En el experimento de poker, la variable aleatoria es el tipo de mano. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

    Muchas de las aplicaciones de este proyecto son simulaciones de experimentos que dan como resultado variables con distribuciones continuas. Cuando ejecutas la simulación, estás realizando replicaciones independientes del experimento. En la mayoría de los casos, la aplicación muestra la función de densidad de probabilidad verdadera visualmente como un gráfico azul. Cuando ejecuta la simulación, una función de densidad empírica, basada en una partición, también se muestra visualmente como un gráfico de barras rojas.

    En la simulación del experimento gamma, la variable aleatoria representa un tiempo de llegada aleatorio. Para valores seleccionados de los parámetros, ejecute el experimento 1000 veces y compare la media de la muestra con la media de distribución, y compare la función de densidad empírica con la función de densidad de probabilidad.

    En el simulador de distribución especial, seleccione la distribución normal. Para diversos valores de los parámetros (la media y desviación estándar), ejecute el experimento 1000 veces y compare la media de la muestra con la media de distribución, y compare la función de densidad empírica con la función de densidad de probabilidad.

    Ejercicios de Probabilidad

    Supongamos que\(X\) tiene función de densidad de probabilidad\(f(x) = 12 x^2 (1 - x)\) para\(0 \le x \le 1\). La distribución de\(X\) es un miembro de la familia beta. Compute cada uno de los siguientes

    1. \(\E(X)\)
    2. \(\var(X)\)
    3. \(\P\left(X \le \frac{1}{2}\right)\)
    Responder
    1. \(\frac{3}{5}\)
    2. \(\frac{1}{25}\)
    3. \(\frac{5}{16}\)

    Supongamos ahora que\((X_1, X_2, \ldots, X_9)\) es una muestra aleatoria de tamaño 9 de la distribución en el problema anterior. Encuentra el valor esperado y varianza de cada una de las siguientes variables aleatorias:

    1. La media de la muestra\(M\)
    2. La probabilidad empírica\(P\left(\left[0, \frac{1}{2}\right]\right)\)
    Responder
    1. \(\frac{3}{5}, \; \frac{1}{225}\)
    2. \(\frac{5}{16}, \; \frac{55}{2304}\)

    Supongamos que\(X\) tiene función de densidad de probabilidad\(f(x) = \frac{3}{x^4}\) para\(1 \le x \lt \infty\). La distribución de\(X\) es un miembro de la familia Pareto. Compute cada uno de los siguientes

    1. \(\E(X)\))
    2. \(\var(X)\)
    3. \(\P(2 \le X \le 3)\)
    Responder
    1. \(\frac{3}{2}\)
    2. \(\frac{3}{4}\)
    3. \(\frac{19}{216}\)

    Supongamos ahora que\(\left(X_1, X_2, \ldots, X_{16}\right)\) es una muestra aleatoria de tamaño 16 de la distribución en el problema anterior. Encuentra el valor esperado y varianza de cada una de las siguientes variables aleatorias:

    1. La media de la muestra\(M\)
    2. La probabilidad empírica\(P\left([2, 3]\right)\)
    Responder
    1. \(\frac{3}{2}, \; \frac{3}{64}\)
    2. \(\frac{19}{216}, \frac{3743}{746 \; 496}\)

    Recordemos que para una matriz plana as-seis, las caras 1 y 6 tienen probabilidad\(\frac{1}{4}\) cada una, mientras que las caras 2, 3, 4 y 5 tienen probabilidad\(\frac{1}{8}\) cada una. Dejar\(X\) denotar el marcador cuando se lanza un dado plano as-seis. Calcular cada uno de los siguientes:

    1. La función de densidad de probabilidad\(f(x)\) para\(x \in \{1, 2, 3, 4, 5, 6\}\)
    2. La función de distribución\(F(x)\) para\(x \in \{1, 2, 3, 4, 5, 6\}\)
    3. \(\E(X)\)
    4. \(\var(X)\)
    Responder
    1. \(f(x) = \frac{1}{4}, \; x \in \{1, 6\}; \quad f(x) = \frac{1}{8}, \; x \in \{2, 3, 4, 5\}\)
    2. \(F(1) = \frac{1}{4}, \; F(2) = \frac{3}{8}, \; F(3) = \frac{1}{2}, \; F(4) = \frac{5}{8}, \; F(5) = \frac{3}{4}, \; F(6) = 1\)
    3. \(\E(X) = \frac{7}{2}\)
    4. \(\var(X) = \frac{15}{4}\)

    Supongamos ahora que se lanza\( n \) veces un dado plano ace-seis. Encuentra el valor esperado y varianza de cada una de las siguientes variables aleatorias:

    1. La función empírica de densidad de probabilidad\(f_n(x)\) para\(x \in \{1, 2, 3, 4, 5, 6\}\)
    2. La función de distribución empírica\(F_n(x)\) para\(x \in \{1, 2, 3, 4, 5, 6\}\)
    3. El puntaje promedio\(M\)
    Responder
    1. \(\E[f_n(x)] = \frac{1}{4}, \; x \in \{1, 6\}; \quad \E[f_n(x)] = \frac{1}{8}, \; x \in \{2, 3, 4, 5\}\)
    2. \(\var[f_n(x)] = \frac{3}{16 n}, \; x \in \{1, 6\}; \quad \var[f_n(x)] = \frac{7}{64 n}, \; x \in \{2, 3, 4, 5\}\)
    3. \(\E[F_n(1)] = \frac{1}{4}, \; \E[F_n(2)] = \frac{3}{8}, \; \E[F_n(3)] = \frac{1}{2}, \; \E[F_n(4)] = \frac{5}{8}, \; \E[F_n(5)] = \frac{3}{4}, \; \E[F_n(6)] = 1\)
    4. \(\var[F_n(1)] = \frac{3}{16 n}, \; \var[F_n(2)] = \frac{15}{64 n}, \; \var[F_n(3)] = \frac{1}{4 n}, \; \var[F_n(4)] = \frac{15}{64 n}, \; \var[F_n(5)] = \frac{3}{16 n}, \; \var[F_n(6)] = 0\)
    5. \(\E(M) = \frac{7}{2}, \; \var(M) = \frac{15}{4 n}\)

    This page titled 6.3: La Ley de los Grandes Números is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.