Saltar al contenido principal
Library homepage
 
LibreTexts Español

7.2: El método de los momentos

  • Page ID
    152057
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\Z}{\mathbb{Z}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\sd}{\text{sd}}\)\(\newcommand{\cov}{\text{cov}}\)\(\newcommand{\cor}{\text{cor}}\)\(\newcommand{\bias}{\text{bias}}\)\(\newcommand{\mse}{\text{mse}}\)\(\newcommand{\bs}{\boldsymbol}\)

    Teoría Básica

    El Método

    Supongamos que tenemos un experimento aleatorio básico con una variable aleatoria observable de valor real\(X\). La distribución de\(X\) tiene parámetros\(k\) desconocidos de valor real, o equivalentemente, un vector de parámetros\(\bs{\theta} = (\theta_1, \theta_2, \ldots, \theta_k)\) que toma valores en un espacio de parámetros, un subconjunto de\( \R^k \). Como es habitual, repetimos los\(n\) tiempos del experimento para generar una muestra aleatoria de tamaño\(n\) a partir de la distribución de\(X\). \[ \bs{X} = (X_1, X_2, \ldots, X_n) \]Así,\(\bs{X}\) es una secuencia de variables aleatorias independientes, cada una con la distribución de\(X\). El método de momentos es una técnica para construir estimadores de los parámetros que se basa en emparejar los momentos de muestra con los momentos de distribución correspondientes. Primero, vamos\[ \mu^{(j)}(\bs{\theta}) = \E\left(X^j\right), \quad j \in \N_+ \] así que ese\(\mu^{(j)}(\bs{\theta})\) es el momento\(j\) th de\(X\) aproximadamente 0. Obsérvese que estamos enfatizando la dependencia de estos momentos del vector de parámetros\(\bs{\theta}\). Tenga en cuenta también que\(\mu^{(1)}(\bs{\theta})\) es solo la media de\(X\), que solemos denotar simplemente por\(\mu\). A continuación, vamos\[ M^{(j)}(\bs{X}) = \frac{1}{n} \sum_{i=1}^n X_i^j, \quad j \in \N_+ \] así que ese\(M^{(j)}(\bs{X})\) es el momento de muestra\(j\) th sobre 0. Equivalentemente,\(M^{(j)}(\bs{X})\) es la media muestral para la muestra aleatoria\(\left(X_1^j, X_2^j, \ldots, X_n^j\right)\) a partir de la distribución de\(X^j\). Tenga en cuenta que estamos enfatizando la dependencia de los momentos de muestra en la muestra\(\bs{X}\). Obsérvese también que\(M^{(1)}(\bs{X})\) es solo la media muestral ordinaria, que usualmente solo denotamos por\(M\) (o por\( M_n \) si queremos enfatizar la dependencia del tamaño de la muestra). De nuestro trabajo anterior, sabemos que\(M^{(j)}(\bs{X})\) es un estimador imparcial y consistente de\(\mu^{(j)}(\bs{\theta})\) para cada uno\(j\). Así es como funciona el método:

    Para construir el método de estimadores de momentos\(\left(W_1, W_2, \ldots, W_k\right)\) para los parámetros\((\theta_1, \theta_2, \ldots, \theta_k)\) respectivamente, consideramos las ecuaciones\[ \mu^{(j)}(W_1, W_2, \ldots, W_k) = M^{(j)}(X_1, X_2, \ldots, X_n) \] consecutivamente para\( j \in \N_+ \) hasta que seamos capaces de resolver para\(\left(W_1, W_2, \ldots, W_k\right)\) en términos de\(\left(M^{(1)}, M^{(2)}, \ldots\right)\).

    Las ecuaciones para\( j \in \{1, 2, \ldots, k\} \) dar\(k\) ecuaciones en\(k\) incógnitas, por lo que hay esperanza (pero ninguna garantía) de que las ecuaciones puedan resolverse\( (W_1, W_2, \ldots, W_k) \) en términos de\( (M^{(1)}, M^{(2)}, \ldots, M^{(k)}) \). De hecho, a veces necesitamos ecuaciones con\( j \gt k \). El ejercicio 28 a continuación da un ejemplo sencillo. El método de los momentos se puede extender a parámetros asociados con distribuciones bivariadas o multivariadas más generales, haciendo coincidir los momentos de producto de muestra con los momentos de producto de distribución correspondientes. El método de los momentos también a veces tiene sentido cuando las variables de muestra no\( (X_1, X_2, \ldots, X_n) \) son independientes, sino que al menos están distribuidas de manera idéntica. El modelo hipergeométrico a continuación es un ejemplo de esto.

    Por supuesto, el método de los estimadores de momentos depende del tamaño de la muestra\( n \in \N_+ \). Esto lo hemos suprimido hasta ahora, para mantener la notación simple. Pero en las siguientes aplicaciones, volvemos a poner la notación porque queremos discutir el comportamiento asintótico.

    Estimaciones para la media y varianza

    Estimar la media y varianza de una distribución son las aplicaciones más simples del método de los momentos. A lo largo de esta subsección, asumimos que tenemos una variable aleatoria básica de valor real\( X \) con\( \mu = \E(X) \in \R \) y\( \sigma^2 = \var(X) \in (0, \infty) \). Ocasionalmente también necesitaremos\( \sigma_4 = \E[(X - \mu)^4] \), el cuarto momento central. Muestreamos de la distribución de\( X \) para producir una secuencia\( \bs X = (X_1, X_2, \ldots) \) de variables independientes, cada una con la distribución de\( X \). Para cada uno\( n \in \N_+ \),\( \bs X_n = (X_1, X_2, \ldots, X_n) \) es una muestra aleatoria de tamaño\( n \) a partir de la distribución de\( X \). Comenzamos por estimar la media, la cual es esencialmente trivial por este método.

    Supongamos que se\(\mu\) desconoce la media. El método del estimador de momentos\( \mu \) basado en\( \bs X_n \) es la media muestral\[ M_n = \frac{1}{n} \sum_{i=1}^n X_i\]

    1. \( \E(M_n) = \mu \)por lo que\( M_n \) es imparcial para\( n \in \N_+ \)
    2. \( \var(M_n) = \sigma^2/n \)pues\( n \in \N_+ \) así\( \bs M = (M_1, M_2, \ldots) \) es consistente.
    Prueba

    No se pone más básico que esto. El método de los momentos funciona haciendo coincidir la media de distribución con la media de la muestra. El hecho de que\( \E(M_n) = \mu \) y\( \var(M_n) = \sigma^2 / n \) para\( n \in \N_+ \) son propiedades que hemos visto varias veces antes.

    Estimar la varianza de la distribución, por otro lado, depende de si la media de distribución\( \mu \) es conocida o desconocida. Primero consideraremos el caso más realista cuando la media también sea desconocida. Recordemos que para\( n \in \{2, 3, \ldots\} \), la varianza de la muestra basada en\( \bs X_n \) es\[ S_n^2 = \frac{1}{n - 1} \sum_{i=1}^n (X_i - M_n)^2 \] Recall también que\(\E(S_n^2) = \sigma^2\) así\( S_n^2 \) es imparcial para\( n \in \{2, 3, \ldots\} \), y que\(\var(S_n^2) = \frac{1}{n} \left(\sigma_4 - \frac{n - 3}{n - 1} \sigma^4 \right)\) así\( \bs S^2 = (S_2^2, S_3^2, \ldots) \) es consistente.

    Supongamos que tanto la media\( \mu \) como la varianza\( \sigma^2 \) son desconocidas. Para\( n \in \N_+ \), el método de estimador de momentos de\(\sigma^2\) basado en\( \bs X_n \) es\[T_n^2 = \frac{1}{n} \sum_{i=1}^n (X_i - M_n)^2\]

    1. \(\bias(T_n^2) = -\sigma^2 / n\)pues\( n \in \N_+ \) así\( \bs T^2 = (T_1^2, T_2^2, \ldots) \) es asintóticamente imparcial.
    2. \(\mse(T_n^2) = \frac{1}{n^3}\left[(n - 1)^2 \sigma_4 - (n^2 - 5 n + 3) \sigma^4\right]\)pues\( n \in \N_+ \) así\( \bs T^2 \) es consistente.
    Prueba

    Como antes, el método de estimador de momentos de la media de distribución\(\mu\) es la media muestral\(M_n\). Por otro lado,\(\sigma^2 = \mu^{(2)} - \mu^2\) y de ahí el método de momentos estimador de\(\sigma^2\) es\(T_n^2 = M_n^{(2)} - M_n^2\), que simplifica al resultado anterior. Tenga en cuenta que\(T_n^2 = \frac{n - 1}{n} S_n^2\) para\( n \in \{2, 3, \ldots\} \).

    1. Tenga en cuenta que\(\E(T_n^2) = \frac{n - 1}{n} \E(S_n^2) = \frac{n - 1}{n} \sigma^2\), entonces\(\bias(T_n^2) = \frac{n-1}{n}\sigma^2 - \sigma^2 = -\frac{1}{n} \sigma^2\).
    2. Recordemos eso\(\mse(T_n^2) = \var(T_n^2) + \bias^2(T_n^2)\). Pero\(\var(T_n^2) = \left(\frac{n-1}{n}\right)^2 \var(S_n^2)\). El resultado se desprende de la sustitución\(\var(S_n^2)\) dada anteriormente y\(\bias(T_n^2)\) en la parte a).

    De ahí\( T_n^2 \) que esté sesgado negativamente y en promedio subestime\(\sigma^2\). Debido a este resultado,\( T_n^2 \) se conoce como la varianza de muestra sesgada para distinguirla de la varianza de la muestra ordinaria (imparcial)\( S_n^2 \).

    A continuación consideremos el caso generalmente poco realista (pero matemáticamente interesante) donde se conoce la media, pero no la varianza.

    Supongamos que\( \mu \) se conoce la media y se\( \sigma^2 \) desconoce la varianza. Para\( n \in \N_+ \), el método de estimador de momentos de\(\sigma^2\) basado en\( \bs X_n \) es\[ W_n^2 = \frac{1}{n} \sum_{i=1}^n (X_i - \mu)^2 \]

    1. \( \E(W_n^2) = \sigma^2 \)por lo que\( W_n^2 \) es imparcial para\( n \in \N_+ \)
    2. \(\var(W_n^2) = \frac{1}{n}(\sigma_4 - \sigma^4)\)pues\( n \in \N_+ \) así\( \bs W^2 = (W_1^2, W_2^2, \ldots) \) es consistente.
    Prueba

    Estos resultados siguen ya que\( \W_n^2 \) es la media muestral correspondiente a una muestra aleatoria de tamaño\( n \) a partir de la distribución de\( (X - \mu)^2 \).

    Se comparó la secuencia de estimadores\( \bs S^2 \) con la secuencia de estimadores\( \bs W^2 \) en la sección introductoria sobre Estimadores. Recordemos eso\( \var(W_n^2) \lt \var(S_n^2) \) para\( n \in \{2, 3, \ldots\} \) pero\( \var(S_n^2) / \var(W_n^2) \to 1 \) como\( n \to \infty \). No existe una relación simple, general entre\( \mse(T_n^2) \) y\( \mse(S_n^2) \) o entre\( \mse(T_n^2) \) y\( \mse(W_n^2) \), pero la relación asintótica es simple.

    \( \mse(T_n^2) / \mse(W_n^2) \to 1 \)y\( \mse(T_n^2) / \mse(S_n^2) \to 1 \) como\( n \to \infty \)

    Prueba

    A la luz de las observaciones anteriores, sólo tenemos que probar uno de estos límites. El primer límite es simple, ya que los coeficientes de\( \sigma_4 \) y\( \sigma^4 \) en\( \mse(T_n^2) \) son asintóticamente\( 1 / n \) como\( n \to \infty \).

    También se deduce que si ambos\( \mu \) y\( \sigma^2 \) son desconocidos, entonces el método de momentos estimador de la desviación estándar\( \sigma \) es\( T = \sqrt{T^2} \). En el improbable caso que\( \mu \) se conozca, pero se\( \sigma^2 \) desconozca, entonces el método de los momentos estimador de\( \sigma \) es\( W = \sqrt{W^2} \).

    Estimación de dos parámetros

    Hay varias distribuciones especiales importantes con dos paraemtros; algunas de ellas se incluyen en los ejercicios computacionales a continuación. Con dos parámetros, podemos derivar el método de los estimadores de momentos haciendo coincidir la media de distribución y la varianza con la media y varianza de la muestra, en lugar de hacer coincidir la media de distribución y el segundo momento con la media de la muestra y el segundo momento. Este enfoque alternativo a veces conduce a ecuaciones más fáciles. Para configurar la notación, supongamos que una distribución on\( \R \) tiene parámetros\( a \) y\( b \). Muestreamos de la distribución para producir una secuencia de variables independientes\( \bs X = (X_1, X_2, \ldots) \), cada una con la distribución común. Para\( n \in \N_+ \),\( \bs X_n = (X_1, X_2, \ldots, X_n) \) es una muestra aleatoria de tamaño\( n \) a partir de la distribución. Let\( M_n \),\( M_n^{(2)} \), y\( T_n^2 \) denota la media muestral, la media muestral de segundo orden y la varianza muestral sesgada correspondiente a\( \bs X_n \)\( \mu(a, b) \)\( \mu^{(2)}(a, b) \), y let, y\( \sigma^2(a, b) \) denota la media, media de segundo orden y varianza de la distribución.

    Si el método de los estimadores de momentos\( U_n \) y\( V_n \) de\( a \) y\( b \), respectivamente, se puede encontrar resolviendo las dos primeras ecuaciones\[ \mu(U_n, V_n) = M_n, \quad \mu^{(2)}(U_n, V_n) = M_n^{(2)} \] entonces\( U_n \) y también se\( V_n \) puede encontrar resolviendo las ecuaciones\[ \mu(U_n, V_n) = M_n, \quad \sigma^2(U_n, V_n) = T_n^2 \]

    Prueba

    Recordemos eso\( \sigma^2(a, b) = \mu^{(2)}(a, b) - \mu^2(a, b) \). Además,\( T_n^2 = M_n^{(2)} - M_n^2 \). De ahí que las ecuaciones\( \mu(U_n, V_n) = M_n \),\( \sigma^2(U_n, V_n) = T_n^2 \) sean equivalentes a las ecuaciones\( \mu(U_n, V_n) = M_n \),\( \mu^{(2)}(U_n, V_n) = M_n^{(2)} \).

    Debido a este resultado, la varianza muestral sesgada\( T_n^2 \) aparecerá en muchos de los problemas de estimación para distribuciones especiales que consideramos a continuación.

    Distribuciones especiales

    La distribución normal

    La distribución normal con media\( \mu \in \R \) y varianza\( \sigma^2 \in (0, \infty) \) es una distribución continua\( \R \) con función de densidad de probabilidad\( g \) dada por\[ g(x) = \frac{1}{\sqrt{2 \pi} \sigma} \exp\left[-\frac{1}{2}\left(\frac{x - \mu}{\sigma}\right)^2\right], \quad x \in \R \] Esta es una de las distribuciones más importantes en probabilidad y estadística, principalmente por el límite central teorema. La distribución normal se estudia con más detalle en el capítulo sobre Distribuciones Especiales.

    Supongamos ahora que\( \bs{X} = (X_1, X_2, \ldots, X_n) \) es una muestra aleatoria de tamaño\( n \) a partir de la distribución normal con media\( \mu \) y varianza\( \sigma^2 \). Formar nuestro trabajo general anterior, sabemos que si\( \mu \) se desconoce entonces la media muestral\( M \) es el método de estimador de momentos de\( \mu \), y si además,\( \sigma^2 \) se desconoce entonces el método de estimador de momentos de\( \sigma^2 \) es\( T^2 \). Por otro lado, en el improbable caso que\( \mu \) se conoce entonces\( W^2 \) es el método de los momentos estimador de\( \sigma^2 \). Nuestro objetivo es ver cómo las comparaciones anteriores simplifican para la distribución normal.

    Errores cuadráticos medios de\( S_n^2 \) y\( T_n^2 \).

    1. \(\mse(T^2) = \frac{2 n - 1}{n^2} \sigma^4\)
    2. \(\mse(S^2) = \frac{2}{n - 1} \sigma^4\)
    3. \(\mse(T^2) \lt \mse(S^2)\)para\(n \in \{2, 3, \ldots, \}\)
    Prueba

    Recordemos que para la distribución normal,\(\sigma_4 = 3 \sigma^4\). Sustituyendo esto en los resultados generales da las partes (a) y (b). La parte c) se desprende de los apartados a) y b). Por supuesto, la eficiencia relativa asintótica sigue siendo 1, de nuestro teorema anterior.

    Así,\(S^2\) y\(T^2\) se multiplican entre sí;\(S^2\) es imparcial, pero cuando la distribución muestral es normal,\(T^2\) tiene menor error cuadrático medio. Sorprendentemente,\(T^2\) tiene menor error cuadrático medio incluso que\(W^2\).

    Errores cuadráticos medios de\( T^2 \) y\( W^2 \).

    1. \(\mse(W^2) = \frac{2}{n} \sigma^4\)
    2. \(\mse(T^2) \lt \mse(W^2)\)para\(n \in \{2, 3, \ldots\}\)
    Prueba

    Nuevamente, dado que la distribución muestral es normal,\(\sigma_4 = 3 \sigma^4\). Sustituir esto en la fórmula gneral para\(\var(W_n^2)\) da la parte (a).

    Ejecutar el experimento de estimación normal 1000 veces para varios valores del tamaño de la muestra\(n\) y los parámetros\(\mu\) y\(\sigma\). Comparar el sesgo empírico y el error cuadrático medio de\(S^2\) y\(T^2\) de con sus valores teóricos. ¿Qué estimador es mejor en términos de sesgo? ¿Qué estimador es mejor en términos de error cuadrático medio?

    A continuación consideramos estimadores de la desviación estándar\( \sigma \). Como se señaló en la discusión general anterior,\( T = \sqrt{T^2} \) es el método del estimador de momentos cuando\( \mu \) se desconoce, mientras que\( W = \sqrt{W^2} \) es el método del estimador de momentos en el improbable evento que\( \mu \) se conoce. Otro estimador natural, por supuesto, es\( S = \sqrt{S^2} \), la desviación estándar de la muestra habitual. La siguiente secuencia, definida en términos de la función gamma, resulta importante en el análisis de los tres estimadores.

    Considera la secuencia\[ a_n = \sqrt{\frac{2}{n}} \frac{\Gamma[(n + 1) / 2)}{\Gamma(n / 2)}, \quad n \in \N_+ \] Entonces\( 0 \lt a_n \lt 1 \) para\( n \in \N_+ \) y\( a_n \uparrow 1 \) como\( n \uparrow \infty \).

    Primero, supongamos que\( \mu \) se conoce así que ese\( W_n \) es el método de estimador de momentos de\( \sigma \).

    Para\( n \in \N_+ \),

    1. \( \E(W) = a_n \sigma \)
    2. \( \bias(W) = (a_n - 1) \sigma \)
    3. \( \var(W) = \left(1 - a_n^2\right) \sigma^2 \)
    4. \( \mse(W) = 2 (1 - a_n) \sigma^2 \)
    Prueba

    Recordemos que\(U^2 = n W^2 / \sigma^2 \) tiene la distribución chi-cuadrada con\( n \) grados de libertad, y por lo tanto\( U \) tiene la distribución chi con\( n \) grados de libertad. Resolviendo da\[ W = \frac{\sigma}{\sqrt{n}} U \] De las fórmulas para la media y varianza de la distribución chi tenemos\ begin {align*}\ E (W) & =\ frac {\ sigma} {\ sqrt {n}}\ E (U) =\ frac {\ sigma} {\ sqrt {n}}\ sqrt {2}\ frac {\ Gamma [(n + 1)/2)} {\ Gamma (n/2))} =\ sigma a_n\\\ var (W) & =\ frac {\ sigma^2} {n}\ var (U) =\ frac {\ sigma^2} {n}\ izquierda\ {n - [\ E (U)] ^2\ derecha\} =\ sigma^2\ izquierda (1 - a_n^2\ derecha)\ final {alinear*}

    Por lo tanto,\( W \) está sesgado negativamente como estimador de\( \sigma \) pero asintóticamente imparcial y consistente. Por supuesto que sabemos que en general (independientemente de la distribución subyacente),\( W^2 \) es un estimador imparcial de\( \sigma^2 \) y por lo tanto\( W \) está sesgado negativamente como estimador de\( \sigma \). En el caso normal, ya que no\( a_n \) involucra parámetros desconocidos, el estadístico\( W / a_n \) es un estimador imparcial de\( \sigma \). A continuación consideramos la desviación estándar de la muestra habitual\( S \).

    Para\( n \in \{2, 3, \ldots\} \),

    1. \( \E(S) = a_{n-1} \sigma \)
    2. \( \bias(S) = (a_{n-1} - 1) \sigma \)
    3. \( \var(S) = \left(1 - a_{n-1}^2\right) \sigma^2 \)
    4. \( \mse(S) = 2 (1 - a_{n-1}) \sigma^2 \)
    Prueba

    Recordemos que\(V^2 = (n - 1) S^2 / \sigma^2 \) tiene la distribución chi-cuadrada con\( n - 1 \) grados de libertad, y por lo tanto\( V \) tiene la distribución chi con\( n - 1 \) grados de libertad. La prueba procede ahora igual que en el teorema anterior, pero con la\( n - 1 \) sustitución\( n \).

    Al igual que con\( W \), el estadístico\( S \) está sesgado negativamente como estimador de\( \sigma \) pero asintóticamente imparcial, y también consistente. Dado que no\( a_{n - 1}\) involucra parámetros desconocidos, el estadístico\( S / a_{n-1} \) es un estimador imparcial de\( \sigma \). Tenga en cuenta también que, en términos de sesgo y error cuadrático medio,\( S \) con el tamaño de la muestra\( n \) se comporta como\( W \) con el tamaño de la muestra\( n - 1 \). Finalmente consideramos\( T \), el método de estimador de momentos de\( \sigma \) cuándo\( \mu \) es desconocido.

    Para\( n \in \{2, 3, \ldots\} \),

    1. \( \E(T) = \sqrt{\frac{n - 1}{n}} a_{n-1} \sigma \)
    2. \( \bias(T) = \left(\sqrt{\frac{n - 1}{n}} a_{n-1} - 1\right) \sigma \)
    3. \( \var(T) = \frac{n - 1}{n} \left(1 - a_{n-1}^2 \right) \sigma^2 \)
    4. \( \mse(T) = \left(2 - \frac{1}{n} - 2 \sqrt{\frac{n-1}{n}} a_{n-1} \right) \sigma^2 \)
    Prueba

    Los resultados se desprenden fácilmente del teorema anterior desde entonces\( T_n = \sqrt{\frac{n - 1}{n}} S_n \).

    La distribución de Bernoulli

    Recordemos que una variable indicadora es una variable aleatoria\( X \) que toma solo los valores 0 y 1. La distribución de\( X \) se conoce como la distribución de Bernoulli, llamada así por Jacob Bernoulli, y tiene la función de densidad de probabilidad\( g \) dada por\[ g(x) = p^x (1 - p)^{1 - x}, \quad x \in \{0, 1\} \] donde\( p \in (0, 1) \) está el parámetro de éxito. La media de la distribución es\( p \) y la varianza es\( p (1 - p) \).

    Supongamos ahora que\( \bs{X} = (X_1, X_2, \ldots, X_n) \) es una muestra aleatoria de tamaño\( n \) de la distribución de Bernoulli con parámetro de éxito desconocido\( p \). Dado que la media de la distribución es\( p \), de nuestro trabajo general anterior se desprende que el método de estimador de momentos de\( p \) es\( M \), la media muestral. En este caso, la muestra\( \bs{X} \) es una secuencia de ensayos de Bernoulli, y\( M \) tiene una versión escalada de la distribución binomial con parámetros\( n \) y\( p \):\[ \P\left(M = \frac{k}{n}\right) = \binom{n}{k} p^k (1 - p)^{n - k}, \quad k \in \{0, 1, \ldots, n\} \] Tenga en cuenta que ya que\( X^k = X \) para cada\( k \in \N_+ \), se deduce que\( \mu^{(k)} = p \) y\( M^{(k)} = M \) para cada \( k \in \N_+ \). Entonces cualquiera de los métodos de ecuaciones de momentos conduciría a la media muestral\( M \) como el estimador de\( p \). Aunque muy simple, esta es una aplicación importante, ya que los ensayos de Bernoulli se encuentran incrustados en todo tipo de problemas de estimación, como las funciones de densidad de probabilidad empírica y las funciones de distribución empírica.

    La distribución geométrica

    La distribución geométrica en el parámetro\(\N_+\) con éxito\(p \in (0, 1)\) tiene función de densidad de probabilidad\( g \) dada por\[ g(x) = p (1 - p)^{x-1}, \quad x \in \N_+ \] La distribución geométrica en\( \N_+ \) gobierna el número de ensayos necesarios para obtener el primer éxito en una secuencia de ensayos de Bernoulli con éxito parámetro\( p \). La media de la distribución es\(\mu = 1 / p\).

    Supongamos que\(\bs{X} = (X_1, X_2, \ldots, X_n)\) es una muestra aleatoria de tamaño\(n\) a partir de la distribución geométrica\( \N_+ \) con parámetro de éxito desconocido\(p\). El método de estimador de momentos de\(p\) es\[U = \frac{1}{M}\]

    Prueba

    El método de ecuación de momentos para\(U\) es\(1 / U = M\).

    El parámetro de distribución geométrica on\( \N \) with success\( p \in (0, 1) \) tiene función de densidad de probabilidad\[ g(x) = p (1 - p)^x, \quad x \in \N \] Esta versión de la distribución geométrica gobierna el número de fallas antes del primer éxito en una secuencia de ensayos de Bernoulli. La media de la distribución es\( \mu = (1 - p) \big/ p \).

    Supongamos que\(\bs{X} = (X_1, X_2, \ldots, X_n)\) es una muestra aleatoria de tamaño\(n\) a partir de la distribución geométrica\( \N \) con parámetro desconocido\(p\). El método de estimador de momentos de\(p\) es\[U = \frac{1}{M + 1}\]

    Prueba

    El método de ecuación de momentos para\(U\) es\((1 - U) \big/ U = M\).

    La distribución binomial negativa

    De manera más general, la distribución binomial negativa on\( \N \) con el parámetro shape\( k \in (0, \infty) \) y el parámetro success\( p \in (0, 1) \) tiene función de densidad de probabilidad\[ g(x) = \binom{x + k - 1}{k - 1} p^k (1 - p)^x, \quad x \in \N \] Si\( k \) es un entero positivo, entonces esta distribución gobierna el número de fallas antes de la\( k \) th éxito en una secuencia de ensayos de Bernoulli con parámetro de éxito\( p \). Sin embargo, la distribución tiene sentido para general\( k \in (0, \infty) \). La distribución binomial negativa se estudia con más detalle en el capítulo de Ensayos de Bernoulli. La media de la distribución es\( k (1 - p) \big/ p \) y la varianza es\( k (1 - p) \big/ p^2 \). Supongamos ahora que\(\bs{X} = (X_1, X_2, \ldots, X_n)\) es una muestra aleatoria de tamaño\(n\) a partir de la distribución binomial negativa\( \N \) con parámetro shape\( k \) y parámetro success\( p \)

    Si\( k \) y\( p \) son desconocidos, entonces el método correspondiente de los estimadores de momentos\( U \) y\( V \) son\[ U = \frac{M^2}{T^2 - M}, \quad V = \frac{M}{T^2} \]

    Prueba

    Coincidir la media de distribución y varianza con la media y varianza de la muestra da las ecuaciones\[ U \frac{1 - V}{V} = M, \quad U \frac{1 - V}{V^2} = T^2 \]

    Como es habitual, los resultados son más agradables cuando se conoce uno de los parámetros.

    Supongamos que\( k \) se sabe pero\( p \) se desconoce. El método de estimador\( V_k \) de momentos de\( p \) es\[ V_k = \frac{k}{M + k} \]

    Prueba

    La coincidencia de la media de distribución con la media de la muestra da la ecuación\[ k \frac{1 - V_k}{V_k} = M \]

    Supongamos que\( k \) se desconoce pero\( p \) se conoce. El método de estimador de momentos de\( k \) es\[ U_p = \frac{p}{1 - p} M \]

    1. \( \E(U_p) = k \)así\( U_p \) es imparcial.
    2. \( \var(U_p) = \frac{k}{n (1 - p)} \)por lo que\( U_p \) es consistente.
    Prueba

    Al hacer coincidir la media de distribución con la media de la muestra se obtiene la ecuación\( U_p \frac{1 - p}{p} = M\).

    1. \( E(U_p) = \frac{p}{1 - p} \E(M)\)y\(\E(M) = \frac{1 - p}{p} k\)
    2. \( \var(U_p) = \left(\frac{p}{1 - p}\right)^2 \var(M) \)y\( \var(M) = \frac{1}{n} \var(X) = \frac{1 - p}{n p^2} \)

    La distribución de Poisson

    La distribución de Poisson con parámetro\( r \in (0, \infty) \) es una distribución discreta\( \N \) con función de densidad de probabilidad\( g \) dada por\[ g(x) = e^{-r} \frac{r^x}{x!}, \quad x \in \N \] La media y varianza son ambas\( r \). La distribución lleva el nombre de Simeon Poisson y es ampliamente utilizada para modelar el número de puntos aleatorios es una región de tiempo o espacio. El parámetro\( r \) es proporcional al tamaño de la región, desempeñando la constante de proporcionalidad el papel de la tasa promedio a la que se distribuyen los puntos en tiempo o espacio. La distribución de Poisson se estudia con más detalle en el capítulo sobre el Proceso de Poisson.

    Supongamos ahora que\( \bs{X} = (X_1, X_2, \ldots, X_n) \) es una muestra aleatoria de tamaño\( n \) de la distribución de Poisson con parámetro\( r \). Ya que\( r \) es la media, se deduce de nuestro trabajo general anterior que el método de estimador de momentos de\( r \) es la media muestral\( M \).

    La distribución Gamma

    La distribución gamma con parámetro de forma\(k \in (0, \infty) \) y parámetro de escala\(b \in (0, \infty)\) es una distribución continua\( (0, \infty) \) con función de densidad de probabilidad\( g \) dada por\[ g(x) = \frac{1}{\Gamma(k) b^k} x^{k-1} e^{-x / b}, \quad x \in (0, \infty) \] La función de densidad de probabilidad gamma tiene una variedad de formas, por lo que esta distribución se utiliza para modelar varios tipos de variables aleatorias positivas. La distribución gamma se estudia con más detalle en el capítulo sobre Distribuciones Especiales. La media es\(\mu = k b\) y la varianza es\(\sigma^2 = k b^2\).

    Supongamos ahora que\(\bs{X} = (X_1, X_2, \ldots, X_n)\) es una muestra aleatoria de la distribución gamma con el parámetro shape\(k\) y el parámetro scale\(b\).

    Supongamos que\(k\) y ambos\(b\) son desconocidos, y dejar\(U\) y\(V\) ser el método correspondiente de los estimadores de momentos. Entonces\[ U = \frac{M^2}{T^2}, \quad V = \frac{T^2}{M}\]

    Prueba

    Emparejar la media de distribución y la varianza con la media y varianza de la muestra conduce a las ecuaciones\(U V = M\),\(U V^2 = T^2\). Resolver da los resultados.

    El método de los estimadores de momentos\(k\) y\(b\) dados en el ejercicio anterior son funciones complicadas, no lineales de la media muestral\(M\) y la varianza muestral\(T^2\). Así, computar el sesgo y los errores cuadráticos medios de estos estimadores son problemas difíciles que no intentaremos. Sin embargo, podemos juzgar la calidad de los estimadores empíricamente, a través de simulaciones.

    Cuando se conoce uno de los parámetros, el método de estimador de momentos del otro parámetro es mucho más sencillo.

    Supongamos que eso\(k\) es desconocido, pero\(b\) es conocido. El método de estimador de momentos de\( k \) es\[U_b = \frac{M}{b}\]

    1. \( \E(U_b) = k \)así\(U_b\) es imparcial.
    2. \(\var(U_b) = k / n\)por lo que\(U_b\) es consistente.
    Prueba

    Si\(b\) se conoce, entonces el método de ecuación de momentos para\(U_b\) es\(b U_b = M\). Resolver da (a). A continuación\(\E(U_b) = \E(M) / b = k b / b = k\),, así\(U_b\) es imparcial. Por último\(\var(U_b) = \var(M) / b^2 = k b ^2 / (n b^2) = k / n\).

    Supongamos que eso\(b\) es desconocido, pero\(k\) es conocido. El método de estimador de momentos de\(b\) es\[V_k = \frac{M}{k}\]

    1. \( \E(V_k) = b \)así\(V_k\) es imparcial.
    2. \( \var(V_k) = b^2 / k n \)por lo que\(V_k\) es consistente.
    Prueba

    Si\(k\) se conoce, entonces el método de ecuación de momentos para\(V_k\) es\(k V_k = M\). Resolver da (a). A continuación\(\E(V_k) = \E(M) / k = k b / k = b\),, así\(V_k\) es imparcial. Por último\(\var(V_k) = \var(M) / k^2 = k b ^2 / (n k^2) = b^2 / k n\).

    Ejecutar el experimento de estimación gamma 1000 veces para varios valores diferentes del tamaño de la muestra\(n\) y los parámetros\(k\) y\(b\). Obsérvese el sesgo empírico y el error cuadrático medio de los estimadores\(U\)\(V\)\(U_b\),, y\(V_k\). Uno pensaría que los estimadores cuando se conoce uno de los parámetros deberían funcionar mejor que los estimadores correspondientes cuando se desconocen ambos parámetros; pero investigar esta cuestión empíricamente.

    La distribución beta

    La distribución beta con parámetro izquierdo\(a \in (0, \infty) \) y parámetro derecho\(b \in (0, \infty)\) es una distribución continua\( (0, 1) \) con función de densidad de probabilidad\( g \) dada por\[ g(x) = \frac{1}{B(a, b)} x^{a-1} (1 - x)^{b-1}, \quad 0 \lt x \lt 1 \] La función de densidad de probabilidad beta tiene una variedad de formas, por lo que esta distribución es ampliamente utilizada para modelar varios tipos de variables aleatorias que toman valores en intervalos delimitados. La distribución beta se estudia con más detalle en el capítulo sobre Distribuciones Especiales. Los dos primeros momentos son\(\mu = \frac{a}{a + b}\) y\(\mu^{(2)} = \frac{a (a + 1)}{(a + b)(a + b + 1)}\).

    Supongamos ahora que\(\bs{X} = (X_1, X_2, \ldots, X_n)\) es una muestra aleatoria de tamaño\(n\) de la distribución beta con parámetro izquierdo\(a\) y parámetro derecho\(b\).

    Supongamos que\(a\) y ambos\(b\) son desconocidos, y dejar\(U\) y\(V\) ser el método correspondiente de los estimadores de momentos. Entonces\[U = \frac{M \left(M - M^{(2)}\right)}{M^{(2)} - M^2}, \quad V = \frac{(1 - M)\left(M - M^{(2)}\right)}{M^{(2)} - M^2}\]

    Prueba

    El método de ecuaciones de momentos para\(U\) y\(V\) son\[\frac{U}{U + V} = M, \quad \frac{U(U + 1)}{(U + V)(U + V + 1)} = M^{(2)}\] Resolviendo da el resultado.

    El método de los estimadores de momentos de\(a\) y\(b\) dados en el ejercicio anterior son complicadas funciones no lineales de los momentos de muestra\(M\) y\(M^{(2)}\). Por lo tanto, no intentaremos determinar el sesgo y los errores cuadráticos medios analíticamente, sino que tendrá la oportunidad de explorarlos empricialmente a través de una simulación.

    Supongamos que eso\(a\) es desconocido, pero\(b\) es conocido. Dejar\(U_b\) ser el método de los momentos estimador de\(a\). Entonces\[ U_b = b \frac{M}{1 - M} \]

    Prueba

    Si\(b\) se conoce entonces el método de ecuación de momentos para\(U_b\) como estimador de\(a\) es\(U_b \big/ (U_b + b) = M\). Resolviendo para\(U_b\) da el resultado.

    Supongamos que eso\(b\) es desconocido, pero\(a\) es conocido. Dejar\(V_a\) ser el método de los momentos estimador de\(b\). Entonces\[ V_a = a \frac{1 - M}{M} \]

    Prueba

    Si\(a\) se conoce entonces el método de ecuación de momentos para\(V_a\) como estimador de\(b\) es\(a \big/ (a + V_a) = M\). Resolviendo para\(V_a\) da el resultado.

    Ejecutar el experimento de estimación beta 1000 veces para varios valores diferentes del tamaño de la muestra\(n\) y los parámetros\(a\) y\(b\). Obsérvese el sesgo empírico y el error cuadrático medio de los estimadores\(U\)\(V\)\(U_b\),, y\(V_a\). Uno pensaría que los estimadores cuando se conoce uno de los parámetros deberían funcionar mejor que los estimadores correspondientes cuando se desconocen ambos parámetros; pero investigar esta cuestión empíricamente.

    El siguiente problema da una distribución con solo un parámetro pero la ecuación del segundo momento del método de los momentos es necesaria para derivar un estimador.

    Supongamos que\( \bs{X} = (X_1, X_2, \ldots, X_n) \) es una muestra aleatoria de la distribución beta simétrica, en la que los parámetros izquierdo y derecho son iguales a un valor desconocido\( c \in (0, \infty) \). El método de estimador de momentos de\( c \) es\[ U = \frac{2 M^{(2)}}{1 - 4 M^{(2)}} \]

    Prueba

    Obsérvese que la media\( \mu \) de la distribución simétrica es\( \frac{1}{2} \), independientemente de\( c \), y así la primera ecuación en el método de los momentos es inútil. Sin embargo, hacer coincidir el segundo momento de distribución con el segundo momento muestral conduce a la ecuación\[ \frac{U + 1}{2 (2 U + 1)} = M^{(2)} \] Resolver da el resultado.

    La distribución de Pareto

    La distribución de Pareto con parámetro de forma\(a \in (0, \infty)\) y parámetro de escala\(b \in (0, \infty)\) es una distribución continua\( (b, \infty) \) con función de densidad de probabilidad\( g \) dada por\[ g(x) = \frac{a b^a}{x^{a + 1}}, \quad b \le x \lt \infty \] La distribución de Pareto se nombra para Vilfredo Pareto y es una distribución muy sesgada y pesada- distribución de cola. A menudo se utiliza para modelar ingresos y ciertos otros tipos de variables aleatorias positivas. La distribución de Pareto se estudia con más detalle en el capítulo sobre Distribuciones Especiales. Si\(a \gt 2\), los dos primeros momentos de la distribución de Pareto son\(\mu = \frac{a b}{a - 1}\) y\(\mu^{(2)} = \frac{a b^2}{a - 2}\).

    Supongamos ahora que\(\bs{X} = (X_1, X_2, \ldots, X_n)\) es una muestra aleatoria de tamaño\(n\) de la distribución de Pareto con parámetro shape\(a \gt 2\) y parámetro scale\(b \gt 0\).

    Supongamos que\(a\) y ambos\(b\) son desconocidos, y dejar\(U\) y\(V\) ser el método correspondiente de los estimadores de momentos. Entonces\ begin {align} U & = 1 +\ sqrt {\ frac {M^ {(2)}} {M^ {(2)} - M^2}}\\ V & =\ frac {M^ {(2)}} {M}\ left (1 -\ sqrt {\ frac {M^ {(2)} - M^2} {M^ {(2)}}}\ derecha)\ end {align}

    Prueba

    El método de ecuaciones de momentos para\(U\) y\(V\) son\ begin {align}\ frac {U V} {U - 1} & = M\\\ frac {U V^2} {U - 2} & = M^ {(2)}\ end {align} Resolviendo para\(U\) y\(V\) da los resultados.

    Al igual que con nuestros ejemplos anteriores, el método de los estimadores de momentos son complicados funciones no lineales de\(M\) y\(M^{(2)}\), por lo que es difícil calcular el sesgo y el error cuadrático medio del estimador. En cambio, podemos investigar empíricamente el sesgo y el error cuadrático medio, a través de una simulación.

    Ejecutar el experimento de estimación de Pareto 1000 veces para varios valores diferentes del tamaño de la muestra\(n\) y los parámetros\(a\) y\(b\). Obsérvese el sesgo empírico y el error cuadrático medio de los estimadores\(U\) y\(V\).

    Cuando se conoce uno de los parámetros, el método de estimador de momentos para el otro parámetro es más sencillo.

    Supongamos que eso\(a\) es desconocido, pero\(b\) es conocido. Dejar\(U_b\) ser el método de los momentos estimador de\(a\). Entonces\[ U_b = \frac{M}{M - b}\]

    Prueba

    Si\(b\) se conoce entonces el método de ecuación de momento para\(U_b\) como estimador de\(a\) es\(b U_b \big/ (U_b - 1) = M\). Resolviendo para\(U_b\) da el resultado.

    Supongamos que eso\(b\) es desconocido, pero\(a\) es conocido. Dejar\(V_a\) ser el método de los momentos estimador de\(b\). Entonces\[V_a = \frac{a - 1}{a}M\]

    1. \( \E(V_a) = b \)así\(V_a\) es imparcial.
    2. \(\var(V_a) = \frac{b^2}{n a (a - 2)}\)por lo que\(V_a\) es consistente.
    Prueba

    Si\(a\) se conoce entonces el método de ecuación de momentos para\(V_a\) como estimador de\(b\) es\(a V_a \big/ (a - 1) = M\). Resolviendo para\(V_a\) da (a). A continuación,\(\E(V_a) = \frac{a - 1}{a} \E(M) = \frac{a - 1}{a} \frac{a b}{a - 1} = b\) así\(V_a\) es imparcial. Por último,\(\var(V_a) = \left(\frac{a - 1}{a}\right)^2 \var(M) = \frac{(a - 1)^2}{a^2} \frac{a b^2}{n (a - 1)^2 (a - 2)} = \frac{b^2}{n a (a - 2)}\).

    La distribución uniforme

    La distribución uniforme (continua) con parámetro de ubicación\( a \in \R \) y parámetro de escala\( h \in (0, \infty) \) tiene función de densidad de probabilidad\( g \) dada por\[ g(x) = \frac{1}{h}, \quad x \in [a, a + h] \] La distribución modela un punto elegido al azar del intervalo\( [a, a + h] \). La media de la distribución es\( \mu = a + \frac{1}{2} h \) y la varianza es\( \sigma^2 = \frac{1}{12} h^2 \). La distribución uniforme se estudia con más detalle en el capítulo sobre Distribuciones Especiales. Supongamos ahora que\( \bs{X} = (X_1, X_2, \ldots, X_n) \) es una muestra aleatoria de tamaño\( n \) a partir de la distribución uniforme.

    Supongamos que\( a \) y ambos\( h \) son desconocidos, y dejar\( U \) y\( V \) denotar el método correspondiente de los estimadores de momentos. Entonces\[ U = 2 M - \sqrt{3} T, \quad V = 2 \sqrt{3} T \]

    Prueba

    Emparejar la media de distribución y varianza con la media de la muestra y varianza conduce a las ecuaciones\( U + \frac{1}{2} V = M \) y\( \frac{1}{12} V^2 = T^2 \). Resolver da el resultado.

    Como es habitual, obtenemos mejores resultados cuando se conoce uno de los parámetros.

    Supongamos que\( a \) se conoce y\( h \) se desconoce, y vamos a\( V_a \) denotar el método de los momentos estimador de\( h \). Entonces\[ V_a = 2 (M - a) \]

    1. \( \E(V_a) = h \)así\( V \) es imparcial.
    2. \( \var(V_a) = \frac{h^2}{3 n} \)por lo que\( V_a \) es consistente.
    Prueba

    La coincidencia de la media de distribución con la media de la muestra conduce a la ecuación\( a + \frac{1}{2} V_a = M \). Resolver da el resultado.

    1. \( \E(V_a) = 2[\E(M) - a] = 2(a + h/2 - a) = h \)
    2. \( \var(V_a) = 4 \var(M) = \frac{h^2}{3 n} \)

    Supongamos que\( h \) se conoce y\( a \) se desconoce, y vamos a\( U_h \) denotar el método de los momentos estimador de\( a \). Entonces\[ U_h = M - \frac{1}{2} h \]

    1. \( \E(U_h) = a \)así\( U_h \) es imparcial.
    2. \( \var(U_h) = \frac{h^2}{12 n} \)por lo que\( U_h \) es consistente.
    Prueba

    Emparejar la media de distribución con la media de la muestra conduce a la cuación\( U_h + \frac{1}{2} h = M \). Resolver da el resultado.

    1. \( \E(U_h) = \E(M) - \frac{1}{2}h = a + \frac{1}{2} h - \frac{1}{2} h = a \)
    2. \( \var(U_h) = \var(M) = \frac{h^2}{12 n} \)

    El modelo hipergeométrico

    Nuestra suposición básica en el método de los momentos es que la secuencia de variables aleatorias observadas\( \bs{X} = (X_1, X_2, \ldots, X_n) \) es una muestra aleatoria de una distribución. Sin embargo, el método tiene sentido, al menos en algunos casos, cuando las variables están distribuidas idénticamente pero dependientes. En el modelo hipergeométrico, tenemos una población de\( N \) objetos con\( r \) del tipo de objetos 1 y los\( N - r \) objetos restantes tipo 0. El parámetro\( N \), el tamaño de la población, es un entero positivo. El parámetro\( r \), el tamaño tipo 1, es un entero no negativo con\( r \le N \). Estos son los parámetros básicos, y normalmente se desconoce uno o ambos. Aquí hay algunos ejemplos típicos:

    1. Los objetos son dispositivos, clasificados como buenos o defectuosos.
    2. Los objetos son personas, clasificadas como femeninas o masculinas.
    3. Los objetos son electores, clasificados a favor o en contra de un candidato en particular.
    4. Los objetos son vida silvestre o un tipo particular, ya sea etiquetados o sin etiquetar.

    Muestreamos\( n \) objetos de la población al azar, sin reemplazo. \( X_i \)Sea el tipo del objeto\( i \) th seleccionado, de manera que nuestra secuencia de variables observadas sea\( \bs{X} = (X_1, X_2, \ldots, X_n) \). Las variables son variables indicadoras distribuidas idénticamente, con\( P(X_i = 1) = r / N \) para cada una\( i \in \{1, 2, \ldots, n\} \), pero son dependientes ya que el muestreo es sin reemplazo. El número de objetos tipo 1 en la muestra es\( Y = \sum_{i=1}^n X_i \). Esta estadística tiene la distribución hipergeométrica con parámetro\( N \),, y\( r \)\( n \), y tiene función de densidad de probabilidad dada por\[ P(Y = y) = \frac{\binom{r}{y} \binom{N - r}{n - y}}{\binom{N}{n}} = \binom{n}{y} \frac{r^{(y)} (N - r)^{(n - y)}}{N^{(n)}}, \quad y \in \{\max\{0, N - n + r\}, \ldots, \min\{n, r\}\} \] El modelo hipergeométrico se estudia con más detalle en el capítulo sobre Modelos de Muestreo Finito.

    Como anteriormente,\( \bs{X} = (X_1, X_2, \ldots, X_n) \) dejarán ser las variables observadas en el modelo hipergeométrico con parámetros\( N \) y\( r \). Entonces

    1. El método de estimador de momentos de\( p = r / N \) es\( M = Y / n \), la media muestral.
    2. El método de estimador de momentos de\( r \) con\( N \) conocido es\( U = N M = N Y / n \).
    3. El método de estimador de momentos de\( N \) con\( r \) conocido es\( V = r / M = r n / Y \) si\( Y > 0 \).
    Prueba

    Todos estos resultados se derivan simplemente del hecho de que\( \E(X) = \P(X = 1) = r / N \).

    En el ejemplo elector (3) anterior, típicamente\( N \) y ambos\( r \) son desconocidos, pero sólo nos interesaría estimar la proporción\( p = r / N \). En el ejemplo de confiabilidad (1), normalmente podríamos saber\( N \) y estaríamos interesados en estimar\( r \). En el ejemplo de vida silvestre (4), normalmente sabríamos\( r \) y estaríamos interesados en estimar\( N \). Este ejemplo se conoce como el modelo de captura-recaptura.

    Claramente existe una estrecha relación entre el modelo hipergeométrico y el modelo de ensayos de Bernoulli anterior. De hecho, si el muestreo es con reemplazo, se aplicaría el modelo de ensayos de Bernoulli en lugar del modelo hipergeométrico. Además, si el tamaño de la población\( N \) es grande en comparación con el tamaño de la muestra\( n \), el modelo hipergeométrico se aproxima bien por el modelo de ensayos de Bernoulli.


    This page titled 7.2: El método de los momentos is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.