Saltar al contenido principal

# 12.2: La distribución hipergeométrica

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$
$$\newcommand{\P}{\mathbb{P}}$$$$\newcommand{\E}{\mathbb{E}}$$$$\newcommand{\R}{\mathbb{R}}$$$$\newcommand{\N}{\mathbb{N}}$$$$\newcommand{\bs}{\boldsymbol}$$$$\newcommand{\var}{\text{var}}$$$$\newcommand{\cov}{\text{cov}}$$$$\newcommand{\cor}{\text{cor}}$$

## Teoría Básica

### Poblaciones dicotómicas

Supongamos que tenemos una población dicotómica$$D$$. Es decir, una población que consta de dos tipos de objetos, a los que nos referiremos como tipo 1 y tipo 0. Por ejemplo, podríamos haber

• bolas en una urna que son rojas o verdes
• un lote de componentes que son buenos o defectuosos
• una población de personas que son masculinas o femeninas
• votantes demócratas o republicanos

Vamos$$R$$ denotar el subconjunto de$$D$$ que consiste en los objetos tipo 1, y supongamos que$$\#(D) = m$$ y$$\#(R) = r$$. Al igual que en el modelo de muestreo básico, se muestrea$$n$$ objetos al azar de$$D$$. En esta sección, nuestra única preocupación está en los tipos de los objetos, así que vamos a$$X_i$$ denotar el tipo del objeto$$i$$ th elegido (1 o 0). El vector aleatorio de tipos es$\bs{X} = (X_1, X_2, \ldots, X_n)$ Nuestro principal interés es la variable aleatoria$$Y$$ que da el número de objetos tipo 1 en la muestra. Tenga en cuenta que$$Y$$ es una variable de conteo, y así como todas las variables de conteo, se puede escribir como una suma de variables indicadoras, en este caso las variables tipo:$Y = \sum_{i=1}^n X_i$ Supondremos inicialmente que el muestreo es sin reemplazo, que suele ser el escenario realista con poblaciones dicotómicas.

Recordemos que dado que el muestreo es sin reemplazo, la muestra desordenada se distribuye uniformemente sobre el conjunto de todas las combinaciones de tamaño$$n$$ elegidas$$D$$. Esta observación conduce a una simple derivación combinatoria de la función de densidad de probabilidad de$$Y$$.

La función de densidad de probabilidad de$$Y$$ viene dada por$\P(Y = y) = \frac{\binom{r}{y} \binom{m - r}{n -y}}{\binom{m}{n}}, \quad y \in \left\{\max\{0, n - (m - r)\}, \ldots, \min\{n, r\}\right\}$

Prueba

Considerar el resultado desordenado, el cual se distribuye uniformemente en el conjunto de combinaciones de tamaño$$n$$ elegidas de la población de tamaño$$m$$. El número de formas de seleccionar objetos$$y$$ tipo 1 de los objetos$$r$$ tipo 1 en la población es$$\binom{r}{y}$$. Del mismo modo el número de formas de seleccionar el resto de los objetos$$n - y$$ tipo 0 de los objetos$$m - r$$ tipo 0 en la población es$$\binom{m - r}{n - y}$$. Finalmente el número de formas de seleccionar la muestra de tamaño$$n$$ de la población de tamaño$$m$$ es$$\binom{m}{n}$$.

Esta distribución definida por esta función de densidad de probabilidad se conoce como la distribución hipergeométrica con parámetros$$m$$,$$r$$, y$$n$$.

Otra forma de la función de densidad de probabilidad de$$Y$$ es

$\P(Y = y) = \binom{n}{y} \frac{r^{(y)} (m - r)^{(n - y)}}{m^{(n)}}, \quad y \in \left\{\max\{0, n - (m - r)\}, \ldots, \min\{n, r\}\right\}$
Prueba combinatoria

La prueba combinatoria es muy parecida a la prueba anterior, salvo que consideramos la muestra ordenada, la cual se distribuye uniformemente sobre el conjunto de permutaciones de tamaño$$n$$ elegido de la población de$$m$$ objetos. El coeficiente binomial$$\binom{n}{y}$$ es el número de formas de seleccionar las coordenadas donde irán los objetos tipo 1;$$r^{(y)}$$ es el número de formas de seleccionar una secuencia ordenada de objetos$$y$$ tipo 1; y$$(m - r)^{(n-y)}$$ es el número de formas de seleccionar una secuencia ordenada de$$n - y$$ tipo 0 objetos. Finalmente$$m^{(n)}$$ está el número de formas de seleccionar una secuencia ordenada de$$n$$ objetos de la población.

Prueba algebraica

La nueva forma del PDF también se puede derivar algebraicamente comenzando con la forma anterior del PDF. Usa la fórmula$$\binom{k}{j} = k^{(j)} / j!$$ para cada coeficiente binomial, y luego reorganiza un poco las cosas.

Recordemos nuestra convención que$$j^{(i)} = \binom{j}{i} = 0$$ para$$i \gt j$$. Con esta convención, las dos fórmulas para la función de densidad de probabilidad son correctas para$$y \in \{0, 1, \ldots, n\}$$. Usualmente usamos este conjunto más simple como conjunto de valores para la distribución hipergeométrica.

La distribución hipergeométrica es unimodal. Vamos$$v = \frac{(r + 1)(n + 1)}{m + 2}$$. Entonces

1. $$\P(Y = y) \gt \P(Y = y - 1)$$si y sólo si$$y \lt v$$.
2. El modo se produce en$$\lfloor v \rfloor$$ si no$$v$$ es un número entero, y at$$v$$ y$$v - 1$$ si$$v$$ es un entero mayor que 0.

En el experimento de bola y urna, seleccione muestreo sin reemplazo. Varíe los parámetros y anote la forma de la función de densidad de probabilidad. Para valores seleccionados de los parámetros, ejecute el experimento 1000 veces y compare la función de frecuencia relativa con la función de densidad de probabilidad.

Quizás te preguntes sobre el nombre bastante exótico de distribución hipergeométrica, que parece no tener nada que ver con el muestreo de una población dicotómica. El nombre proviene de una serie power, la cual fue estudiada por Leonhard Euler, Carl Friedrich Gauss, Bernhard Riemann, y otros.

Una serie hipergeométrica (generalizada) es una serie de$$k \mapsto a_{k+1} \big/ a_k$$ potencias$\sum_{k=0}^\infty a^k x^k$ donde es una función racional (es decir, una relación de polinomios).

Muchas de las series básicas de poder estudiadas en el cálculo son series hipergeométricas, incluyendo la serie geométrica ordinaria y la serie exponencial.

La función generadora de probabilidad de la distribución hipergeométrica es una serie hipergeométrica.

Prueba

El PGF es$$P(t) = \sum_{k=0}^n f(k) t^k$$ donde$$f$$ está el PDF hipergeométrico, dado anteriormente. Álgebra simple muestra que$\frac{f(k+1)}{f(k)} = \frac{(r - k)(n - k)}{(k + 1)(N - r - n + k + 1)}$

Además, la función de distribución hipergeométrica se puede expresar en términos de una serie hipergeométrica. Estas representaciones no son particularmente útiles, por lo que básicamente se quedaron atascadas con el término no descriptivo por razones históricas.

### Momentos

A continuación derivaremos la media y varianza de$$Y$$. La propiedad intercambiable de las variables indicadoras y las propiedades de covarianza y correlación jugarán un papel clave.

$$\E(X_i) = \frac{r}{m}$$para cada uno$$i$$.

Prueba

Recordemos que$$X_i$$ es una variable indicadora con$$\P(X_i = 1) = r / m$$ para cada uno$$i$$.

A partir de la representación de$$Y$$ como la suma de variables indicadoras, el valor esperado de$$Y$$ es trivial de calcular. Pero solo por diversión, también damos la derivación de la función de densidad de probabilidad.

$$\E(Y) = n \frac{r}{m}$$.

Prueba

Prueba de la definición

Usando el PDF hipergeométrico,$\E(Y) = \sum_{y=0}^n y \frac{\binom{r}{y} \binom{m - r}{n - y}}{\binom{m}{n}}$ Tenga en cuenta que el$$y = 0$$ término es 0. Para los otros términos, podemos usar la identidad$$y \binom{r}{y} = r \binom{r-1}{y-1}$$ para obtener$\E(Y) = \frac{r}{\binom{m}{n}} \sum_{y=1}^n \binom{r - 1}{y - 1} \binom{m - r}{n - y}$ Pero sustituyendo$$k = y - 1$$ y usando otra identidad fundamental,$\sum_{y=1}^n \binom{r - 1}{y - 1} \binom{m - r}{n - y} = \sum_{k=0}^{n-1} \binom{r - 1}{k} \binom{m - r}{n - 1 - k} = \binom{m - 1}{n - 1}$ Así que sustituyendo y haciendo un poco de álgebra da$$\E(Y) = n \frac{r}{m}$$.

A continuación pasamos a la varianza de la distribución hipergeométrica. Para ello, necesitaremos no sólo las varianzas de las variables indicadoras, sino también sus covarianzas.

$$\var(X_i) = \frac{r}{m}(1 - \frac{r}{m})$$para cada uno$$i$$.

Prueba

Nuevamente esto sigue porque$$X_i$$ es una variable indicadora con$$\P(X_i = 1) = r / m$$ para cada uno$$i$$.

Para distintos$$i, \; j$$,

1. $$\cov\left(X_i, X_j\right) = -\frac{r}{m}(1 - \frac{r}{m}) \frac{1}{m - 1}$$
2. $$\cor\left(X_i, X_j\right) = -\frac{1}{m - 1}$$
Prueba

Tenga en cuenta que$$X_i \, X_j$$ es una variable indicadora que indica el evento de que los objetos$$i$$$$j$$ th y th son ambos de tipo 1. Por la propiedad intercambiable,$$\P\left(X_i \, X_j = 1\right) = \P(X_i = 1) \P\left(X_j = 1 \mid X_i = 1\right) = \frac{r}{m} \frac{r-1}{m-1}$$. La parte (a) luego se desprende de$$\cov\left(X_i, X_j\right) = \E\left(X_i X_j\right) - \E(X_i) \E\left(X_j\right)$$. La parte b) se desprende de la parte (a) y la definición de correlación.

Tenga en cuenta que el evento de un objeto tipo 1 al dibujar$$i$$ y el evento de un objeto tipo 1 en el dibujo$$j$$ están correlacionados negativamente, pero la correlación depende únicamente del tamaño de la población y no del número de objetos de tipo 1. Tenga en cuenta también que la correlación es perfecta si$$m = 2$$, que debe ser el caso.

$$\var(Y) = n \frac{r}{m} (1 - \frac{r}{m}) \frac{m - n}{m - 1}$$.

Prueba

Este resultado se desprende de los resultados anteriores sobre la varianza y covarianza de las variables indicadoras. Recordemos que la varianza de$$Y$$ es la suma de$$\cov\left(X_i, X_j\right)$$ sobre todo$$i$$ y$$j$$.

Obsérvese que$$\var(Y) = 0$$ si$$r = 0$$$$r = m$$ o o$$n = m$$, que debe ser cierto ya que$$Y$$ es determinista en cada uno de estos casos.

En el experimento de bola y urna, seleccione muestreo sin reemplazo. Varíe los parámetros y anote el tamaño y la ubicación de la barra de desviación$$\pm$$ estándar media. Para valores seleccionados de los parámetros, ejecute el experimento 1000 veces y compare la media empírica y la desviación estándar con la media verdadera y la desviación estándar.

### Muestreo con Repuesto

Supongamos ahora que el muestreo es con reemplazo, aunque esto no suele ser realista en las aplicaciones.

$$(X_1, X_2, \ldots, X_n)$$es una secuencia de ensayos de$$n$$ Bernoulli con parámetro de éxito$$\frac{r}{m}$$.

Los siguientes resultados se derivan ahora inmediatamente de la teoría general de los ensayos de Bernoulli, aunque también se podrían utilizar modificaciones de los argumentos anteriores.

$$Y$$tiene la distribución binomial con parámetros$$n$$ y$$\frac{r}{m}$$:$\P(Y = y) = \binom{n}{y} \left(\frac{r}{m}\right)^y \left(1 - \frac{r}{m}\right)^{n-y}, \quad y \in \{0, 1, \ldots, n\}$

La media y varianza de$$Y$$ son

1. $$\E(Y) = n \frac{r}{m}$$
2. $$\var(Y) = n \frac{r}{m} (1 - \frac{r}{m})$$

Obsérvese que para cualquier valor de los parámetros, la media de$$Y$$ es la misma, ya sea que el muestreo sea con o sin reemplazo. Por otro lado, la varianza de$$Y$$ es menor, por un factor de$$\frac{m - n}{m - 1}$$, cuando el muestreo es sin reemplazo que con reemplazo. Ciertamente tiene sentido que la varianza de$$Y$$ sea menor cuando se muestrea sin reemplazo, ya que cada selección reduce la variabilidad en la población que queda. El factor a veces$$\frac{m - n}{m - 1}$$ se denomina factor de corrección poblacional finita.

En el experimento de bola y urna, variar los parámetros y cambiar entre muestreo sin reemplazo y muestreo con reemplazo. Observe la diferencia entre las gráficas de la función de densidad de probabilidad hipergeométrica y la función binomial de densidad de probabilidad. Obsérvese también la diferencia entre las barras medias de desviación$$\pm$$ estándar. Para valores seleccionados de los parámetros y para los dos modos de muestreo diferentes, ejecute la simulación 1000 veces.

### Convergencia de la Distribución Hipergeométrica al Binomial

Supongamos que el tamaño de la población$$m$$ es muy grande en comparación con el tamaño muestral$$n$$. En este caso, parece razonable que el muestreo sin reemplazo no sea demasiado diferente al muestreo con reemplazo, y por lo tanto la distribución hipergeométrica debe ser bien aproximada por el binomio. El siguiente ejercicio hace que esta observación sea precisa. Prácticamente, es un resultado valioso, ya que la distribución binomial tiene menos parámetros. Más específicamente, no necesitamos conocer el tamaño de la población$$m$$ y el número de objetos tipo 1$$r$$ individualmente, sino sólo en la proporción$$r / m$$.

Supongamos que$$r_m \in \{0, 1, \ldots, m\}$$ para cada uno$$m \in \N_+$$ y que$$r_m / m \to p \in [0, 1]$$ como$$m \to \infty$$. Luego para fijo$$n$$, la función de densidad de probabilidad hipergeométrica con parámetros$$m$$$$r_m$$, y$$n$$ converge a la función de densidad de probabilidad binomial con parámetros$$n$$ y$$p$$ como$$m \to \infty$$

Prueba

Considera la segunda versión del PDF hipergeométrico anterior. En la fracción, tenga en cuenta que hay$$n$$ factores en el numerador y$$n$$ en el denominador. Supongamos que emparejamos los factores para escribir la fracción original como producto de$$n$$ fracciones. Las primeras$$y$$ fracciones tienen la forma$$\frac{r_m - i}{m - i}$$ donde$$i$$ no depende$$m$$. De ahí que cada una de estas fracciones converja a$$p$$ as$$m \to \infty$$. $$n - y$$Las fracciones restantes tienen la forma$$\frac{m - r_m - j}{m - y - j}$$, donde de nuevo,$$j$$ no depende de$$m$$. De ahí que cada una de estas fracciones converja a$$1 - p$$ as$$m \to \infty$$.

El tipo de convergencia en el ejercicio anterior se conoce como convergencia en la distribución.

En el experimento de bola y urna, variar los parámetros y cambiar entre muestreo sin reemplazo y muestreo con reemplazo. Observe la diferencia entre las gráficas de la función de densidad de probabilidad hipergeométrica y la función binomial de densidad de probabilidad. En particular, anotar la similitud cuando$$m$$ es grande y$$n$$ pequeña. Para valores seleccionados de los parámetros, y para ambos modos de muestreo, ejecute el experimento 1000 veces.

En el ajuste del resultado de convergencia anterior, tenga en cuenta que la media y varianza de la distribución hipergeométrica convergen a la media y varianza de la distribución binomial as$$m \to \infty$$.

## Inferencias en el Modelo Hipergeométrico

En muchos problemas reales, los parámetros$$r$$ o$$m$$ (o ambos) pueden ser desconocidos. En este caso nos interesa hacer inferencias sobre los parámetros desconocidos a partir de nuestra observación del$$Y$$ número de objetos tipo 1 en la muestra. Supondremos inicialmente que el muestreo es sin reemplazo, el ajuste realista en la mayoría de las aplicaciones.

### Estimación de$$r$$ con$$m$$ Conocido

Supongamos que$$m$$ se conoce el tamaño de la población pero que$$r$$ se desconoce el número de objetos tipo 1. Este tipo de problema podría surgir, por ejemplo, si tuviéramos un lote de artículos$$m$$ manufacturados que contengan un número desconocido$$r$$ de artículos defectuosos. Sería demasiado costoso probar todos los$$m$$ artículos (quizás incluso destructivos), por lo que podríamos seleccionar$$n$$ elementos al azar y probarlos.

Se$$r$$ puede derivar un estimador simple de esperando que la proporción muestral de objetos tipo 1 esté cerca de la proporción poblacional de los objetos tipo 1. Es decir,$\frac{Y}{n} \approx \frac{r}{m} \implies r \approx \frac{m}{n} Y$ así, nuestro estimador de$$r$$ es$$\frac{m}{n} Y$$. Este método de derivar un estimador se conoce como el método de los momentos.

$$\E \left(\frac{m}{n} Y \right) = r$$

Prueba

Esto se deduce del valor esperado de$$Y$$ arriba, y de la propiedad de escala de valor esperado.

El resultado en el ejercicio anterior significa que$$\frac{m}{n} Y$$ es un estimador imparcial de$$r$$. De ahí que la varianza sea una medida de la calidad del estimador, en el sentido cuadrático medio.

$$\var \left(\frac{m}{n} Y \right) = (m - r) \frac{r}{n} \frac{m - n}{m - 1}$$.

Prueba

Esto se deduce de la varianza$$Y$$ anterior, y las propiedades estándar de varianza.

Para fijos$$m$$ y$$r$$,$$\var\left(\frac{m}{n} Y\right) \downarrow 0$$ como$$n \uparrow m$$.

Así, el estimador mejora a medida que aumenta el tamaño de la muestra; esta propiedad se conoce como consistencia.

En el experimento de bola y urna, seleccione muestreo sin reemplazo. Para valores seleccionados de los parámetros, ejecute el experimento 100 veces y anote la estimación de$$r$$ en cada ejecución.

1. Calcular el error promedio y el error cuadrado promedio sobre las 100 ejecuciones.

Muchas veces solo queremos estimar la relación$$r / m$$ (sobre todo si$$m$$ tampoco lo sabemos. En este caso, el estimador natural es la proporción muestral$$Y / n$$.

El estimador de$$\frac{r}{m}$$ tiene las siguientes propiedades:

1. $$\E\left(\frac{Y}{n}\right) = \frac{r}{m}$$, por lo que el estimador es imparcial.
2. $$\var\left(\frac{Y}{n}\right) = \frac{1}{n} \frac{r}{m} (1 - \frac{r}{m} \frac{m - n}{m - 1})$$
3. $$\var\left(\frac{Y}{n}\right) \downarrow 0$$$$n \uparrow m$$por lo que el estimador es consistente.

### Estimación de$$m$$ con$$r$$ Conocido

Supongamos ahora que se conoce el número de objetos tipo 1, pero$$r$$ se desconoce el tamaño$$m$$ de la población. Como ejemplo de este tipo de problemas, supongamos que tenemos un lago que contiene$$m$$ peces donde$$m$$ se desconoce. Capturamos$$r$$ los peces, los etiquetamos y los devolvemos al lago. A continuación capturamos$$n$$ los peces y observamos$$Y$$, el número de peces etiquetados en la muestra. Deseamos estimar a$$m$$ partir de estos datos. En este contexto, el problema de estimación a veces se denomina problema de captura-recaptura.

¿Cree que el supuesto principal del modelo de muestreo, es decir, muestras igualmente probables, estaría satisfecho por un problema real de captura-recaptura? Explique.

Una vez más, podemos utilizar el método de los momentos para derivar una estimación simple de$$m$$, esperando que la proporción muestral de los objetos tipo 1 esté cerca de la proporción poblacional de los objetos tipo 1. Es decir,$\frac{Y}{n} \approx \frac{r}{m} \implies m \approx \frac{n r}{Y}$ así, nuestro estimador de$$m$$ es$$\frac{n r}{Y}$$ si$$Y \gt 0$$ y es$$\infty$$ si$$Y = 0$$.

En el experimento de bola y urna, seleccione muestreo sin reemplazo. Para valores seleccionados de los parámetros, ejecute el experimento 100 veces.

1. En cada ejecución, compare el valor verdadero de$$m$$ con el valor estimado.
2. Calcular el error promedio y el error cuadrado promedio sobre las 100 ejecuciones.

Si$$y \gt 0$$ entonces se$$\frac{n r}{y}$$ maximiza$$\P(Y = y)$$ como una función de$$m$$ para fijo$$r$$ y$$n$$. Esto significa que$$\frac{n r}{Y}$$ es un estimador de máxima verosimilitud de$$m$$.

$$\E\left(\frac{n r}{Y}\right) \ge m$$.

Prueba

Este resultado se desprende de la desigualdad de Jensen ya que$$y \mapsto \frac{n r}{y}$$ es una función convexa en$$(0, \infty)$$.

Así, el estimador está sesgado positivamentey tiende a sobreestimar$$m$$. En efecto, si$$n \le m - r$$, así que$$\P(Y = 0) \gt 0$$ entonces$$\E\left(\frac{n r}{Y}\right) = \infty$$. Para otro enfoque para estimar el tamaño de la población$$m$$, consulte el apartado de Estadísticas de Orden.

### Muestreo con Repuesto

Supongamos ahora que el muestreo es con reemplazo, aunque esto no sea realista en la mayoría de las aplicaciones. En este caso,$$Y$$ tiene la distribución binomial con parámetros$$n$$ y$$\frac{r}{m}$$. Los estimadores de$$r$$ con$$m$$ conocido,$$\frac{r}{m}$$, y$$m$$ con$$r$$ conocido tienen sentido, igual que antes, pero tienen propiedades ligeramente diferentes.

El estimador$$\frac{m}{n}Y$$ de$$r$$ con$$m$$ conocido satisface

1. $$\E\left(\frac{m}{n} Y\right) = r$$
2. $$\var\left(\frac{m}{n}Y \right) = \frac{r(m - r)}{n}$$

El estimador$$\frac{1}{n}Y$$ de$$\frac{r}{m}$$ satisface

1. $$\E\left(\frac{1}{n} Y\right) = \frac{r}{m}$$
2. $$\var\left(\frac{1}{n}Y \right) = \frac{1}{n} \frac{r}{m}(1 - \frac{r}{m})$$

Así, los estimadores siguen siendo imparciales y consistentes, pero tienen un error cuadrático medio mayor que antes. Así, el muestreo sin reemplazo funciona mejor, para cualquier valor de los parámetros, que el muestreo con reemplazo.

En el experimento de bola y urna, seleccione muestreo con reemplazo. Para valores seleccionados de los parámetros, ejecute el experimento 100 veces.

1. En cada ejecución, compare el valor verdadero de$$r$$ con el valor estimado.
2. Calcular el error promedio y el error cuadrado promedio sobre las 100 ejecuciones.

## Ejemplos y Aplicaciones

Un lote de 100 chips de computadora contiene 10 chips defectuosos. Se eligen cinco fichas al azar, sin reemplazo. Encuentra cada uno de los siguientes:

1. La función de densidad de probabilidad del número de chips defectuosos en la muestra.
2. La media y varianza del número de chips defectuosos en la muestra
3. La probabilidad de que la muestra contenga al menos un chip defectuoso.
Contestar

Dejar$$Y$$ denotar el número de chips defectuosos en la muestra

1. $$\P(Y = y) = \frac{\binom{10}{y} \binom{90}{5 - y}}{\binom{100}{5}}, \quad y \in \{0, 1, 2, 3, 4, 5\}$$
2. $$\E(Y) = 0.5$$,$$\var(Y) = 0.432$$
3. $$\P(Y \gt 0) = 0.416$$

Un club contiene 50 miembros; 20 son hombres y 30 son mujeres. Se elige al azar un comité de 10 miembros. Encuentra cada uno de los siguientes:

1. La función de densidad de probabilidad del número de mujeres en el comité.
2. La media y varianza del número de mujeres en el comité.
3. La media y varianza del número de hombres en el comité.
4. La probabilidad de que los miembros del comité sean todos del mismo género.
Contestar

Vamos a$$Y$$ denotar el número de mujeres, de modo que ese$$Z = 10 - Y$$ es el número de hombres.

1. $$\P(Y = y) = \frac{\binom{30}{y} \binom{20}{10 - y}}{\binom{50}{10}}, \quad y \in \{0, 1, \ldots, 10\}$$
2. $$\E(Y) = 6, \var(Y) = 1.959$$
3. $$\E(Z) = 4$$,$$\var(Z) = 1.959$$
4. $$\P(Y = 0) + \P(Y = 10) = 0.00294$$

Un pequeño estanque contiene 1000 peces; 100 están etiquetados. Supongamos que se capturan 20 peces. Encuentra cada uno de los siguientes:

2. La media y varianza del número de peces marcados en la muestra.
3. La probabilidad de que la muestra contenga al menos 2 peces etiquetados.
4. La aproximación binomial a la probabilidad en (c).
Contestar

Dejar$$Y$$ denotar el número de peces etiquetados en la muestra

1. $$\P(Y = y) = \frac{\binom{100}{y} \binom{900}{20-y}}{\binom{1000}{20}}, \quad y \in \{0, 1, \ldots, 20\}$$
2. $$\E(Y) = 2$$,$$\var(Y) = \frac{196}{111}$$
3. $$\P(Y \ge 2) = 0.6108$$
4. $$\P(Y \ge 2) = 0.6083$$

El cuarenta por ciento de los votantes registrados en un determinado distrito prefieren candidato$$A$$. Supongamos que 10 electores son elegidos al azar. Encuentra cada uno de los siguientes:

1. La función de densidad de probabilidad del número de electores en la muestra que prefieran$$A$$.
2. La media y varianza del número de electores en la muestra que prefieran$$A$$.
3. La probabilidad de que al menos 5 electores de la muestra prefieran$$A$$.
Contestar
1. $$\P(Y = y) = \binom{10}{y} (0.4)^y (0.6)^{10-y}, \quad y \in \{0, 1, \ldots, 10\}$$
2. $$\E(Y) = 4$$,$$\var(Y) = 2.4$$
3. $$\P(Y \ge 5) = 0.3669$$

Supongamos que se muestrean 10 chips de memoria al azar y sin reemplazo de un lote de 100 chips. Se prueban los chips y 2 están defectuosos. Estimar el número de chips defectuosos en todo el lote.

Contestar

20

Un distrito electoral cuenta con 5000 votantes registrados. Supongamos que 100 electores son seleccionados al azar y sondeados, y que 40 prefieren candidato$$A$$. Estimar el número de electores en el distrito que prefieren candidato$$A$$.

Contestar

2000

De cierto lago, 200 peces son capturados, etiquetados y devueltos al lago. Después se capturan 100 peces y resulta que se etiquetan 10. Estimar la población de peces en el lago.

Contestar

2000

### Tarjetas

Recordemos que el experimento general de cartas consiste en seleccionar$$n$$ cartas al azar y sin reemplazo de una baraja estándar de 52 cartas. El caso especial$$n = 5$$ es el experimento de poker y el caso especial$$n = 13$$ es el experimento bridge.

En una mano de póquer, encuentre la función de densidad de probabilidad, la media y la varianza de las siguientes variables aleatorias:

2. El número de ases
Contestar

Dejar$$U$$ denotar el número de espadas y$$V$$ el número de ases.

1. $$\P(U = u) = \frac{\binom{13}{u} \binom{39}{5-u}}{\binom{52}{5}}, \quad u \in \{0, 1, \ldots, 5\}$$,$$\E(U) = \frac{5}{4}$$,$$\var(U) = \frac{235}{272}$$
2. $$\P(V = v) = \frac{\binom{4}{v} \binom{48}{5-v}}{\binom{52}{5}}, \quad v \in \{0, 1, 2, 3, 4\}$$,$$\E(V) = \frac{5}{13}$$,$$\var(V) = \frac{940}{2873}$$

En una mano de puente, encuentra cada uno de los siguientes:

1. La función de densidad de probabilidad, media y varianza del número de corazones
2. La función de densidad de probabilidad, media y varianza del número de cartas de honor (as, rey, reina, jota o 10).
3. La probabilidad de que la mano no tenga tarjetas de honor. Una mano de este tipo es conocida como Yarborough, en honor al Segundo Conde de Yarborough.
Contestar

Vamos a$$U$$ denotar el número de corazones y$$V$$ el número de tarjetas de honor.

1. $$\P(U = u) = \frac{\binom{13}{u} \binom{39}{13-u}}{\binom{52}{13}}, \quad u \in \{0, 1, \ldots, 13\}$$,$$\E(U) = \frac{13}{4}$$,$$\var(U) = \frac{507}{272}$$
2. $$\P(V = v) = \frac{\binom{20}{v} \binom{32}{13-v}}{\binom{52}{13}}, \quad v \in \{0, 1, \ldots, 13\}$$,$$\E(V) = 5$$,$$\var(V) = 2.353$$
3. $$\frac{5394}{9\,860\,459} \approx 0.000547$$

Algo interesante que hacer en casi cualquier modelo de probabilidad paramétrico es aleatorizar uno o más de los parámetros. Hecho de la manera correcta, esto a menudo conduce a un nuevo modelo paramétrico interesante, ya que la distribución del parámetro aleatorizado a menudo pertenecerá a una familia paramétrica. Este es también el escenario natural para aplicar el teorema de Bayes.

En esta sección, aleatorizaremos el número de objetos tipo 1 en el modelo hipergeométrico básico. Específicamente, asumimos que tenemos$$m$$ objetos en la población, como antes. Sin embargo, en lugar de un número fijo$$r$$ de objetos tipo 1, asumimos que cada uno de los$$m$$ objetos de la población, independientemente de los demás, es tipo 1 con probabilidad$$p$$ y tipo 0 con probabilidad$$1 - p$$. Hemos eliminado un parámetro$$r$$, a favor de un nuevo parámetro$$p$$ con valores en el intervalo$$[0, 1]$$. Dejar$$U_i$$ denotar el tipo del objeto$$i$$ th en la población, de modo que$$\bs{U} = (U_1, U_2, \ldots, U_n)$$ es una secuencia de ensayos de Bernoulli con parámetro de éxito$$p$$. Dejar$$V = \sum_{i=1}^m U_i$$ denotar el número de objetos tipo 1 en la población, de manera que$$V$$ tiene la distribución binomial con parámetros$$m$$ y$$p$$.

Como antes, se muestrea$$n$$ objeto de la población. Nuevamente dejamos$$X_i$$ denotar el tipo del objeto$$i$$ th muestreado, y dejamos$$Y = \sum_{i=1}^n X_i$$ denotar el número de objetos tipo 1 en la muestra. Consideraremos el muestreo con y sin reemplazo. En el primer caso, el tamaño de la muestra puede ser cualquier entero positivo, pero en el segundo caso, el tamaño de la muestra no puede exceder el tamaño de la población. La técnica clave en el análisis de la urna aleatorizada es condicionar$$V$$. Si lo sabemos$$V = r$$, entonces el modelo reduce al modelo estudiado anteriormente: una población de tamaño$$m$$ con objetos$$r$$ tipo 1, y una muestra de tamaño$$n$$.

Con cualquiera de los tipos de muestreo,$$\P(X_i = 1) = p$$

Prueba

$$\P(X_i = 1) = \E\left[\P(X_i = 1 \mid V)\right] = \E(V / m) = p$$

Así, en cualquiera de los modelos,$$\bs{X}$$ hay una secuencia de variables indicadoras distribuidas de manera idéntica. Ah, pero ¿qué pasa con la dependencia?

Supongamos que el muestreo es sin reemplazo. Dejar$$(x_1, x_2, \ldots, x_n) \in \{0, 1\}^n$$ y dejar$$y = \sum_{i=1}^n x_i$$. Entonces$\P(X_1 = x_1, X_2 = x_2, \ldots, X_n = x_n) = p^y (1 - p)^{n-y}$

Prueba

Acondicionamiento en$$V$$ da$\P(X_1 = x_1, X_2 = x_2, \ldots, X_n = x_n) = \E\left[\P(X_1 = x_1, X_2 = x_2, \ldots, X_n = x_n \mid V)\right] = \E\left[\frac{V^{(y)} (m - V)^{(n-y)}}{m^{(n)}}\right]$ Ahora vamos$$G(s, t) = \E(s^V t^{m - V})$$. Tenga en cuenta que$$G$$ es una función generadora de probabilidad de clases. Del teorema binomial,$$G(s, t) = [p s + (1 - p)t]^m$$. Dejar$$G_{j,k}$$ denotar la derivada parcial$$G$$ de de orden$$j + k$$, con$$j$$ derivadas respecto al primer argumento y$$k$$ derivadas con respecto al segundo argumento. A partir de la definición de$$G$$,$$G_{j,k}(1, 1) = \E[V^{(j)} (m - V)^{(k)}]$$. Pero a partir de la representación binomial,$$G_{j,k}(1,1) = m^{j+k} p^j (1 - p)^k$$

De la distribución conjunta en el ejercicio anterior, vemos que$$\bs{X}$$ es una secuencia de ensayos de Bernoulli con parámetro de éxito$$p$$, y por lo tanto$$Y$$ tiene la distribución binomial con parámetros$$n$$ y$$p$$. También podríamos argumentar que$$\bs{X}$$ es una secuencia de ensayos de Bernoulli directamente, al señalar que$$\{X_1, X_2, \ldots, X_n\}$$ es un subconjunto elegido al azar de$$\{U_1, U_2, \ldots, U_m\}$$.

Supongamos ahora que el muestreo es con reemplazo. De nuevo, vamos$$(x_1, x_2, \ldots, x_n) \in \{0, 1\}^n$$ y vamos$$y = \sum_{i=1}^n x_i$$. Entonces$\P(X_1 = x_1, X_2 = x_2, \ldots, X_n = x_n) = \E\left[\frac{V^y (m - V)^{n-y}}{m^n}\right]$

Prueba

El resultado sigue como antes al condicionar a$$V$$:$\P(X_1 = x_1, X_2 = x_2, \ldots, X_n = x_n) = \E\left[\P(X_1 = x_1, X_2 = x_2, \ldots, X_n = x_n \mid V)\right] = \E\left[\frac{V^y (m - V)^{n-y}}{m^n}\right]$

Una expresión de forma cerrada para la distribución conjunta de$$\bs{X}$$, en términos de los parámetros$$m$$$$n$$,, y no$$p$$ es fácil, pero al menos está claro que la distribución conjunta no será la misma que la que se produce cuando el muestreo es sin reemplazo. En particular,$$\bs{X}$$ es una secuencia dependiente. Obsérvese sin embargo que$$\bs{X}$$ es una secuencia intercambiable, ya que la distribución conjunta es invariante bajo una permutación de las coordenadas (esto es una simple consecuencia del hecho de que la distribución conjunta depende únicamente de la suma$$y$$).

La función de densidad de probabilidad de$$Y$$ viene dada por$\P(Y = y) = \binom{n}{y} \E\left[\frac{V^y (m - V)^{n - y}}{m^n} \right], \quad y \in \{0, 1, \ldots, n\}$

Supongamos que$$i$$ y$$j$$ son índices distintos. La covarianza y correlación$$(X_i, X_j)$$ de

1. $$\cov\left(X_i, X_j\right) = \frac{p (1 - p)}{m}$$
2. $$\cor\left(X_i, X_j\right) = \frac{1}{m}$$
Prueba

Acondicionamiento$$V$$ una vez más tenemos$$\P\left(X_i = 1, X_j = 1\right) = \E\left[\left(\frac{V}{m}\right)^2\right] = \frac{p(1 - p)}{m} + p^2$$. Los resultados se derivan ahora de fórmulas estándar para covarianza y correlación.

La media y varianza de$$Y$$ son

1. $$\E(Y) = n p$$
2. $$\var(Y) = n p (1 - p) \frac{m + n - 1}{m}$$
Prueba

La parte (a) se desprende de la distribución de las variables indicadoras anteriores, y de la propiedad aditiva del valor esperado. La parte (b) se desprende del resultado anterior sobre la covarianza. Recordemos nuevamente que la varianza de$$Y$$ es la suma de$$\cov\left(X_i, X_j\right)$$ sobre todo$$i$$ y$$j$$.

Concluimos con una observación interesante: Para la urna aleatorizada,$$\bs{X}$$ es una secuencia de variables independientes cuando el muestreo es sin reemplazo pero una secuencia de variables dependientes cuando el muestreo es con reemplazo, justo lo contrario de la situación para la urna determinista con un fijo número de objetos tipo 1.

This page titled 12.2: La distribución hipergeométrica is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform.