Saltar al contenido principal

# 13.3: Muestras aleatorias simples y estadísticas

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$

## Muestras aleatorias simples y estadísticas

Formulamos la noción de una muestra aleatoria (simple), que es básica para gran parte de la estadística clásica. Una vez formulada, podemos aplicar la teoría de probabilidad para exhibir varias ideas básicas de análisis estadístico.

Comenzamos con la noción de una distribución poblacional. Una población puede ser casi cualquier colección de individuos o entidades. Asociada a cada miembro hay una cantidad o una entidad a la que se le puede asignar un número. La cantidad varía a lo largo de la población. La distribución poblacional es la distribución de esa cantidad entre los miembros de la población.

Si se pudiera observar a cada miembro, la distribución poblacional podría determinarse por completo. Sin embargo, eso no siempre es factible. Para obtener información sobre la distribución poblacional, seleccionamos “al azar” un subconjunto de la población y observar cómo varía la cantidad a lo largo de la muestra. Esperemos que la distribución muestral dé una aproximación útil a la distribución poblacional.

El proceso de muestreo

Tomamos una muestra de tamaño$$n$$, lo que significa que seleccionamos n miembros de la población y observamos la cantidad asociada a cada uno. La selección se realiza de tal manera que en cualquier juicio es igualmente probable que cada miembro sea seleccionado. Además, el muestreo se realiza de tal manera que el resultado de cualquier selección no afecta, y no se ve afectado por, las demás. Parece que estamos describiendo un juicio compuesto. Modelamos el proceso de muestreo de la siguiente manera:

Let$$X_i$$,$$1 \le i \le n$$ ser la variable aleatoria para el i-ésimo ensayo de componentes. Entonces la clase$$\{X_i: 1 \le i \le n\}$$ es iid, teniendo cada miembro la distribución poblacional.

Esto proporciona un modelo para el muestreo ya sea de una población muy grande (a menudo denominada población infinita) o muestreo con reemplazo de una población pequeña.

El objetivo es determinar en la medida de lo posible sobre el carácter de la población. Dos parámetros importantes son la media y la varianza. Queremos la media poblacional y la varianza poblacional. Si la muestra es representativa de la población, entonces la media de la muestra y la varianza muestral deben aproximarse a las cantidades poblacionales.

• El proceso de muestreo es la clase iid$$\{X_i: 1 \le i \le n\}$$.
• Una muestra aleatoria es una observación, o realización,$$(t_1, t_2, \cdot\cdot\cdot, t_n)$$ del proceso de muestreo.

El promedio muestral y la media poblacional

Considerar el promedio numérico de los valores en la muestra$$\bar{x} = \dfrac{1}{n} \sum_{i = 1}^{n} t_i$$. Esta es una observación del promedio muestral

$$A_n = \dfrac{1}{n} \sum_{i = 1}^{n} X_i = \dfrac{1}{n} S_n$$

La suma muestral$$S_n$$ y el promedio muestral$$A_n$$ son variables aleatorias. Si se hiciera otra observación (otra muestra tomada), el valor observado de estas cantidades probablemente sería diferente. Ahora$$S_n$$ y$$A_n$$ son funciones de las variables aleatorias$$\{X_i: 1 \le i \le n\}$$ en el proceso de muestreo. Como tal, tienen distribuciones relacionadas con la distribución poblacional (la distribución común de la$$X_i$$). Según el teorema del límite central, para cualquier muestra de tamaño razonable deben distribuirse aproximadamente de manera normal. Como muestran los ejemplos que demuestran el teorema del límite central, el tamaño de la muestra no necesita ser grande en muchos casos. Ahora bien, si la media poblacional$$E[X]$$ es$$\mu$$ y la varianza poblacional$$\text{Var} [X]$$ es$$\sigma^2$$, entonces

$$E[S_n] = \sum_{i = 1}^{n} E[X_i] = nE[X] = n\mu$$y$$\text{Var}[S_n] = \sum_{i = 1}^{n} \text{Var} [X_i] = n \text{Var} [X] = n \sigma^2$$

para que

$$E[A_n] = \dfrac{1}{n} E[S_n] = \mu$$y$$\text{Var}[A_n] = \dfrac{1}{n^2} \text{Var} [S_n] = \sigma^2/n$$

Aquí radica la clave de la utilidad de una muestra grande. La media del promedio muestral$$A_n$$ es la misma que la media poblacional, pero la varianza del promedio muestral es$$1/n$$ por la varianza poblacional. De esta manera, para una muestra suficientemente grande, la probabilidad es alta de que el valor observado del promedio muestral sea cercano a la media poblacional. La desviación estándar poblacional, como medida de la variación, se reduce por un factor$$1/\sqrt{n}$$.

Ejemplo$$\PageIndex{1}$$ Sample size

Supongamos que una población tiene media$$\mu$$ y varianza$$\sigma^2$$. Se va a tomar$$n$$ una muestra de tamaño. Hay preguntas complementarias:

1. Si$$n$$ se da, ¿cuál es la probabilidad de que el promedio de la muestra se encuentre a distancia a de la media poblacional?
2. ¿Qué valor de$$n$$ se requiere para asegurar una probabilidad de al menos p de que el promedio muestral se encuentre dentro de la distancia a de la media poblacional?

Solución

Supongamos que la varianza de la muestra es conocida o puede aproximarse razonablemente. Si el tamaño de la muestra$$n$$ es razonablemente grande, dependiendo de la distribución poblacional (como se vio en las demostraciones anteriores), entonces$$A_n$$ es aproximadamente$$N(\mu, \sigma^2/n)$$.

$$p = P(|A_n - \mu| \le a) = P(|\dfrac{A_n - \mu}{\sigma/\sqrt{n}}| \le \dfrac{a \sqrt{n}}{\sigma} = 2\phi (a \sqrt{n}/\sigma) -1$$

$$2 \phi (a \sqrt{n}/\sigma) - 1 \ge p$$iff$$\phi (a\sqrt{n} /\sigma) \ge \dfrac{p + 1}{2}$$

Encuentra a partir de una tabla o mediante el uso de la función normal inversa el valor de$$x = a\sqrt{n}/\sigma$$ requerido para hacer al$$\phi (x)$$ menos$$(p + 1)/2$$. Entonces

$$n \ge \sigma^2 (x/a)^2 = (\dfrac{\sigma}{a})^2 x^2$$

Podemos usar la función de MATLAB norminv para calcular los valores de$$x$$ para varios$$p$$.

p = [0.8 0.9 0.95 0.98 0.99];
x = norminv(0,1,(1+p)/2);
disp([p;x;x.^2]')
0.8000    1.2816    1.6424
0.9000    1.6449    2.7055
0.9500    1.9600    3.8415
0.9800    2.3263    5.4119
0.9900    2.5758    6.6349


Para$$p = 0.95$$,$$\sigma = 2$$,$$a = 0.2$$,$$n \ge (2/0.2)^2 3.8415 = 384.15$$. Use al menos 385 o quizás 400 debido a la incertidumbre sobre el real$$\sigma^2$$

En función de las variables aleatorias en el proceso de muestreo, el promedio muestral es un ejemplo de estadística.

Un estadístico es una función de la clase$$\{X_i: 1 \le i \le n\}$$ que utiliza explícitamente no hay parámetros desconocidos de la población.

Ejemplo$$\PageIndex{2}$$ Statistics as functions of the sampling progress

La variable aleatoria

$$W = \dfrac{1}{n} \sum_{i = 1}^{n} (X_i - \mu)^2$$, donde$$\mu = E[X]$$

no es una estadística, ya que utiliza el parámetro desconocido$$\mu$$. Sin embargo, lo siguiente es una estadística.

$$V_n^* = \dfrac{1}{n} \sum_{i = 1}^{n} (X_i - A_n)^2 = \dfrac{1}{n} \sum_{i = 1}^{n} X_i^2 - A_n^2$$

Parecería que$$V_n^*$$ podría ser una estimación razonable de la varianza poblacional. Sin embargo, el siguiente resultado muestra que es deseable una ligera modificación.

Ejemplo$$\PageIndex{3}$$ An estimator for the population variance

$$V_n = \dfrac{1}{n - 1} \sum_{i = 1}^{n} (X_i - A_n)^2$$

es un estimador para la varianza poblacional.

VERIFICACIÓN

$$V_n^* = \dfrac{1}{n} \sum_{i = 1}^{n} (X_i - A_n)^2 = \dfrac{1}{n} \sum_{i = 1}^{n} X_i^2 - A_n^2$$

Señalando que$$E[X^2] = \sigma^2 + \mu^2$$, usamos la última expresión para mostrar

$$E[V_n^*] = \dfrac{1}{n} n (\sigma^2 + \mu^2) - (\dfrac{\sigma^2}{n} + \mu^2) = \dfrac{n - 1}{n} \sigma^2$$

La cantidad tiene un sesgo en el promedio. Si consideramos

$$V_n = \dfrac{n}{n - 1} V_n^* = \dfrac{1}{n - 1} \sum_{i = 1}^{n} (X_i - A_n)^2$$, luego$$E[V_n] = \dfrac{n}{n - 1} \dfrac{n - 1}{n} \sigma^2 = \sigma^2$$

La cantidad$$V_n$$ con$$1/(n - 1)$$ en lugar de a menudo$$1/n$$ se denomina varianza de la muestra para distinguirla de la varianza poblacional. Si el conjunto de números

$$(t_1, t_2, \cdot\cdot\cdot, t_N)$$

representan el conjunto completo de valores en una población de$$N$$ integrantes, la varianza para la población estaría dada por

$$\sigma^2 = \dfrac{1}{N} \sum_{i = 1}^{N} t_i^2 - (\dfrac{1}{N} \sum_{i = 1}^{N} t_i)^2$$

Aquí usamos$$1/N$$ en lugar de$$1/(N -1)$$.

Dado que el estadístico$$V_n$$ tiene valor medio$$\sigma^2$$, parece un candidato razonable para un estimador de la varianza poblacional. Si preguntamos qué tan bueno es, debemos considerar su varianza. Como variable aleatoria, tiene varianza. Una evaluación similar a la de la media, pero más complicada en detalle, muestra que

$$\text{Var} [V_n] = \dfrac{1}{n} (\mu_4 - \dfrac{n - 3}{n - 1} \sigma^4)$$donde$$\mu_4 = E[(X - \mu)^4]$$

Para grandes$$n$$,$$\text{Var} [V_n]$$ es pequeño, por lo que$$V_n$$ es un buen estimador de muestra grande para$$\sigma^2$$.

Ejemplo$$\PageIndex{4}$$ A sampling demonstration of the CLT

Considerar una variable aleatoria poblacional$$X$$ ~ uniforme [-1, 1]. Entonces$$E[X] = 0$$ y$$\text{Var} [X] = 1/3$$. Tomamos 100 muestras de tamaño 100 y determinamos las sumas de las muestras. Esto da una muestra de tamaño 100 de la variable aleatoria de suma muestral$$S_{100}$$, la cual tiene media cero y varianza 100/3. Para cada valor observado de la variable aleatoria de suma de muestra, se grafica la fracción de sumas observadas menores o iguales a ese valor. Esto produce una función de distribución experimental para$$S_{100}$$, que se compara con la función de distribución para una variable aleatoria$$Y$$ ~$$N(0, 100/3)$$.

rand('seed',0)    % Seeds random number generator for later comparison
tappr                                         % Approximation setup
Enter matrix [a b] of x-range endpoints  [-1 1]
Enter number of x approximation points  100
Enter density as a function of t  0.5*(t<=1)
Use row matrices X and PX as in the simple case

qsample                                 % Creates sample
Enter row matrix of VALUES  X
Enter row matrix of PROBABILITIES  PX
Sample size n =  10000                  % Master sample size 10,000
Sample average ex = 0.003746
Approximate population mean E(X) = 1.561e-17
Sample variance vx = 0.3344
Approximate population variance V(X) = 0.3333
m = 100;
a = reshape(T,m,m);                     % Forms 100 samples of size 100
A = sum(a);                             % Matrix A of sample sums
[t,f] = csort(A,ones(1,m));             % Sorts A and determines cumulative
p = cumsum(f)/m;                        % fraction of elements <= each value
pg = gaussian(0,100/3,t);               % Gaussian dbn for sample sum values
plot(t,p,'k-',t,pg,'k-.')               % Comparative plot
% Plotting details                      (see Figure 13.3.1)

Figura 13.3.1. El teorema del límite central para las sumas muestrales.

This page titled 13.3: Muestras aleatorias simples y estadísticas is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform.