3.14: ¿De dónde viene el N - 1?
- Page ID
- 73954
Si conocemos\(\mu\) y tenemos un conjunto de puntos de\(N\) datos, la mejor estimación que podemos hacer de la varianza es
\[\sigma^2=\int^{u_{max}}_{u_{min}}{\left(u-\mu \right)}^2\left(\frac{df}{du}\right)du \approx \sum^N_{i=1}{\left(u_i-\mu \right)}^2\left(\frac{1}{N}\right)\]
Hemos dicho que si debemos utilizar\(\overline{u}\) para aproximar la media, la mejor estimación de\(\sigma^2\), generalmente denotada\(s^2\), es
\[estimated\ \sigma^2=s^2 =\sum^N_{i=1}{\left(u_i-\overline{u}\right)}^2\left(\frac{1}{N-1}\right)\]
El uso de\(N-1\), más que\(N\), en el denominador es claramente poco intuitivo; tanto es así que esta ecuación a menudo causa una gran irritación. Veamos cómo surge esta ecuación.
Supongamos que tenemos una distribución cuya media es\(\mu\) y la varianza es\(\sigma^2\). Supongamos que dibujamos\(N\) valores de la variable aleatoria\(u\),, de la distribución. Queremos pensar en el valor esperado de\({\left(u-\mu \right)}^2\). Escribamos\(\left(u-\mu \right)\) como
\[\left(u-\mu \right)=\left(u-\overline{u}\right)+\left(\overline{u}-\mu \right).\]
Al cuadrar esto da
\[{\left(u-\mu \right)}^2={\left(u-\overline{u}\right)}^2+{\left(\overline{u}-\mu \right)}^2+2\left(u-\overline{u}\right)\left(\overline{u}-\mu \right).\]
A partir de nuestra definición de valor esperado, podemos escribir:
\[ \begin{array}{l} \text{Expected value of } \left(u-\mu \right)^2= \\ ~~~~ =expected\ value\ of\ \ {\left(u-\overline{u}\right)}^2 \\ \ \ \ \ +expected\ value\ of\ {\left(\overline{u}-\mu \right)}^2 \\ \ \ \ \ +expected\ value\ of\ 2\left(u-\overline{u}\right)\left(\overline{u}-\mu \right) \end{array}\]
De nuestra discusión anterior, podemos reconocer cada uno de estos valores esperados:
- El valor esperado de\({\left(u-\mu \right)}^2\) es la varianza de la distribución original, que es\(\sigma^2\). Ya que esta es una definición, es exacta.
- La mejor estimación posible del valor esperado de\({\left(u-\overline{u}\right)}^2\) es\[\sum^N_{i=1}{{\left(u_i-\overline{u}\right)}^2\left(\frac{1}{N}\right)}\]
- El valor esperado de\({\left(\overline{u}-\mu \right)}^2\) es el valor esperado de la varianza de promedios de variables\(N\) aleatorias extraídas de la distribución original. Es decir, el valor esperado de\({\left(\overline{u}-\mu \right)}^2\) es lo que obtendríamos si repetidamente sacáramos\(N\) valores de la distribución original, calculáramos el promedio de cada conjunto de\(N\) valores, y luego encontráramos la varianza de esta nueva distribución de valores promedio. Por el teorema del límite central, esta varianza es\({\sigma^2}/{N}\). Así, el valor esperado de\({\left(\overline{u}-\mu \right)}^2\) es exactamente\({\sigma^2}/{N}\).
- Ya que\(\left(\overline{u}-\mu \right)\) es constante, el valor esperado de\(2\left(u-\overline{u}\right)\left(\overline{u}-\mu \right)\) es\[2\left(\overline{u}-\mu \right)\left[\frac{1}{N}\sum^N_{i=1}{\left(u_i-\overline{u}\right)}\right]\] que es igual a cero, porque\[\sum^N_{i=1}{\left(u_i-\overline{u}\right)} = \left(\sum^N_{i=1}{u_i}\right)-N\overline{u}=0\] por la definición de\(\overline{u}\).
Sustituyendo, nuestra expresión por el valor esperado de\({\left(u-\mu \right)}^2\) se convierte en:
\[\sigma^2\approx \sum^N_{i=1} \left(u_i-\overline{u}\right)^2\left(\frac{1}{N}\right)+\frac{\sigma^2}{N}\]
para que
\[\sigma^2\left(1-\frac{1}{N}\right)=\sigma^2\left(\frac{N-1}{N}\right)\approx \sum^N_{i=1} \frac{\left(u_i-\overline{u}\right)^2}{N}\]
y
\[\sigma^2 \approx \sum^N_{i=1} \frac{\left(u_i-\overline{u}\right)^2}{N-1}\]
Es decir, como se dijo originalmente, cuando debemos usar\(\overline{u}\) más que la media verdadera,\(\mu\), en la suma de las diferencias cuadradas, la mejor estimación posible de\(\sigma^2\), generalmente denotada\(s^2\), se obtiene dividiendo por\(N-1\), en lugar de por\(N\).