Saltar al contenido principal
LibreTexts Español

3.14: ¿De dónde viene el N - 1?

  • Page ID
    73954
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Si conocemos\(\mu\) y tenemos un conjunto de puntos de\(N\) datos, la mejor estimación que podemos hacer de la varianza es

    \[\sigma^2=\int^{u_{max}}_{u_{min}}{\left(u-\mu \right)}^2\left(\frac{df}{du}\right)du \approx \sum^N_{i=1}{\left(u_i-\mu \right)}^2\left(\frac{1}{N}\right)\]

    Hemos dicho que si debemos utilizar\(\overline{u}\) para aproximar la media, la mejor estimación de\(\sigma^2\), generalmente denotada\(s^2\), es

    \[estimated\ \sigma^2=s^2 =\sum^N_{i=1}{\left(u_i-\overline{u}\right)}^2\left(\frac{1}{N-1}\right)\]

    El uso de\(N-1\), más que\(N\), en el denominador es claramente poco intuitivo; tanto es así que esta ecuación a menudo causa una gran irritación. Veamos cómo surge esta ecuación.

    Supongamos que tenemos una distribución cuya media es\(\mu\) y la varianza es\(\sigma^2\). Supongamos que dibujamos\(N\) valores de la variable aleatoria\(u\),, de la distribución. Queremos pensar en el valor esperado de\({\left(u-\mu \right)}^2\). Escribamos\(\left(u-\mu \right)\) como

    \[\left(u-\mu \right)=\left(u-\overline{u}\right)+\left(\overline{u}-\mu \right).\]

    Al cuadrar esto da

    \[{\left(u-\mu \right)}^2={\left(u-\overline{u}\right)}^2+{\left(\overline{u}-\mu \right)}^2+2\left(u-\overline{u}\right)\left(\overline{u}-\mu \right).\]

    A partir de nuestra definición de valor esperado, podemos escribir:

    \[ \begin{array}{l} \text{Expected value of } \left(u-\mu \right)^2= \\ ~~~~ =expected\ value\ of\ \ {\left(u-\overline{u}\right)}^2 \\ \ \ \ \ +expected\ value\ of\ {\left(\overline{u}-\mu \right)}^2 \\ \ \ \ \ +expected\ value\ of\ 2\left(u-\overline{u}\right)\left(\overline{u}-\mu \right) \end{array}\]

    De nuestra discusión anterior, podemos reconocer cada uno de estos valores esperados:

    • El valor esperado de\({\left(u-\mu \right)}^2\) es la varianza de la distribución original, que es\(\sigma^2\). Ya que esta es una definición, es exacta.
    • La mejor estimación posible del valor esperado de\({\left(u-\overline{u}\right)}^2\) es\[\sum^N_{i=1}{{\left(u_i-\overline{u}\right)}^2\left(\frac{1}{N}\right)}\]
    • El valor esperado de\({\left(\overline{u}-\mu \right)}^2\) es el valor esperado de la varianza de promedios de variables\(N\) aleatorias extraídas de la distribución original. Es decir, el valor esperado de\({\left(\overline{u}-\mu \right)}^2\) es lo que obtendríamos si repetidamente sacáramos\(N\) valores de la distribución original, calculáramos el promedio de cada conjunto de\(N\) valores, y luego encontráramos la varianza de esta nueva distribución de valores promedio. Por el teorema del límite central, esta varianza es\({\sigma^2}/{N}\). Así, el valor esperado de\({\left(\overline{u}-\mu \right)}^2\) es exactamente\({\sigma^2}/{N}\).
    • Ya que\(\left(\overline{u}-\mu \right)\) es constante, el valor esperado de\(2\left(u-\overline{u}\right)\left(\overline{u}-\mu \right)\) es\[2\left(\overline{u}-\mu \right)\left[\frac{1}{N}\sum^N_{i=1}{\left(u_i-\overline{u}\right)}\right]\] que es igual a cero, porque\[\sum^N_{i=1}{\left(u_i-\overline{u}\right)} = \left(\sum^N_{i=1}{u_i}\right)-N\overline{u}=0\] por la definición de\(\overline{u}\).

    Sustituyendo, nuestra expresión por el valor esperado de\({\left(u-\mu \right)}^2\) se convierte en:

    \[\sigma^2\approx \sum^N_{i=1} \left(u_i-\overline{u}\right)^2\left(\frac{1}{N}\right)+\frac{\sigma^2}{N}\]

    para que

    \[\sigma^2\left(1-\frac{1}{N}\right)=\sigma^2\left(\frac{N-1}{N}\right)\approx \sum^N_{i=1} \frac{\left(u_i-\overline{u}\right)^2}{N}\]

    y

    \[\sigma^2 \approx \sum^N_{i=1} \frac{\left(u_i-\overline{u}\right)^2}{N-1}\]

    Es decir, como se dijo originalmente, cuando debemos usar\(\overline{u}\) más que la media verdadera,\(\mu\), en la suma de las diferencias cuadradas, la mejor estimación posible de\(\sigma^2\), generalmente denotada\(s^2\), se obtiene dividiendo por\(N-1\), en lugar de por\(N\).


    This page titled 3.14: ¿De dónde viene el N - 1? is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Paul Ellgen via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.