Saltar al contenido principal
Library homepage
 
LibreTexts Español

10.3: Características de los Estimadores

  • Page ID
    152006
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Objetivos de aprendizaje

    1. Definir sesgo
    2. Definir variabilidad de muestreo
    3. Definir el valor esperado
    4. Definir la eficiencia relativa

    En esta sección se analizan dos características importantes de las estadísticas utilizadas como estimaciones puntuales de parámetros: sesgo y variabilidad de muestreo. El sesgo se refiere a si un estimador tiende a sobreestimar o subestimar el parámetro. La variabilidad de muestreo se refiere a cuánto varía la estimación de una muestra a otra.

    ¿Alguna vez te has dado cuenta de que algunas básculas de baño te dan pesos muy diferentes cada vez que te pesas? Con esto en mente, comparemos dos escalas. \(1\)La báscula es una báscula digital de muy alta tecnología y da esencialmente el mismo peso cada vez que se pesa a ti mismo; varía como máximo en\(0.02\) libras desde el pesaje hasta el pesaje. Aunque esta báscula tiene el potencial de ser muy precisa, se calibra incorrectamente y, en promedio, exagera su peso en una libra. \(2\)La báscula es una báscula barata y da resultados muy diferentes desde el pesaje hasta el pesaje. Sin embargo, es tan probable que subestime como sobreestimar su peso. A veces lo sobreestima enormemente y a veces lo subestima enormemente. No obstante, el promedio de un gran número de medidas sería su peso real. \(1\)La escala está sesgada ya que, en promedio, sus medidas son una libra más altas que su peso real. La escala\(2\), por el contrario, da estimaciones imparciales de tu peso. Sin embargo, la Escala\(2\) es muy variable y sus medidas suelen estar muy lejos de tu verdadero peso. La escala\(1\), a pesar de estar sesgada, es bastante precisa. Sus medidas nunca son más que\(1.02\) libras de tu peso real.

    Pasamos ahora a definiciones más formales de variabilidad y precisión. No obstante, las ideas básicas son las mismas que en el ejemplo de la báscula de baño.

    Sesgo

    Un estadístico está sesgado si el valor promedio a largo plazo del estadístico no es el parámetro que está estimando. De manera más formal, un estadístico está sesgado si la media de la distribución muestral del estadístico no es igual al parámetro. La media de la distribución muestral de un estadístico se denomina a veces el valor esperado del estadístico.

    Como vimos en la sección sobre la distribución muestral de la media, la media de la distribución muestral de la media (muestra) es la media poblacional (\(μ\)). Por lo tanto, la media muestral es una estimación imparcial de\(μ\). Cualquier media muestral dada puede subestimar o sobreestimar\(\mu\), pero no existe una tendencia sistemática de que las medias muestrales se subestimen o sobreestimen\(μ\).

    En la sección de variabilidad, vimos que la fórmula para la varianza en una población es

    \[ \sigma^2 = \dfrac{\displaystyle \sum (X-\mu)^2}{N}\]

    mientras que la fórmula para estimar la varianza de una muestra es

    \[ s^2 = \dfrac{\displaystyle \sum (X-M)^2}{N-1}\]

    Observe que los denominadores de las fórmulas son diferentes:\(N\) para la población y\(N-1\) para la muestra. Vimos en la “Estimación de Varianza Simulación” que si\(N\) se usa en la fórmula para\(s^2\), entonces las estimaciones tienden a ser demasiado bajas y por lo tanto sesgadas. La fórmula con\(N-1\) en el denominador da una estimación imparcial de la varianza poblacional. Tenga en cuenta\(N-1\) que son los grados de libertad.

    Variabilidad de muestreo

    La variabilidad muestral de un estadístico se refiere a cuánto varía el estadístico de una muestra a otra y generalmente se mide por su error estándar; cuanto menor es el error estándar, menor es la variabilidad del muestreo. Por ejemplo, el error estándar de la media es una medida de la variabilidad muestral de la media. Recordemos que la fórmula para el error estándar de la media es

    \[ \sigma_M = \dfrac{\sigma}{\sqrt{N}}\]

    Cuanto mayor sea el tamaño de la muestra (\(N\)), menor será el error estándar de la media y, por lo tanto, menor será la variabilidad del muestreo.

    Las estadísticas difieren en su variabilidad de muestreo incluso con el mismo tamaño de muestra. Por ejemplo, para distribuciones normales, el error estándar de la mediana es mayor que el error estándar de la media. Cuanto menor sea el error estándar de una estadística, más eficiente será la estadística. La eficiencia relativa de dos estadísticas se define típicamente como la relación de sus errores estándar. Sin embargo, a veces se define como la relación de sus errores estándar al cuadrado.


    This page titled 10.3: Características de los Estimadores is shared under a Public Domain license and was authored, remixed, and/or curated by David Lane via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.