Saltar al contenido principal
Library homepage
 
LibreTexts Español

15.7: Respecto a los coeficientes de regresión

  • Page ID
    151874
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Antes de pasar a discutir los supuestos subyacentes a la regresión lineal y lo que se puede hacer para verificar si se están cumpliendo, hay dos temas más que quiero discutir brevemente, ambos relacionados con los coeficientes de regresión. Lo primero de lo que hay que hablar es calcular los intervalos de confianza para los coeficientes; después de eso, discutiré la cuestión algo turbia de cómo determinar cuál de los predictores es más importante.

    Intervalos de confianza para los coeficientes

    Como cualquier parámetro poblacional, los coeficientes de regresión b no se pueden estimar con precisión completa a partir de una muestra de datos; eso es parte de por qué necesitamos pruebas de hipótesis. Ante esto, es bastante útil poder reportar intervalos de confianza que capten nuestra incertidumbre sobre el verdadero valor de b, lo que resulta especialmente útil cuando la pregunta de investigación se centra fuertemente en un intento de averiguar qué tan fuertemente se relaciona la variable X con la variable Y, ya que en esas situaciones el interés está principalmente en el peso de regresión b. Afortunadamente, los intervalos de confianza para los pesos de regresión pueden construirse de la manera habitual,

    \(\ CI(b) = \hat{b}\ \pm\ (t_{crit} \ x\ SE(\hat{b}) )\)

    donde SE (\(\ \hat{b}\)) es el error estándar del coeficiente de regresión, y t crit es el valor crítico relevante de la distribución t apropiada. Por ejemplo, si lo que queremos es un intervalo de confianza del 95%, entonces el valor crítico es el cuantil 97.5th de una distribución t con N−K−1 grados de libertad. En otras palabras, este es básicamente el mismo enfoque para calcular los intervalos de confianza que hemos utilizado a lo largo de todo. Para hacer esto en R podemos usar la función confint (). Hay argumentos para esta función son

    • objeto. El modelo de regresión (objeto lm) para el que se requieren intervalos de confianza.
    • parm. Un vector que indica para qué coeficientes debemos calcular los intervalos. Esto puede ser un vector de números o (más útilmente) un vector de caracteres que contiene nombres de variables. Por defecto, se incluyen todos los coeficientes, por lo que normalmente no te molestas en especificar este argumento.
    • nivel. Un número que indica el nivel de confianza que se debe utilizar. Como suele ser el caso, el valor predeterminado es 0.95, por lo que normalmente no necesitaría especificar este argumento.

    Entonces, supongamos que quiero intervalos de confianza del 99% para los coeficientes en el modelo de regressión.2. Podría hacer esto usando el siguiente comando:

    confint( object = regression.2,
            level = .99)
    ##                   0.5 %      99.5 %
    ## (Intercept) 117.9755724 133.9555593
    ## dan.sleep   -10.4044419  -7.4960575
    ## baby.sleep   -0.7016868   0.7227357

    Bastante simple.

    Cálculo de coeficientes de regresión estandarizados

    Una cosa más que quizás quieras hacer es calcular los coeficientes de regresión “estandarizados”, a menudo denotados β. El razonamiento detrás de los coeficientes estandarizados va así. En muchas situaciones, tus variables están en escalas fundamentalmente diferentes. Supongamos, por ejemplo, que mi modelo de regresión tiene como objetivo predecir los puntajes de CI de las personas, utilizando su logro educativo (número de años de educación) y sus ingresos como predictores. Obviamente, el logro educativo y los ingresos no están en las mismas escalas: el número de años de escolaridad sólo puede variar en diez años, mientras que los ingresos variarían en 10 mil dólares (o más). Las unidades de medida tienen una gran influencia en los coeficientes de regresión: los coeficientes b solo tienen sentido cuando se interpretan a la luz de las unidades, tanto de las variables predictoras como de la variable de resultado. Esto hace muy difícil comparar los coeficientes de diferentes predictores. Sin embargo, hay situaciones en las que realmente se quiere hacer comparaciones entre diferentes coeficientes. Específicamente, es posible que desee algún tipo de medida estándar de qué predictores tienen la relación más fuerte con el resultado. Esto es lo que pretenden hacer los coeficientes estandarizados.

    La idea básica es bastante simple: los coeficientes estandarizados son los coeficientes que habrías obtenido si hubieras convertido todas las variables a puntuaciones z antes de ejecutar la regresión. 219 La idea aquí es que, al convertir todos los predictores en puntuaciones z, todos entran en la regresión en la misma escala, eliminando así el problema de tener variables en diferentes escalas. Independientemente de cuáles fueran las variables originales, un valor β de 1 significa que un aumento en el predictor de 1 desviación estándar producirá un aumento correspondiente de 1 desviación estándar en la variable de resultado. Por lo tanto, si la variable A tiene un valor absoluto mayor de β que la variable B, se considera que tiene una relación más fuerte con el resultado. O al menos esa es la idea: vale la pena ser un poco cauteloso aquí, ya que esto sí depende mucho de la suposición de que “un cambio de 1 desviación estándar” es fundamentalmente el mismo tipo de cosas para todas las variables. No siempre es obvio que esto es cierto.

    Dejando de lado las cuestiones de interpretación, veamos cómo se calcula. Lo que podrías hacer es estandarizar todas las variables tú mismo y luego ejecutar una regresión, pero hay una manera mucho más sencilla de hacerlo. Resulta que el coeficiente β para un predictor X y el resultado Y tiene una fórmula muy simple, a saber

    \(\ \beta_X = {b_X \times {\sigma_X \over \sigma_Y}}\)

    donde σ X es la desviación estándar del predictor, y σY es la desviación estándar de la variable de resultado Y. Esto hace que las cosas sean mucho más simples. Para hacer las cosas aún más simples, el paquete lsr incluye una función standardCoefs () que calcula los coeficientes β.

    standardCoefs( regression.2 )
    ##                      b        beta
    ## dan.sleep  -8.95024973 -0.90474809
    ## baby.sleep  0.01052447  0.00217223

    Esto muestra claramente que la variable dan.sleep tiene un efecto mucho más fuerte que la variable baby.sleep. Sin embargo, este es un ejemplo perfecto de una situación en la que probablemente tendría sentido usar los coeficientes originales b en lugar de los coeficientes normalizados β. Después de todo, mi sueño y el sueño del bebé ya están en la misma escala: número de horas dormidas. ¿Por qué complicar las cosas al convertirlas en puntuaciones z?


    This page titled 15.7: Respecto a los coeficientes de regresión is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Danielle Navarro via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.