Saltar al contenido principal
LibreTexts Español

14.6:\( r^2\), The Correlation of Determination

  • Page ID
    151934
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    La prueba de hipótesis ANOVA de regresión se puede utilizar para determinar si existe una correlación significativa entre la variable independiente (\(X\)) y la variable dependiente (\(Y\)). Ahora queremos investigar la fuerza de la correlación.

    En el capítulo anterior sobre estadística descriptiva, se introdujo el coeficiente de correlación (\(r\)), un valor entre ‐1 y 1. Los valores\(r\) cercanos a 0 significaron que hubo poca correlación entre las variables, mientras que los valores más cercanos a 1 o ‐1 representaron correlaciones más fuertes.

    En la práctica, la mayoría de los estadísticos e investigadores prefieren utilizar\(r^{2}\), el coeficiente de determinación como medida de fuerza ya que representa la proporción o porcentaje de la variabilidad de\(Y\) que se explica por la variabilidad de\(X\). 87

    \(r^2\)

    \(r^{2}=\dfrac{S S_{\text{regression}}{S S_{\text {Total }}} \dquad 0 \% \leq r^{2} \leq 100 \%\)

    \(r^{2}\)representa el porcentaje de la variabilidad de\(Y\) que se explica por la variabilidad de\(X\).

    clipboard_eb6c5753f8712e0ce8e70d77a6973ede5.png

    También podemos calcular el coeficiente de correlación (\(r\)) tomando la raíz cuadrada apropiada de\(r^{2}\), dependiendo de si la estimación de la pendiente (\(b_1\)) es positiva o negativa:

    Si\(b_{1}>0, r=\sqrt{r^{2}}\)

    Si\(b_{1}<0, r=-\sqrt{r^{2}}\)

    Ejemplo: Lluvia y venta de gafas de sol

    Para los datos de precipitación, el coeficiente de determinación es:

    \(r^{2}=\dfrac{341.422}{380}=89.85 \%\)

    El 89.85% de la variabilidad de las ventas de gafas de sol se explica por la lluvia.

    Podemos calcular el coeficiente de correlación (\(r\)) tomando la raíz cuadrada apropiada de\(r^{2}\):

    \(r=-\sqrt{.8985}=-0.9479\)

    Aquí tomamos la raíz cuadrada negativa ya que la pendiente de la línea de regresión es negativa. Esto demuestra que existe una correlación fuerte y negativa entre las ventas de gafas de sol y la lluvia.


    This page titled 14.6:\( r^2\), The Correlation of Determination is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Maurice A. Geraghty via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.