Saltar al contenido principal
LibreTexts Español

3.2: Aplicaciones e interpretaciones de los LSRL

  • Page ID
    149761
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Supongamos que tenemos un conjunto de datos cuantitativo bivariado\(\{(x_1,y_1), \dots , (x_n,y_n)\}\) y hemos calculado su coeficiente de correlación\(r\) y (los coeficientes de) su LSRL\(\widehat{y}=mx+b\). ¿Para qué sirve esta información?

    El uso principal del LSRL se describe a continuación

    [def:interpolation] Dado un conjunto de datos cuantitativo bivariado y asociado LSRL con ecuación\(\widehat{y}=mx+b\), el proceso de adivinar que el valor de la variable dependiente en esta relación para tener el valor\(mx_0+b\), para\(x_0\) cualquier valor para el variable independiente que satisface\(x_{min}\le x_0\le x_{max}\), se llama interpolación.

    La idea de interpolación es que pensamos que la LSRL describe lo mejor posible la relación entre las variables independientes y dependientes, de manera que si tenemos un nuevo\(x\) valor, usaremos la ecuación LSRL para predecir cuál sería nuestra mejor suposición de cuál sería la correspondiente \(y\). Tenga en cuenta que podríamos tener un nuevo valor de\(x\) porque simplemente perdimos parte de nuestro conjunto de datos y estamos tratando de rellenarlo lo mejor que podamos. Otra razón podría ser que apareció un nuevo individuo cuyo valor de la variable independiente,\(x_0\), era típico del resto del conjunto de datos —así que el mínimo\(x_{min}\le x_0\le x_{max}\) — y queremos adivinar cuál será el valor de la variable dependiente para este individuo antes que nosotros medirlo. (O tal vez no podemos medirlo por alguna razón.)

    Un enfoque alternativo común (pero ingenuo) para la interpolación para un valor\(x_0\) como el anterior podría ser encontrar dos valores\(x_i\) y\(x_j\) en el conjunto de datos que estuvieran lo más cerca\(x_0\) posible, y a cada lado del mismo (así\(x_i<x_0<x_j\)), y simplemente para adivinar que el\(y\) -valor para\(x_0\) sería el promedio de\(y_i\) y\(y_j\). Esta no es una idea terrible, pero no es tan efectiva como usar el LSRL como se describió anteriormente, ya que usamos todo el conjunto de datos cuando construimos los coeficientes del LSRL. Entonces el LSRL dará, por el proceso de interpolación, la mejor suposición para lo que debería ser ese\(y\) valor faltante basado en todo lo que sabemos, mientras que el método “promedio de\(y_i\) y\(y_j\)” solo presta atención a esos dos puntos de datos más cercanos y así puede dar una muy mala suposición para el\(y\) -valor correspondiente si esos dos puntos no son perfectamente típicos, si tienen alguna aleatoriedad, cualquier variación en sus\(y\) -valores que no se deba a la variación del\(x\).

    Por lo tanto, siempre es mejor usar la interpolación como se describió anteriormente.

    EJEMPLO 3.2.2. Trabajando con los datos estadísticos de la tarea de los estudiantes y los puntos totales del curso del Ejemplo 3.1.4, supongamos que el libro de calificaciones del instructor del curso estaba algo corrompido y el instructor perdió los puntos finales del curso de la alumna Janet. Si los puntos de tarea de Janet de 77 no estuvieran en la parte corrupta del libro de calificaciones, el instructor podría usar la interpolación para adivinar cuál era probablemente el punto total del curso de Janet. Para ello, el instructor se habría enchufado\(x=77\) a la ecuación de la LSRL,\(\widehat{y}=mx+b\) para obtener los puntos totales estimados del curso de\(.754\cdot77+26.976=85.034\).

    Otro uso importante de los (coeficientes de la) LSRL es usar los significados subyacentes de la pendiente e\(y\) -intercepción. Para ello, recordemos que en la ecuación\(y=mx+b\), la pendiente nos\(m\) dice cuánto sube la línea (o baja, si la pendiente es negativa) por cada incremento del\(x\) por una unidad, mientras que la\(y\) -intercepción nos\(b\) dice qué sería el\(y\) valor donde la línea cruza el\(y\) eje -eje, así que cuando el\(x\) tiene el valor 0. En cada situación particular que tenemos datos cuantitativos bivariados y calculamos un LSRL, entonces podemos usar estas interpretaciones para hacer declaraciones sobre la relación entre las variables independientes y dependientes.

    EJEMPLO 3.2.3. Observe una vez más los datos sobre la tarea de los estudiantes y los puntos totales del curso en una clase de estadística del Ejemplo 3.1.4, y el LSRL computado allí. Dijimos que la pendiente de la LSRL era\(m=.754\) y la\(y\) -intercepción era\(b=26.976\). En contexto, lo que esto significa, es que En promedio, cada punto adicional de tarea correspondía a un incremento del\(.754\) total de puntos del curso. Podemos esperar que esta sea realmente una relación causal, que el trabajo extra que hace un estudiante para obtener ese puntaje adicional de punto de tarea ayude al estudiante a aprender más estadísticas y por lo tanto a obtener\(.75\) más puntos totales del curso. Pero la matemática aquí no requiere de esa causalidad, simplemente nos dice que el incremento en\(x\) está asociado a ese tanto incremento en\(y\).

    De igual manera, también podemos concluir de la LSRL que En general, un estudiante que no hiciera ninguna tarea en absoluto ganaría aproximadamente el\(26.976\) total de puntos del curso. Nuevamente, no podemos concluir que no hacer la tarea provoque ese terrible punto final del curso total, solo que haya una asociación.


    This page titled 3.2: Aplicaciones e interpretaciones de los LSRL is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jonathan A. Poritz via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.