Saltar al contenido principal
LibreTexts Español

3.3: Convertir los números en una medida de covarianza

  • Page ID
    150404
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    “Bien, entonces si estás diciendo que la covarianza es solo otra palabra para correlación o relación entre dos medidas, estoy bien con eso. Supongo que necesitaríamos alguna forma de medirlo”. Correcto, volvamos a nuestra mesa... ¿notaste algo nuevo?

    sujeto chocolate felicidad Chocolate_X_Felicidad
    1 1 1 1
    2 2 2 4
    3 2 3 6
    4 3 3 9
    5 3 3 9
    6 5 5 25
    7 4 6 24
    8 5 5 25
    9 9 5 45
    10 6 9 54
    Sumas 40 42 202
    Medios 4 4.2 20.2

    Hemos agregado una nueva columna llamada “Chocolate_X_Happiness”, que se traduce en puntuaciones de Chocolate multiplicadas por puntuaciones de Felicidad. Cada fila de la nueva columna, es el producto, o multiplicación de la puntuación de chocolate y felicidad para esa fila. Sí, pero ¿por qué haríamos esto?

    En el último capítulo te llevamos de vuelta a la primaria y te hicimos pensar en la división. Ahora es el momento de hacer lo mismo con la multiplicación. Asumimos que sabes cómo funciona eso. Un número por otro, significa tomar el primer número, y sumarlo tantas veces como dice el segundo,

    \( 2*2= 2+2=4 \nonumber \)

    \(2*6= 2+2+2+2+2+2 = 12\), o\(6+6=12\), lo mismo.

    Sí, ya sabes todo eso. Pero, ¿puedes doblar la multiplicación a tu voluntad y hacer que haga tu puja cuando sea necesario resolver un problema como resumir la covarianza? La multiplicación es el droide que estás buscando.

    Sabemos cómo múltiples números, y todo lo que tenemos que seguir es pensar en las consecuencias de multiplicar conjuntos de números juntos. Por ejemplo, ¿qué sucede cuando multiplicas dos números pequeños juntos, en comparación con multiplicar dos números grandes juntos? El primer producto debe ser más pequeño que el segundo producto ¿verdad? ¿Qué tal cosas como multiplicar un número pequeño por un número grande? Esos productos deberían estar en el medio ¿verdad?.

    Entonces el siguiente paso es pensar en cómo los productos de dos medidas suman juntos, dependiendo de cómo se alineen. Veamos otra mesa:

    puntuaciones X Y A B XY AB
    1 1 1 1 10 1 10
    2 2 2 2 9 4 18
    3 3 3 3 8 9 24
    4 4 4 4 7 16 28
    5 5 5 5 6 25 30
    6 6 6 6 5 36 30
    7 7 7 7 4 49 28
    8 8 8 8 3 64 24
    9 9 9 9 2 81 18
    10 10 10 10 1 100 10
    Sumas 55 55 55 55 385 220
    Medios 5.5 5.5 5.5 5.5 38.5 22

    Mira las columnas X e Y. Las puntuaciones para X e Y covarían perfectamente. Cuando X es 1, Y es 1; cuando X es 2, Y es 2, etc. están perfectamente alineados. Las puntuaciones para A y B también covarían perfectamente, justo de la manera opuesta. Cuando A es 1, B es 10; cuando A es 2, B es 9, etc. B es una copia invertida de A.

    Ahora, mira la columna\(XY\). Estos son los productos que obtenemos cuando multiplicamos los valores de X a través de los valores de Y. Además, mira la columna\(AB\). Estos son los productos que obtenemos cuando multiplicamos los valores de A a través con los valores de B. Hasta ahora tan bueno.

    Ahora, mira las Sumas para las columnas XY y AB. No es lo mismo. La suma de los productos XY es 385, y la suma de los productos AB es 220. Para este conjunto específico de datos, los números 385 y 220 son muy importantes. Representan la mayor suma posible de productos (385), y la menor suma posible de productos (220). No hay forma de reordenar los números del 1 al 10, digamos para X, y los números del 1 al 10 para Y, eso jamás produciría números mayores o menores. ¿No me crees? Echa un vistazo a esto:

    library(ggplot2)
    simulated_sums<-length(0)
    for(sim in 1:1000){
    	X<-sample(1:10)
    	Y<-sample(1:10)
    	simulated_sums[sim]<-sum(X*Y)
    }
    sim_df<-data.frame(sims=1:1000,simulated_sums)
    ggplot(sim_df,aes(x=sims,y=simulated_sums))+
      geom_point()+
      theme_classic()+
      geom_hline(yintercept = 385)+
      geom_hline(yintercept = 220)

    El gráfico anterior muestra 1000 simulaciones por computadora. Convencí a mi computadora para que ordenara aleatoriamente los números del 1 al 10 para X, y ordené aleatoriamente los números del 1 al 10 para Y. Luego, multipliqué X e Y, y agregué los productos juntos. Lo hice 1000 veces. Los puntos muestran la suma de los productos para cada simulación. Las dos líneas negras muestran la suma máxima posible (385), y la suma mínima posible (220), para este conjunto de números. Observe cómo todos los puntos están entre los valores máximos y mínimos posibles. Te lo dije.

    “Bien bien, me lo dijiste así... Y qué, ¿a quién le importa?”. Hemos estado buscando una manera de resumir la covarianza entre dos medidas ¿verdad? Bueno, para estos números, hemos encontrado uno, ¿no es así? Es la suma de los productos. Sabemos que cuando la suma de los productos es 385, hemos encontrado una correlación perfecta y positiva. Sabemos, que cuando la suma de los productos es 220, hemos encontrado una correlación negativa perfecta. ¿Qué pasa con los números intermedios? Qué podríamos concluir sobre la correlación si encontramos que la suma de los productos es de 350. Bueno, va a ser positivo, porque está cerca de 385, y eso es perfectamente positivo. Si la suma de los productos era 240, eso va a ser negativo, porque está cerca de lo perfectamente correlacionando negativamente 220. ¿Qué pasa con la ausencia de correlación? Bueno, eso va a estar en el medio entre 220 y 385 a la derecha.

    Acabamos de llegar a una medida resumida específica de datos para la correlación entre los números 1 a 10 en X, y los números 1 a 10 en Y, es la suma de los productos. Conocemos los valores máximo (385) y mínimo (220), por lo que ahora podemos interpretar cualquier suma de producto para este tipo de datos con respecto a esa escala.

    Consejo profesional: Cuando la correlación entre dos medidas aumenta en la dirección positiva, la suma de sus productos aumenta a su máximo valor posible. Esto se debe a que los números más grandes en X tenderán a alinearse con los números más grandes en Y, creando la mayor suma posible de productos. Cuando la correlación entre dos medidas aumenta en la dirección negativa, la suma de sus productos disminuye a su valor mínimo posible. Esto se debe a que los números más grandes en X tenderán a alinearse con los números más pequeños en Y, creando la menor suma posible de productos. Cuando no hay correlación, los números grandes en X se alinearán aleatoriamente con los números grandes y pequeños en Y, haciendo la suma de los productos, en algún lugar en el medio.

    Covarianza, la medida

    Nos tomamos un tiempo para ver qué pasa cuando multiplicas conjuntos de números juntos. Encontramos eso\( \textit{big} * \textit{big} = \text{bigger} \) y\( \textit{small} * \textit{small} = \text{still small}\), y\( \textit{big} * \textit{small} = \text{in the middle}\). El propósito de esto fue darle una idea conceptual de cómo la covarianza entre dos medidas se refleja en la suma de sus productos. Hicimos algo muy sencillo. Simplemente multiplicamos X por Y, y vimos cómo las sumas de productos se vuelven grandes y pequeñas, ya que X e Y covarían de diferentes maneras.

    Ahora, podemos ponernos un poco más formales. En estadística, la covarianza no es solo la multiplicación recta de valores en X e Y. En cambio, es la multiplicación de las desviaciones en X de la media de X, y la desviación en Y de la media de Y. ¿Recuerdas esas puntuaciones de diferencia de la media de la que hablamos el último capítulo? Están volviendo a perseguirlo ya sabes, pero en el buen sentido como Casper el fantasma amistoso.

    Veamos cómo se ve esto en una tabla:

    sujeto chocolate felicidad C_d H_d CD_x_HD
    1 1 1 -3 -3.2 9.6
    2 2 2 -2 -2.2 4.4
    3 2 3 -2 -1.2 2.4
    4 3 3 -1 -1.2 1.2
    5 3 3 -1 -1.2 1.2
    6 5 5 1 0.8 0.8
    7 4 6 0 1.8 0
    8 5 5 1 0.8 0.8
    9 9 5 5 0.8 4
    10 6 9 2 4.8 9.6
    Sumas 40 42 0 0 34
    Medios 4 4.2 0 0 3.4

    Hemos calculado las desviaciones de la media para las puntuaciones de chocolate (columna C_d), y las desviaciones de la media para las puntuaciones de felicidad (columna H_d). Entonces, los multiplicamos juntos (última columna). Por último, se puede ver la media de los productos enumerados en la esquina inferior derecha de la tabla, el oficial la covarianza.

    La fórmula para la covarianza es:

    \[ cov(X,Y) = \frac{\sum_{i}^{n}(x_{i}-\bar{X})(y_{i}-\bar{Y})}{N} \nonumber \]

    Bien, entonces ahora tenemos un único número formal para calcular la relación entre dos variables. Esto es genial, es lo que hemos estado buscando. Sin embargo, hay un problema. Recuerda cuando aprendimos a calcular solo la varianza simple y antigua. Miramos ese número, y no sabíamos qué hacer con él. Estaba al cuadrado, no estaba en la misma escala que los datos originales. Entonces, enraizamos al cuadrado la varianza para producir la desviación estándar, lo que nos dio un número más interpretable en el rango de nuestros datos. La covarianza tiene un problema similar. Cuando calculas la covarianza como acabamos de hacer, no sabemos de inmediato cuál es su escala. ¿Es un 3 grande? es un 6 grande? es un 100 grande? ¿Qué tan grande o pequeña es esta cosa?

    A partir de nuestra discusión previa sobre la idea de covarianza, aprendimos la suma de productos entre dos rangos de medidas entre un valor máximo y mínimo. Lo mismo ocurre con la covarianza. Para un conjunto dado de datos, existe un valor positivo máximo posible para la covarianza (que ocurre cuando hay correlación positiva perfecta). Y, hay un valor negativo mínimo posible para la covarianza (que ocurre cuando hay una correlación negativa perfecta). Cuando hay cero covariación, adivina qué pasa. Ceros. Entonces, por lo menos, cuando miramos una estadística de covariación, podemos ver qué dirección apunta, positiva o negativa. Pero, no sabemos qué tan grande o pequeño es comparado con el valor máximo o mínimo posible, por lo que no sabemos el tamaño relativo, lo que significa que no podemos decir qué tan fuerte es la correlación. ¿Qué hacer?

     

    Pearson está ahí todavía

    Sí, ya estamos aquí. ¿No sería bueno si pudiéramos obligar a nuestra medida de covariación a estar entre -1 y +1?

    -1 sería el valor mínimo posible para una correlación negativa perfecta. +1 sería el valor máximo posible para una correlación positiva perfecta. 0 significaría que no hay correlación. Todo entre 0 y -1 serían cada vez más grandes correlaciones negativas. Todo entre 0 y +1 serían cada vez más grandes correlaciones positivas. Sería un sistema fantástico, sensato, fácil de interpretar. Si tan solo pudiéramos obligar al número de covariación a estar entre -1 y 1. Afortunadamente, para nosotros, este episodio te lo trae Pearson's\(r\), que hace precisamente esta cosa maravillosa.

    Echemos un vistazo a una fórmula para Pearson\(r\):

    \[r = \frac{cov(X,Y)}{\sigma_{X}\sigma_{Y}} = \frac{cov(X,Y)}{SD_{X}SD_{Y}} \nonumber \]

    \(\sigma\)Aquí vemos el símbolo, eso es más griego para ti. \(\sigma\)se utiliza a menudo como símbolo de la desviación estándar (SD). Si leemos la fórmula en inglés, vemos que r es la covarianza de X e Y, dividida por el producto de la desviación estándar de X y la desviación estándar de Y. ¿Por qué estamos dividiendo la covarianza por el producto de las desviaciones estándar? Esta operación tiene el efecto de normalizar la covarianza en el rango -1 a 1.

    Nota

    Pero, vamos a llenar esta parte en cuanto podamos... pagaré para explicar la magia. Para tu información, no es magia. Breve explicación aquí es que dividir cada medida por su desviación estándar asegura que los valores en cada medida estén en el mismo rango entre sí.

    Por ahora, llamaremos a esto magia matemática. Funciona, pero no tenemos espacio para decirte por qué funciona ahora mismo.

    Vale la pena decir que hay un montón de fórmulas diferentes para computar las de Pearson\(r\). Los puedes encontrar buscarlos en Google. Probablemente incluiremos más de ellos aquí, cuando lleguemos a ello. No obstante, todos te dan la misma respuesta. Y, no todos son tan bonitos como el uno del otro. Algunos de ellos incluso podrían parecer aterradores. En otro libro de texto de estadísticas a menudo encontrarás fórmulas que son más fáciles de usar para fines de cálculo. Por ejemplo, si solo tuvieras lápiz y papel, podrías usar una u otra fórmula porque te ayuda a calcular la respuesta más rápido a mano. Para ser sinceros, no estamos muy interesados en enseñarte a enchufar números en fórmulas. Damos una lección sobre eso aquí: Poner los números en las letras, luego computar la respuesta. Perdón por ser sarcáneo. Hoy en día tienes una computadora que deberías usar para este tipo de cosas. Entonces, estamos más interesados en enseñarte lo que significan los cálculos, en lugar de cómo hacerlos. Por supuesto, cada semana te estamos mostrando cómo hacer los cálculos en laboratorio con computadoras, porque eso es importante para.

    ¿Pearson's\(r\) realmente se queda entre -1 y 1 pase lo que pase? Es cierto, echa un vistazo a la siguiente simulación. Aquí ordené aleatoriamente los números del 1 al 10 para una medida X, e hice lo mismo para una medida Y. Entonces, computé las de Pearson\(r\), y repetí este proceso 1000 veces. Como puedes ver todos los puntos están entre -1 y 1. Puta eh.

    library(ggplot2)
    simulated_sums <- length(0)
    for(sim in 1:1000){
      X <- sample(1:10)
      Y <- sample(1:10)
      simulated_sums[sim] <- cor(X,Y)
    }
    sim_df <- data.frame(sims=1:1000,simulated_sums)
    ggplot(sim_df, aes(x = sims, y = simulated_sums))+
      geom_point()+
      theme_classic()+
      geom_hline(yintercept = -1)+
      geom_hline(yintercept = 1)+
      ggtitle("Simulation of 1000 r values")
    Figura\(\PageIndex{1}\): Una simulación de correlaciones. Cada punto representa el valor r para la correlación entre una variable X e Y que cada una contiene los números del 1 al 10 en órdenes aleatorias. La figura ilustra que se pueden obtener muchos valores r mediante este proceso aleatorio.

    This page titled 3.3: Convertir los números en una medida de covarianza is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Matthew J. C. Crump via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.