Saltar al contenido principal
LibreTexts Español

12.6: Comparaciones específicas

  • Page ID
    152018
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    Objetivos de aprendizaje

    • Definir combinación lineal
    • Especificar una combinación lineal en términos de coeficientes
    • Hacer una prueba de significancia para una comparación específica

    Son muchas las situaciones en las que las comparaciones entre medias son más complicadas que simplemente comparar una media con otra. En esta sección se muestra cómo probar estas comparaciones más complejas. Los métodos de esta sección suponen que la comparación entre medias se decidió antes de mirar los datos. Por lo tanto, estas comparaciones se denominan comparaciones planificadas. Un procedimiento diferente es necesario para las comparaciones no planificadas.

    Comencemos con los datos inventados de un experimento hipotético que se muestra en la Tabla\(\PageIndex{1}\). Se seleccionaron doce sujetos de una población de sujetos de alta autoestima (\(esteem = 1\)) y se seleccionó un\(12\) sujeto adicional de una población de sujetos de baja autoestima (\(esteem = 2\)). Luego los sujetos se desempeñaron en una tarea y (independientemente de lo bien que realmente lo hicieran) a la mitad de cada categoría de estima se les dijo que tuvieron éxito (\(outcome = 1\)) y a la otra mitad se les dijo que fallaron (\(outcome = 2\)). Por lo tanto, hubo seis sujetos en cada una de las cuatro combinaciones estima/resultado y\(24\) sujetos en todas.

    Después de la tarea, se pidió a los sujetos que calificaran (en una escala de\(10\) puntos) cuánto de su resultado (éxito o fracaso) se atribuían a sí mismos en lugar de deberse a la naturaleza de la tarea.

    Tabla\(\PageIndex{1}\): Datos del experimento hipotético
    resultado estima attrib
    1 1 7
    1 1 8
    1 1 7
    1 1 8
    1 1 9
    1 1 5
    1 2 6
    1 2 5
    1 2 7
    1 2 4
    1 2 5
    1 2 6
    2 1 4
    2 1 6
    2 1 5
    2 1 4
    2 1 7
    2 1 3
    2 2 9
    2 2 8
    2 2 9
    2 2 8
    2 2 7
    2 2 6

    Las medias de las cuatro condiciones se muestran en la Tabla\(\PageIndex{2}\).

    Tabla\(\PageIndex{2}\): Calificaciones medias de autoatribuciones de éxito o fracaso
    Resultado Estima Media
    Éxito Alta Autoestima 7.333
    Baja autoestima 5.500
    Fracaso Alta Autoestima 4.833
    Baja autoestima 7.833

    Hay varias preguntas que podemos hacer sobre los datos. Comenzamos preguntándonos si, en promedio, los sujetos a quienes se les dijo que tuvieron éxito diferían significativamente de los sujetos a los que se les dijo que fallaron. Los medios para sujetos en condición de éxito son\(7.333\) para los sujetos de alta autoestima y\(5.500\) para los sujetos de baja autoestima. Por lo tanto, la media para todos los sujetos en condición de éxito es\(\tfrac{7.3333 + 5.5000}{2} = 6.4167\). De igual manera, la media para todos los sujetos en la condición de fracaso es\(\tfrac{4.8333 + 7.8333}{2} = 6.3333\). La pregunta es: ¿Cómo hacemos una prueba de significancia para esta diferencia de\(6.4167-6.3333 = 0.083\)?

    El primer paso es expresar esta diferencia en términos de una combinación lineal utilizando un conjunto de coeficientes y las medias. Esto puede sonar complejo, pero es realmente bastante fácil. Podemos calcular la media de las condiciones de éxito multiplicando cada media de éxito por\(0.5\) y luego sumando el resultado. En otras palabras, calculamos

    \[(0.5)(7.333) + (0.5)(5.500)= 3.67 + 2.75= 6.42\]

    Del mismo modo, podemos calcular la media de las condiciones de falla multiplicando cada media de “falla” por\(0.5\) y luego agregando el resultado:

    \[(0.5)(4.833) + (0.5)(7.833)= 2.417 + 3.917= 6.33\]

    La diferencia entre las dos medias se puede expresar como

    \[0.5 \times 7.333 + 0.5 \times 5.500 -(0.5 \times 4.833 + 0.5 \times 7.833) = 0.5 \times 7.333 + 0.5 \times 5.500 - 0.5 \times 4.833 - 0.5 \times 7.833\]

    Por lo tanto, podemos calcular la diferencia entre la media del “éxito” y la media del “fracaso” multiplicando cada media de “éxito” por\(0.5\), cada media de fracaso por\(-0.5\), y agregando los resultados. En Tabla\(\PageIndex{3}\), la columna de coeficientes es el multiplicador y la columna producto es el resultado de la multiplicación. Si sumamos los cuatro valores en la columna del producto, obtenemos

    \[L = 3.667 + 2.750 - 2.417 - 3.917 = 0.083\]

    Este es el mismo valor que obtuvimos cuando calculamos la diferencia entre medias previamente (dentro del error de redondeo). Llamamos al valor "\(L\)" para “combinación lineal”.

    Tabla\(\PageIndex{3}\): Coeficientes para comparar autoestima baja y alta
    Resultado Estima Media Coeff Producto
    Éxito Alta Autoestima 7.333 0.5 3.667
    Baja autoestima 5.500 0.5 2.750
    Fracaso Alta Autoestima 4.833 -0.5 -2.417
    Baja autoestima 7.833 -0.5 -3.917


    Ahora bien, la cuestión es si nuestro valor de\(L\) es significativamente diferente de\(0\). La fórmula general para\(L\) es

    \[L=\sum c_iM_i\]

    donde\(c_i\) está el\(i_{th}\) coeficiente y\(M_i\) es la\(i_{th}\) media. Como se muestra arriba,\(L = 0.083\). La fórmula\(L\) para probar la significancia se muestra a continuación:

    \[t=\cfrac{L}{\sqrt{\cfrac{\sum c_{i}^{2}MSE}{n}}}\]

    En este ejemplo,

    \[\sum c_i^2 = 0.5^2 + 0.5^2 + (-0.5)^2 + (-0.5)^2 = 1.00\]

    \(MSE\)es la media de las varianzas. Las cuatro varianzas se muestran en la Tabla\(\PageIndex{4}\). Su media es\(1.625\). Por lo tanto\(MSE = 1.625\).

    Tabla\(\PageIndex{4}\): Varianzas de atribuciones de éxito o fracaso a uno mismo
    Resultado Estima Varianza
    Éxito Alta Autoestima 1.867
    Baja autoestima 1.100
    Fracaso Alta Autoestima 2.167
    Baja autoestima 1.367

    El valor de n es el número de sujetos en cada grupo. Aquí\(n = 6\).

    Poniéndolo todo junto,

    \[t= \cfrac{0.083}{\sqrt{\cfrac{(1)(1.625)}{6}}} = 0.16\]

    Necesitamos conocer los grados de libertad para poder calcular el valor de probabilidad. Los grados de libertad es

    \[df = N - k\]

    donde\(N\) es el número total de sujetos (\(24\)) y\(k\) es el número de grupos (\(4\)). Por lo tanto,\(df = 20\). Usando la Calculadora en Línea, encontramos que el valor de probabilidad de dos colas es\(0.874\). Por lo tanto, la diferencia entre la condición de “éxito” y la condición de “fracaso” no es significativa.

    Calculadora de distribución t

    Una pregunta más interesante sobre los resultados es si el efecto del resultado (éxito o fracaso) difiere dependiendo de la autoestima del sujeto. Por ejemplo, el éxito puede hacer que los sujetos de alta autoestima sean más propensos a atribuirse el resultado a sí mismos, mientras que el éxito puede hacer que los sujetos de baja autoestima sean menos propensos a atribuirse el resultado a sí

    Para probar esto, tenemos que probar una diferencia entre diferencias. Específicamente, ¿la diferencia entre los resultados de éxito y fracaso para los sujetos de alta autoestima es diferente de la diferencia entre los resultados de éxito y fracaso para los sujetos de baja autoestima? Las medias que se muestran en la Tabla 5 muestran que este es el caso. Para los sujetos de alta autoestima, la diferencia entre los puntajes de atribución de éxito y fracaso es\(7.333-4.833 = 2.500\). Para los sujetos de baja autoestima, la diferencia es\(5.500-7.833 = -2.333\). La diferencia entre diferencias es\(2.500 - (-2.333) = 4.833\).

    Los coeficientes para probar esta diferencia entre diferencias se muestran en la Tabla\(\PageIndex{5}\).

    Tabla\(\PageIndex{5}\): Coeficientes para probar la diferencia entre diferencias
    Autoestima Resultado Media Coeff Producto
    Alto Éxito 7.333 1 7.333
    Fracaso 4.833 -1 -4.833
    Bajo Éxito 5.500 -1 -5.500
    Fracaso 7.833 1 7.83

    Si es difícil ver de dónde provienen estos coeficientes, considera que nuestra diferencia entre diferencias se computó de esta manera:

    \[\begin{align*} (7.33 - 4.83) - (5.50 - 7.83) &= 7.33 - 4.83 - 5.50 + 7.83\\ &= (1)7.33 + (-1)4.83 + (-1)5.50 + (1)7.83 \end{align*}\]

    Los valores entre paréntesis son los coeficientes.

    Para continuar con los cálculos,

    \[L=4.83\]

    \[\sum c_i^2 = 1^2 + (-1)^2 + (-1)^2 + 1^2 = 4.00\]

    \[t= \cfrac{4.83}{\sqrt{\cfrac{(4)(1.625)}{6}}} = 4.64\]

    El\(p\) valor de dos colas es\(0.0002\). Por lo tanto, la diferencia entre diferencias es altamente significativa.

    En un capítulo posterior sobre Análisis de varianza, verá que comparaciones como esta están probando lo que se llama una interacción. En general, existe una interacción cuando el efecto de una variable difiere en función del nivel de otra variable. En este ejemplo, el efecto de la variable de resultado es diferente dependiendo de la autoestima del sujeto. Para los sujetos de alta autoestima, el éxito condujo a una mayor autoatribución que al fracaso; para los sujetos de baja autoestima, el éxito condujo a una menor autoatribución que al fracaso.

    Comparaciones Múltiples

    Cuantas más comparaciones hagas, mayores serán tus posibilidades de un error de Tipo I. Es útil distinguir entre dos tasas de error:

    1. la tasa de error por comparación y
    2. la tasa de error familiar

    La tasa de error por comparación es la probabilidad de un error Tipo I para una comparación particular. La tasa de error familiar es la probabilidad de hacer uno o más errores de Tipo I en una familia o conjunto de comparaciones. En el experimento de atribución discutido anteriormente, calculamos dos comparaciones. Si usamos el\(0.05\) nivel para cada comparación, entonces la tasa por comparación es simplemente\(0.05\). La tasa familiar puede ser compleja. Afortunadamente, hay una aproximación simple que es bastante precisa cuando el número de comparaciones es pequeño. Definir\(\alpha\) como la tasa de error por comparación y\(c\) como el número de comparaciones, la siguiente desigualdad siempre es válida para la tasa de error familiar (\(FW\)):

    \[FW \leq c\alpha\]

    Esta desigualdad se llama la desigualdad Bonferroni. En la práctica, se\(FW\) puede aproximar por\(c\alpha\). Esta es una aproximación conservadora ya que nunca\(FW\) puede ser mayor que\(c\alpha\) y generalmente es menor que\(c\alpha\).

    La desigualdad Bonferroni se puede utilizar para controlar la tasa de error familiar de la siguiente manera: Si quieres que la tasa de error familiar sea\(\alpha\), la usas\(\alpha /c\) como tasa de error por comparación. Esta corrección, llamada corrección Bonferroni, generalmente resultará en una tasa de error familiar menor que\(\alpha\). Alternativamente, podrías multiplicar el valor de probabilidad por\(c\) y usar el\(\alpha\) nivel original.

    ¿Se debe controlar la tasa de error familiar? Desafortunadamente, no hay una respuesta clara a esta pregunta. La desventaja de controlar la tasa de error familiar es que hace más difícil obtener un resultado significativo para cualquier comparación dada: Cuantas más comparaciones hagas, menor debe ser la tasa por comparación y por lo tanto más difícil es alcanzar significancia. Es decir, la potencia es menor cuando controlas la tasa de error familiar. La ventaja es que tienes una menor probabilidad de cometer un error Tipo I.

    Una consideración es la definición de una familia de comparaciones. Digamos que realizaste un estudio en el que te interesaba si había una diferencia entre los bebés masculinos y femeninos en la edad a la que empezaron a gatear. Después de que terminaste de analizar los datos, un colega tuyo tenía una pregunta de investigación totalmente diferente: ¿Los bebés que nacen en invierno difieren de los nacidos en verano en la edad en que empiezan a gatear? ¿Se debe controlar la tasa familiar o se debe permitir que sea mayor que\(0.05\)? Nuestra opinión es que no hay razón por la que deba ser penalizado (por menor potencia) solo porque su colega utilizó los mismos datos para abordar una pregunta de investigación diferente. Por lo tanto, no es necesario controlar la tasa de error familiar. Considere las dos comparaciones realizadas en el ejemplo de atribución al inicio de esta sección: Estas comparaciones están probando hipótesis completamente diferentes. Por lo tanto, no es necesario controlar la tasa familiar.

    Consideremos ahora un estudio diseñado para investigar la relación entre diversas variables y la capacidad de los sujetos para predecir el resultado de un giro de moneda. Una comparación es entre machos y hembras; una segunda comparación es entre los mayores\(40\) y los menores\(40\); una tercera es entre vegetarianos y no vegetarianos; y una cuarta es entre primogénitos y otros. La cuestión de si estas cuatro comparaciones están probando diferentes hipótesis depende de su punto de vista. Por un lado, no hay nada sobre si la edad marca la diferencia que esté relacionada con si la dieta marca la diferencia. En ese sentido, las comparaciones están abordando diferentes hipótesis. Por otro lado, toda la serie de comparaciones podría verse como abordando la cuestión general de si algo afecta a la capacidad de predecir el resultado de un volteo de moneda. Si nada lo hace, entonces permitir que la tasa familiar sea alta significa que hay una alta probabilidad de llegar a una conclusión equivocada.

    Comparaciones ortogonales

    En los apartados anteriores, hablamos de que las comparaciones son independientes. Las comparaciones independientes a menudo se denominan comparaciones ortogonales. Hay una prueba simple para determinar si dos comparaciones son ortogonales: Si la suma de los productos de los coeficientes es 0, entonces las comparaciones son ortogonales. Consideremos nuevamente el experimento sobre la atribución de éxito o fracaso. Cuadro\(\PageIndex{6}\) muestra los coeficientes presentados previamente en Tabla\(\PageIndex{3}\) y en Tabla\(\PageIndex{5}\). La columna "\(C1\)" contiene los coeficientes de la comparación que se muestra en la Tabla\(\PageIndex{3}\); la columna "\(C2\)" contiene los coeficientes de la comparación que se muestra en la Tabla\(\PageIndex{5}\). La columna etiquetada como "Producto" es el producto de estas dos columnas. Tenga en cuenta que la suma de los números en esta columna es\(0\). Por lo tanto, las dos comparaciones son ortogonales.

    Tabla\(\PageIndex{6}\): Coeficientes para dos comparaciones ortogonales
    Resultado Estima C1 C2 Producto
    Éxito Alta Autoestima 0.5 1 0.5
    Baja Autoestima 0.5 -1 -0.5
    Fracaso Alta Autoestima -0.5 -1 0.5
    Baja Autoestima -0.5 1 -0.5

    \(\PageIndex{7}\)El cuadro muestra dos comparaciones que no son ortogonales. El primero compara a los sujetos de alta autoestima con sujetos de baja autoestima; el segundo considera solo a los del grupo de éxito y compara sujetos de alta autoestima con sujetos de baja autoestima. El grupo de fallas se ignora usando\(0's\) como coeficientes. Claramente la comparación de estos dos grupos de sujetos para toda la muestra no es independiente de la comparación de los mismos solo para el grupo de éxito. Se puede ver que la suma de los productos de los coeficientes es\(0.5\) y no\(0\).

    Tabla\(\PageIndex{1}\): Coeficientes para dos comparaciones no ortogonales
    Resultado Estima C1 C2 Producto
    Éxito Alta Autoestima 0.5 0.5 0.25
    Baja Autoestima -0.5 -0.5 0.25
    Fracaso Alta Autoestima 0.5 0.0 0.0
    Baja Autoestima -0.5 0.0 0.0

    This page titled 12.6: Comparaciones específicas is shared under a Public Domain license and was authored, remixed, and/or curated by David Lane via source content that was edited to the style and standards of the LibreTexts platform.