Saltar al contenido principal
LibreTexts Español

2.4: Análisis de hallazgos

  • Page ID
    149180
    • Rose M. Spielman, William J. Jenkins, Marilyn D. Lovett, et al.
    • OpenStax
    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Objetivos de aprendizaje
    • Explicar lo que nos dice un coeficiente de correlación sobre la relación entre variables
    • Reconocer que la correlación no indica una relación causa-efecto entre variables
    • Discutir nuestra tendencia a buscar relaciones entre variables que realmente no existen
    • Explicar el muestreo aleatorio y la asignación de participantes en grupos experimentales y de control
    • Discutir cómo el sesgo del experimentador o participante podría afectar los resultados de un experimento
    • Identificar variables independientes y dependientes

    ¿Sabías que a medida que aumentan las ventas en helados, también lo hace la tasa general de delincuencia? ¿Es posible que entregarse a tu sabor favorito de helado pueda enviarte a una juerga de crímenes? O, después de cometer el delito ¿crees que podrías decidir darte un capricho? No cabe duda de que existe una relación entre el helado y el crimen (por ejemplo, Harper, 2013), pero sería bastante tonto decidir que una cosa realmente causó que ocurriera la otra.

    Es mucho más probable que tanto la venta de helados como los índices delictivos estén relacionados con la temperatura exterior. Cuando la temperatura es cálida, hay mucha gente fuera de sus casas, interactuando entre sí, molestándose entre sí y, a veces, cometiendo delitos. Además, cuando hace calor afuera, es más probable que busquemos una golosina fresca como el helado. ¿Cómo determinamos si efectivamente existe una relación entre dos cosas? Y cuando hay una relación, ¿cómo podemos discernir si es atribuible a la coincidencia o a la causalidad?

    Investigación correlacional

    Correlación significa que existe una relación entre dos o más variables (como el consumo de helados y la delincuencia), pero esta relación no implica necesariamente causa y efecto. Cuando se correlacionan dos variables, simplemente significa que a medida que una variable cambia, también lo hace la otra. Podemos medir la correlación calculando un estadístico conocido como coeficiente de correlación. Un coeficiente de correlación es un número de -1 a +1 que indica la fuerza y dirección de la relación entre variables. El coeficiente de correlación suele estar representado por la letra r.

    La porción numérica del coeficiente de correlación indica la fuerza de la relación. Cuanto más cerca esté el número de 1 (sea negativo o positivo), más fuertemente relacionadas estarán las variables y más predecibles serán los cambios en una variable a medida que cambie la otra variable. Cuanto más cerca esté el número de cero, más débil será la relación, y menos predecibles se vuelven las relaciones entre las variables. Por ejemplo, un coeficiente de correlación de 0.9 indica una relación mucho más fuerte que un coeficiente de correlación de 0.3. Si las variables no están relacionadas entre sí en absoluto, el coeficiente de correlación es 0. El ejemplo anterior sobre helado y crimen es un ejemplo de dos variables que podríamos esperar que no tengan relación entre sí.

    El signo —positivo o negativo— del coeficiente de correlación indica la dirección de la relación (Figura 2.12). Una correlación positiva significa que las variables se mueven en la misma dirección. Dicho de otra manera, significa que a medida que una variable aumenta también lo hace la otra, y a la inversa, cuando una variable disminuye también lo hace la otra. Una correlación negativa significa que las variables se mueven en direcciones opuestas. Si dos variables están correlacionadas negativamente, una disminución en una variable se asocia con un aumento en la otra y viceversa.

    El ejemplo de las tasas de helado y criminalidad es una correlación positiva porque ambas variables aumentan cuando las temperaturas son más cálidas. Otros ejemplos de correlaciones positivas son la relación entre la estatura y el peso de un individuo o la relación entre la edad de una persona y el número de arrugas. Se podría esperar que exista una correlación negativa entre el cansancio de alguien durante el día y el número de horas que durmió la noche anterior: la cantidad de sueño disminuye a medida que aumentan los sentimientos de cansancio. En un ejemplo del mundo real de correlación negativa, estudiantes investigadores de la Universidad de Minnesota encontraron una correlación negativa débil (r = -0.29) entre el número promedio de días por semana que los estudiantes obtuvieron menos de 5 horas de sueño y su GPA (Lowry, Dean, & Manders, 2010). Tenga en cuenta que una correlación negativa no es lo mismo que ninguna correlación. Por ejemplo, probablemente no encontraríamos correlación entre las horas de sueño y el tamaño del zapato.

    Como se mencionó anteriormente, las correlaciones tienen valor predictivo. Imagina que estás en el comité de admisiones de una universidad mayor. Se enfrenta a una gran cantidad de solicitudes, pero solo puede acomodar un pequeño porcentaje del grupo de solicitantes. ¿Cómo podría decidir quién debe ser admitido? Podrías intentar correlacionar el GPA universitario de tus estudiantes actuales con sus puntajes en exámenes estandarizados como el SAT o ACT. Al observar qué correlaciones fueron más fuertes para tus alumnos actuales, podrías usar esta información para predecir el éxito relativo de aquellos estudiantes que han solicitado ingreso a la universidad.

    Se muestran tres diagramas de dispersión. La gráfica de dispersión (a) está etiquetada como “correlación positiva” y muestra puntos dispersos formando una línea aproximada desde la parte inferior izquierda hasta la parte superior derecha; el eje x se etiqueta como “peso” y el eje y se etiqueta como “altura”. La gráfica de dispersión (b) está etiquetada como “correlación negativa” y muestra puntos dispersos formando una línea aproximada desde la parte superior izquierda hasta la parte inferior derecha; el eje x se etiqueta como “cansancio” y el eje y se etiqueta como “horas de sueño”. La gráfica de dispersión (c) está etiquetada como “sin correlación” y muestra puntos dispersos que no tienen patrón; el eje x está etiquetado como “tamaño de zapato” y el eje y se etiqueta como “horas de sueño”.
    Figura 2.12 Los diagramas de dispersión son una vista gráfica de la fuerza y dirección de las correlaciones. Cuanto más fuerte es la correlación, más cerca están los puntos de datos de una línea recta. En estos ejemplos, vemos que existe (a) una correlación positiva entre el peso y la estatura, (b) una correlación negativa entre el cansancio y las horas de sueño, y (c) no hay correlación entre el tamaño del zapato y las horas de sueño.
    Enlace al aprendizaje

    Manipule esta gráfica de dispersión interactiva para practicar su comprensión de la correlación positiva y negativa.

    La correlación no indica causalidad

    La investigación correlacional es útil porque nos permite descubrir la fuerza y dirección de las relaciones que existen entre dos variables. Sin embargo, la correlación es limitada porque establecer la existencia de una relación nos dice poco de causa y efecto. Si bien las variables a veces se correlacionan porque una causa la otra, también podría ser que algún otro factor, una variable confusa, en realidad esté causando el movimiento sistemático en nuestras variables de interés. En el ejemplo de índice de helado/delincuencia mencionado anteriormente, la temperatura es una variable confusa que podría dar cuenta de la relación entre las dos variables.

    Incluso cuando no podemos apuntar a borrar variables de confusión, no debemos asumir que una correlación entre dos variables implica que una variable causa cambios en otra. Esto puede resultar frustrante cuando una relación de causa y efecto parece clara e intuitiva. Piense en nuestra discusión sobre la investigación realizada por la American Cancer Society y cómo sus proyectos de investigación fueron algunas de las primeras demostraciones del vínculo entre el tabaquismo y el cáncer. Parece razonable suponer que fumar causa cáncer, pero si nos limitáramos a la investigación correlacional, estaríamos sobrepasando nuestros límites al hacer esta suposición.

    Desafortunadamente, la gente hace afirmaciones erróneas de causalidad en función de correlaciones todo el tiempo. Tales afirmaciones son especialmente comunes en anuncios y noticias. Por ejemplo, investigaciones recientes encontraron que las personas que comen cereales de manera regular logran pesos más saludables que aquellos que rara vez comen cereales (Frantzen, Treviño, Echon, Garcia-Dominic, & DiMarco, 2013; Barton et al., 2005). Adivina cómo reportan las empresas de cereales este hallazgo. ¿Comer cereales realmente hace que un individuo mantenga un peso saludable, o hay otras explicaciones posibles, como, alguien con un peso saludable tiene más probabilidades de comer regularmente un desayuno saludable que alguien que es obeso o alguien que evita las comidas en un intento de dieta (Figura 2. 13)? Si bien la investigación correlacional es invaluable para identificar las relaciones entre variables, una limitación importante es la incapacidad de establecer causalidad. Los psicólogos quieren hacer declaraciones sobre causa y efecto, pero la única manera de hacerlo es realizar un experimento para responder a una pregunta de investigación. En la siguiente sección se describe cómo los experimentos científicos incorporan métodos que eliminan, o controlan, explicaciones alternativas, que permiten a los investigadores explorar cómo los cambios en una variable causan cambios en otra variable.

    Una fotografía muestra un tazón de cereal.
    Figura 2.13 ¿Comer cereal realmente hace que alguien tenga un peso saludable? (crédito: Tim Skillern)

    Correlaciones ilusorias

    La tentación de hacer afirmaciones erróneas de causa y efecto basadas en investigaciones correlacionales no es la única manera en que tendemos a malinterpretar los datos. También tendemos a cometer el error de correlaciones ilusorias, especialmente con observaciones no sistemáticas. Correlaciones ilusorias, o correlaciones falsas, ocurren cuando la gente cree que las relaciones existen entre dos cosas cuando no existe tal relación. Una correlación ilusoria bien conocida es el supuesto efecto que las fases de la luna tienen sobre el comportamiento humano. Mucha gente afirma apasionadamente que el comportamiento humano se ve afectado por la fase de la luna, y específicamente, que las personas actúan de manera extraña cuando la luna está llena (Figura 2.14).

    Una fotografía muestra la luna.
    Figura 2.14 Mucha gente cree que una luna llena hace que la gente se comporte de manera extraña. (crédito: Cory Zanker)

    No se puede negar que la luna ejerce una poderosa influencia en nuestro planeta. El flujo y reflujo de las mareas oceánicas están fuertemente ligados a las fuerzas gravitacionales de la luna. Mucha gente cree, por lo tanto, que es lógico que también nos afecte la luna. Después de todo, nuestros cuerpos están formados en gran parte por agua. Un metaanálisis de casi 40 estudios demostró consistentemente, sin embargo, que la relación entre la luna y nuestro comportamiento no existe (Rotton & Kelly, 1985). Si bien podemos prestar más atención al comportamiento extraño durante la fase completa de la luna, las tasas de comportamiento impar permanecen constantes a lo largo del ciclo lunar.

    ¿Por qué estamos tan aptos para creer en correlaciones ilusorias como esta? A menudo leemos u oímos hablar de ellos y simplemente aceptamos la información como válida. O bien, tenemos una corazonada sobre cómo funciona algo y luego buscamos pruebas que respalden esa corazonada, ignorando las pruebas que nos dirían que nuestra corazonada es falsa; esto se conoce como sesgo de confirmación. Otras veces, encontramos correlaciones ilusorias basadas en la información que más se nos viene a la mente, aunque esa información esté severamente limitada. Y si bien podemos sentirnos seguros de que podemos usar estas relaciones para comprender y predecir mejor el mundo que nos rodea, las correlaciones ilusorias pueden tener inconvenientes importantes. Por ejemplo, la investigación sugiere que las correlaciones ilusorias, en las que ciertos comportamientos se atribuyen de manera incorrecta a ciertos grupos, están involucradas en la formación de actitudes perjudiciales que en última instancia pueden conducir a comportamientos discriminatorios (Fiedler, 2004).

    Causalidad: Realización de experimentos y uso de los datos

    Como ya has aprendido, la única manera de establecer que existe una relación de causa y efecto entre dos variables es realizar un experimento científico. El experimento tiene un significado diferente en el contexto científico que en la vida cotidiana. En la conversación cotidiana, a menudo la usamos para describir probar algo por primera vez, como experimentar con un nuevo peinado o una nueva comida. Sin embargo, en el contexto científico, un experimento tiene requisitos precisos para el diseño y la implementación.

    La hipótesis experimental

    Para llevar a cabo un experimento, un investigador debe tener una hipótesis específica para ser probado. Como ya has aprendido, las hipótesis pueden formularse ya sea a través de la observación directa del mundo real o después de una cuidadosa revisión de investigaciones previas. Por ejemplo, si piensas que el uso de la tecnología en el aula tiene impactos negativos en el aprendizaje, entonces básicamente has formulado una hipótesis, es decir, que el uso de la tecnología en el aula debe ser limitado porque disminuye el aprendizaje. ¿Cómo pudo haber llegado a esta hipótesis en particular? Es posible que hayas notado que tus compañeros de clase que toman notas en sus computadoras portátiles se desempeñan en niveles más bajos en los exámenes de clase que aquellos que toman notas a mano, o aquellos que reciben una lección a través de un programa de computadora versus a través de un maestro presencial tienen diferentes niveles de desempeño cuando se prueban (Figura 2.15 ).

    Muchas filas de alumnos están en un aula. Un estudiante tiene una computadora portátil abierta en su escritorio.
    Figura 2.15 ¿Cómo podría impactar el aprendizaje el uso de la tecnología en el aula? (crédito: modificación de obra de Nikolay Georgiev/Pixabay)

    Este tipo de observaciones personales son las que a menudo nos llevan a formular una hipótesis específica, pero no podemos utilizar observaciones personales limitadas y evidencias anecdóticas para poner a prueba rigurosamente nuestra hipótesis. En cambio, para averiguar si los datos del mundo real apoyan nuestra hipótesis, tenemos que realizar un experimento.

    Diseñar un experimento

    El diseño experimental más básico involucra dos grupos: el grupo experimental y el grupo control. Los dos grupos están diseñados para ser iguales excepto por una diferencia: la manipulación experimental. El grupo experimental obtiene la manipulación experimental, es decir, el tratamiento o variable que se está probando (en este caso, el uso de la tecnología) y el grupo control no. Dado que la manipulación experimental es la única diferencia entre los grupos experimental y control, podemos estar seguros de que cualquier diferencia entre los dos se debe a la manipulación experimental más que al azar.

    En nuestro ejemplo de cómo se debe limitar el uso de la tecnología en el aula, tenemos al grupo experimental aprender álgebra usando un programa de computadora y luego poner a prueba su aprendizaje. Medimos el aprendizaje en nuestro grupo de control después de que un profesor les enseñe álgebra en un aula tradicional. Es importante que el grupo control sea tratado de manera similar al grupo experimental, con la excepción de que el grupo control no recibe la manipulación experimental.

    También necesitamos definir con precisión, u operacionalizar, cómo medimos el aprendizaje del álgebra. Una definición operativa es una descripción precisa de nuestras variables, y es importante para permitir que otros entiendan exactamente cómo y qué mide un investigador en un experimento en particular. Al operacionalizar el aprendizaje, podríamos optar por mirar el desempeño en una prueba que cubra el material sobre el que los individuos fueron enseñados por el maestro o el programa de computadora. También podríamos pedir a nuestros participantes que resuman la información que se acaba de presentar de alguna manera. Independientemente de lo que determinemos, es importante que operacionalicemos el aprendizaje de tal manera que cualquiera que escuche sobre nuestro estudio por primera vez sepa exactamente a qué nos referimos con aprender. Esto ayuda a la capacidad de las personas para interpretar nuestros datos, así como su capacidad para repetir nuestro experimento si así lo deciden.

    Una vez que hayamos operacionalizado lo que se considera uso de la tecnología y lo que se considera aprendizaje en nuestros participantes del experimento, necesitamos establecer cómo vamos a ejecutar nuestro experimento. En este caso, podríamos hacer que los participantes dediquen 45 minutos a aprender álgebra (ya sea a través de un programa de computadora o con un profesor de matemáticas presencial) y luego les den una prueba sobre el material cubierto durante los 45 minutos.

    Idealmente, las personas que puntúan las pruebas desconocen quién fue asignado al grupo experimental o control, con el fin de controlar por sesgo experimentador. El sesgo del experimentador se refiere a la posibilidad de que las expectativas de un investigador puedan sesgar los resultados del estudio. Recuerde, realizar un experimento requiere mucha planeación, y las personas involucradas en el proyecto de investigación tienen un interés personal en apoyar sus hipótesis. Si los observadores supieran qué niño estaba en qué grupo, podría influir en cómo interpretan las respuestas ambiguas, como la escritura descuidada o errores computacionales menores. Al ser ciegos a qué niño se encuentra en qué grupo, protegemos contra esos sesgos. Esta situación es un estudio monociego, lo que significa que uno de los grupos (participantes) desconoce en qué grupo se encuentran (grupo experimental o control) mientras que el investigador que desarrolló el experimento sabe qué participantes están en cada grupo.

    En un estudio doble ciego, tanto los investigadores como los participantes son ciegos a las tareas grupales. ¿Por qué un investigador querría realizar un estudio donde nadie sabe quién está en qué grupo? Porque al hacerlo, podemos controlar tanto las expectativas del experimentador como de los participantes. Si estás familiarizado con la frase efecto placebo, ya tienes alguna idea de por qué esta es una consideración importante. El efecto placebo ocurre cuando las expectativas o creencias de las personas influyen o determinan su experiencia en una situación determinada. En otras palabras, simplemente esperar que algo suceda en realidad puede hacer que suceda.

    El efecto placebo se describe comúnmente en términos de probar la efectividad de un nuevo medicamento. Imagina que trabajas en una compañía farmacéutica, y crees que tienes un nuevo medicamento que es efectivo en el tratamiento de la depresión. Para demostrar que tu medicamento es efectivo, haces un experimento con dos grupos: El grupo experimental recibe el medicamento, y el grupo control no. Pero no quieres que los participantes sepan si recibieron el medicamento o no.

    ¿Por qué es eso? Imagina que eres participante en este estudio, y acabas de tomar una pastilla que crees que mejorará tu estado de ánimo. Debido a que esperas que la píldora tenga un efecto, es posible que te sientas mejor simplemente porque tomaste la píldora y no por ningún medicamento realmente contenido en la píldora, este es el efecto placebo.

    Para asegurarse de que cualquier efecto sobre el estado de ánimo se deba al medicamento y no a las expectativas, el grupo de control recibe un placebo (en este caso una píldora de azúcar). Ahora todos reciben una pastilla, y una vez más ni el investigador ni los participantes experimentales saben quién consiguió el medicamento y quién consiguió la píldora de azúcar. Cualquier diferencia en el estado de ánimo entre los grupos experimental y control ahora puede atribuirse al fármaco en sí, más que al sesgo del experimentador o a las expectativas de los participantes (Figura 2.16).

    En una fotografía se muestran tres botellas de vidrio de píldoras etiquetadas como placebos.
    Figura 2.16 Proporcionar al grupo control un tratamiento placebo protege contra el sesgo causado por la expectativa. (crédito: Elaine y Arthur Shapiro)

    Variables independientes y dependientes

    En un experimento de investigación, nos esforzamos por estudiar si los cambios en una cosa causan cambios en otra. Para lograrlo, debemos prestar atención a dos variables importantes, o cosas que se pueden cambiar, en cualquier estudio experimental: la variable independiente y la variable dependiente. Una variable independiente es manipulada o controlada por el experimentador. En un estudio experimental bien diseñado, la variable independiente es la única diferencia importante entre los grupos experimental y control. En nuestro ejemplo de cómo el uso de la tecnología en el aula afecta el aprendizaje, la variable independiente es el tipo de aprendizaje por parte de los participantes en el estudio (Figura 2.17). Una variable dependiente es lo que mide el investigador para ver cuánto efecto tuvo la variable independiente. En nuestro ejemplo, la variable dependiente es el aprendizaje exhibido por nuestros participantes.

    Una caja etiquetada como “variable independiente: tomar notas en una computadora portátil o a mano” contiene una fotografía de un aula de estudiantes con una computadora portátil abierta en el escritorio de un estudiante. Una flecha etiquetada como “influye en el cambio en el...” lleva a una segunda caja. La segunda casilla está etiquetada como “variable dependiente: desempeño en medida de aprendizaje” y tiene una fotografía de un estudiante en un escritorio, realizando una prueba.
    Figura 2.17 En un experimento, se espera que las manipulaciones de la variable independiente den como resultado cambios en la variable dependiente. (crédito: modificación “aula” de obra de Nikolay Georgiev/Pixabay; crédito “toma de notas”: modificación de obra por KF/Wikimedia)

    Esperamos que la variable dependiente cambie en función de la variable independiente. En otras palabras, la variable dependiente depende de la variable independiente. Una buena manera de pensar sobre la relación entre las variables independientes y dependientes es con esta pregunta: ¿Qué efecto tiene la variable independiente en la variable dependiente? Volviendo a nuestro ejemplo, ¿cuál es el efecto de que se le enseñe una lección a través de un programa de computación versus a través de un instructor presencial?

    Selección y Asignación de Participantes Experimentales

    Ahora que nuestro estudio está diseñado, necesitamos obtener una muestra de individuos para incluir en nuestro experimento. Nuestro estudio involucra a participantes humanos por lo que necesitamos determinar a quién incluir. Los participantes son sujetos de investigación psicológica, y como su nombre lo indica, los individuos que participan en la investigación psicológica participan activamente en el proceso. A menudo, los proyectos de investigación psicológica dependen de estudiantes universitarios para que sirvan como participantes. De hecho, la gran mayoría de la investigación en subcampos de psicología ha involucrado históricamente a los estudiantes como participantes de la investigación (Sears, 1986; Arnett, 2008). Pero, ¿los universitarios son verdaderamente representativos de la población en general? Los estudiantes universitarios tienden a ser más jóvenes, más educados, más liberales y menos diversos que la población general. Aunque usar a los estudiantes como sujetos de prueba es una práctica aceptada, confiar en un grupo tan limitado de participantes de la investigación puede ser problemático porque es difícil generalizar los hallazgos a la población más grande.

    Nuestro experimento hipotético involucra a estudiantes de secundaria, y primero debemos generar una muestra de estudiantes. Las muestras se utilizan porque las poblaciones suelen ser demasiado grandes para involucrar razonablemente a cada miembro en nuestro experimento particular (Figura 2.18). Si es posible, deberíamos usar una muestra aleatoria (hay otros tipos de muestras, pero para los fines de este capítulo, nos centraremos en muestras aleatorias). Una muestra aleatoria es un subconjunto de una población mayor en la que cada miembro de la población tiene las mismas posibilidades de ser seleccionado. Se prefieren muestras aleatorias porque si la muestra es lo suficientemente grande podemos estar razonablemente seguros de que los individuos participantes son representativos de la población más grande. Esto quiere decir que los porcentajes de características en la muestra —sexo, etnia, nivel socioeconómico y cualquier otra característica que pueda afectar los resultados— son cercanos a esos porcentajes en la población mayor.

    En nuestro ejemplo, digamos que decidimos que nuestra población de interés son los estudiantes de álgebra. Pero todos los estudiantes de álgebra son una población muy grande, por lo que necesitamos ser más específicos; en cambio podríamos decir que nuestra población de interés son todos estudiantes de álgebra en una ciudad en particular. Deberíamos incluir estudiantes de diversos grupos de ingresos, situaciones familiares, razas, etnias, religiones y áreas geográficas de la ciudad. Con esta población más manejable, podemos trabajar con las escuelas locales en la selección de una muestra aleatoria de alrededor de 200 estudiantes de álgebra que queremos participar en nuestro experimento.

    En resumen, debido a que no podemos poner a prueba a todos los estudiantes de álgebra en una ciudad, queremos encontrar un grupo de unos 200 que refleje la composición de esa ciudad. Con un grupo representativo, podemos generalizar nuestros hallazgos a la población más grande sin temor a que nuestra muestra sea sesgada de alguna manera.

    a) Una fotografía muestra una vista aérea de multitudes en una calle. b) Una fotografía muestra un pequeño grupo de niños.
    Figura 2.18 Los investigadores pueden trabajar con (a) una población grande o (b) un grupo de muestra que es un subconjunto de la población más grande. (crédito “multitud”: modificación de obra de James Cridland; crédito “estudiantes”: modificación de obra de Laurie Sullivan)

    Ahora que tenemos una muestra, el siguiente paso del proceso experimental es dividir a los participantes en grupos experimentales y de control mediante asignación aleatoria. Con asignación aleatoria, todos los participantes tienen las mismas posibilidades de ser asignados a cualquiera de los dos grupos. Existe un software estadístico que asignará aleatoriamente a cada uno de los estudiantes de álgebra de la muestra ya sea al grupo experimental o al grupo control.

    La asignación aleatoria es crítica para el diseño experimental de sonido. Con muestras suficientemente grandes, la asignación aleatoria hace poco probable que existan diferencias sistemáticas entre los grupos. Entonces, por ejemplo, sería muy poco probable que consigamos un grupo compuesto enteramente por varones, una determinada identidad étnica, o una ideología religiosa dada. Esto es importante porque si los grupos fueran sistemáticamente diferentes antes de comenzar el experimento, no sabríamos el origen de las diferencias que encontramos entre los grupos: ¿Las diferencias eran preexistentes, o fueron causadas por la manipulación de la variable independiente? La asignación aleatoria permite suponer que cualquier diferencia observada entre los grupos experimental y control resulta de la manipulación de la variable independiente.

    Enlace al aprendizaje

    Utilice este generador de números aleatorios en línea para obtener más información sobre el muestreo aleatorio y las asignaciones.

    Cuestiones a considerar

    Si bien los experimentos permiten a los científicos hacer afirmaciones de causa y efecto, no están exentos de problemas. Los verdaderos experimentos requieren que el experimentador manipule una variable independiente, y eso puede complicar muchas preguntas que los psicólogos podrían querer abordar. Por ejemplo, imagina que quieres saber qué efecto tiene el sexo (la variable independiente) sobre la memoria espacial (la variable dependiente). Aunque ciertamente puedes buscar diferencias entre hombres y mujeres en una tarea que aprovecha la memoria espacial, no puedes controlar directamente el sexo de una persona. Clasificamos este tipo de enfoque de investigación como cuasiexperimental y reconocemos que no podemos hacer afirmaciones de causa y efecto en estas circunstancias.

    Los experimentadores también están limitados por restricciones éticas. Por ejemplo, no podrías realizar un experimento diseñado para determinar si experimentar abuso cuando eras niño lleva a menores niveles de autoestima entre los adultos. Para llevar a cabo tal experimento, necesitarías asignar aleatoriamente algunos participantes experimentales a un grupo que recibe abuso, y ese experimento no sería ético.

    Interpretación de Hallazgos Experimentales

    Una vez recolectados los datos tanto del grupo experimental como del grupo testigo, se realiza un análisis estadístico para averiguar si existen diferencias significativas entre los dos grupos. Un análisis estadístico determina la probabilidad de que cualquier diferencia encontrada se deba a la casualidad (y por lo tanto no significativa). Por ejemplo, si se realiza un experimento sobre la efectividad de un suplemento nutricional, y quienes toman una píldora placebo (y no el suplemento) tienen el mismo resultado que los que toman el suplemento, entonces el experimento ha demostrado que el suplemento nutricional no es efectivo. Generalmente, los psicólogos consideran que las diferencias son estadísticamente significativas si hay menos de un cinco por ciento de probabilidad de observarlas si los grupos en realidad no difirieron entre sí. Dicho de otra manera, los psicólogos quieren limitar las posibilidades de hacer afirmaciones de “falsos positivos” al cinco por ciento o menos.

    La mayor fortaleza de los experimentos es la capacidad de afirmar que cualquier diferencia significativa en los hallazgos es causada por la variable independiente. Esto ocurre porque la selección aleatoria, la asignación aleatoria y un diseño que limite los efectos tanto del sesgo del experimentador como de la expectativa de los participantes deben crear grupos que sean similares en composición y tratamiento. Por lo tanto, cualquier diferencia entre los grupos es atribuible a la variable independiente, y ahora finalmente podemos hacer una declaración causal. Si encontramos que ver un programa de televisión violento da como resultado un comportamiento más violento que ver un programa no violento, podemos decir con seguridad que ver programas de televisión violentos provoca un aumento en la visualización de comportamientos violentos.

    Investigación de informes

    Cuando los psicólogos completan un proyecto de investigación, generalmente quieren compartir sus hallazgos con otros científicos. La American Psychological Association (APA) publica un manual que detalla cómo escribir un artículo para su presentación a revistas científicas. A diferencia de un artículo que podría publicarse en una revista como Psychology Today, que se dirige a un público general con interés en la psicología, las revistas científicas generalmente publican artículos de revistas revisadas por pares dirigidos a una audiencia de profesionales y académicos que están activamente involucrados en la investigación ellos mismos.

    Enlace al aprendizaje

    El Laboratorio de Escritura en Línea (OWL) de la Universidad de Purdue puede guiarte a través de las pautas de escritura de

    Un artículo de revista revisado por pares es leído por varios otros científicos (generalmente de forma anónima) con experiencia en el tema. Estos revisores pares proporcionan retroalimentación, tanto al autor como al editor de la revista, sobre la calidad del borrador. Los revisores pares buscan una sólida justificación para la investigación que se describe, una descripción clara de cómo se realizó la investigación y evidencia de que la investigación se realizó de manera ética. También buscan fallas en el diseño, los métodos y los análisis estadísticos del estudio. Comprueban que las conclusiones extraídas por los autores parecen razonables dadas las observaciones realizadas durante la investigación. Los revisores pares también comentan lo valiosa que es la investigación para avanzar en el conocimiento de la disciplina. Esto ayuda a evitar duplicaciones innecesarias de hallazgos de investigación en la literatura científica y, en cierta medida, asegura que cada artículo de investigación proporcione nueva información. En última instancia, el editor de la revista recopilará todos los comentarios de los revisores pares y determinará si el artículo se publicará en su estado actual (una ocurrencia rara), se publicará con revisiones o no se aceptará para su publicación.

    La revisión por pares proporciona cierto grado de control de calidad para la investigación psicológica. Los estudios mal concebidos o ejecutados pueden ser eliminados, e incluso investigaciones bien diseñadas pueden ser mejoradas por las revisiones sugeridas. La revisión por pares también asegura que la investigación se describa con la suficiente claridad como para permitir que otros científicos la repliquen, lo que significa que pueden repetir el experimento usando diferentes muestras para determinar la confiabilidad. En ocasiones, las réplicas implican medidas adicionales que amplían el hallazgo original. En cualquier caso, cada réplica sirve para proporcionar más evidencia que respalde los hallazgos originales de la investigación. Las réplicas exitosas de investigaciones publicadas hacen que los científicos sean más propensos a adoptar esos hallazgos, mientras que los repetidos fracasos tienden a poner en duda la legitimidad del artículo original y llevan a los científicos a buscar en otra parte. Por ejemplo, sería un avance importante en el campo médico si un estudio publicado indicara que tomar un nuevo medicamento ayudaba a los individuos a alcanzar un peso saludable sin cambiar su dieta. Pero si otros científicos no pudieran replicar los resultados, se cuestionarían las afirmaciones del estudio original.

    En los últimos años, ha habido una creciente preocupación por una “crisis de replicación” que ha afectado a una serie de campos científicos, entre ellos la psicología. Algunos de los estudios y científicos más conocidos han producido investigaciones que no han podido ser replicadas por otros (como se discutió en Shábana Santa y Rodgers, 2018). De hecho, incluso una famosa científica ganadora del Premio Nobel se ha retractado recientemente de un artículo publicado porque tuvo dificultades para replicar sus resultados (la científica ganadora del Premio Nobel Frances Arnold retrae el artículo, 3 de enero de 2020). Este tipo de resultados han llevado a algunos científicos a comenzar a trabajar juntos y de manera más abierta, y algunos argumentarían que la “crisis” actual en realidad está mejorando las formas en que se conduce la ciencia y en cómo se comparten sus resultados con otros (Aschwanden, 2018).

    Profundice: El mito vacuna-autismo y la retracción de los estudios publicados

    Algunos científicos han afirmado que las vacunas infantiles de rutina hacen que algunos niños desarrollen autismo y, de hecho, varias publicaciones revisadas por pares publicaron investigaciones que hacen estas afirmaciones. Desde los reportes iniciales, la investigación epidemiológica a gran escala ha sugerido que las vacunas no son responsables de causar autismo y que es mucho más seguro vacunar a tu hijo que no. Además, varios de los estudios originales que hacen esta afirmación se han retractado desde entonces.

    Un trabajo publicado puede ser rescindido cuando los datos son cuestionados por falsificación, fabricación o serios problemas de diseño de investigación. Una vez rescindida, se informa a la comunidad científica que existen serios problemas con la publicación original. Las retracciones pueden ser iniciadas por el investigador que dirigió el estudio, por los colaboradores de la investigación, por la institución que empleó al investigador, o por el consejo editorial de la revista en la que se publicó originalmente el artículo. En el caso vacuna-autismo, la retracción se realizó por un importante conflicto de intereses en el que el investigador líder tuvo un interés económico en establecer un vínculo entre las vacunas infantiles y el autismo (Offit, 2008). Desafortunadamente, los estudios iniciales recibieron tanta atención mediática que muchos padres de todo el mundo dudaron en vacunar a sus hijos (Figura 2.19). La continua dependencia de esos estudios desacreditados tiene consecuencias significativas. Por ejemplo, entre enero y octubre de 2019, hubo 22 brotes de sarampión en todo Estados Unidos y más de mil casos de individuos que contrajeron sarampión (Patel et al., 2019). Esto probablemente se deba a los movimientos antivacunales que han surgido de la investigación desacreditada. Para obtener más información sobre cómo se desarrolló la historia vacuna/autismo, así como las repercusiones de esta historia, eche un vistazo al libro de Paul Offit, Los falsos profetas del autismo: mala ciencia, medicina riesgosa y la búsqueda de una cura.

    Una fotografía muestra a un niño que recibe una vacuna oral.
    Figura 2.19 Algunas personas todavía piensan que las vacunas causan autismo. (crédito: modificación de obra por UNICEF Sverige)

    Confiabilidad y Validez

    La confiabilidad y validez son dos consideraciones importantes que deben hacerse con cualquier tipo de recolección de datos. La confiabilidad se refiere a la capacidad de producir consistentemente un resultado dado. En el contexto de la investigación psicológica, esto significaría que cualquier instrumento o herramienta utilizada para recolectar datos lo haga de manera consistente y reproducible. Hay una serie de diferentes tipos de confiabilidad. Algunos de ellos incluyen la confiabilidad entre evaluadores (el grado en que dos o más observadores diferentes coinciden en lo observado), la consistencia interna (el grado en que diferentes ítems de una encuesta que miden lo mismo se correlacionan entre sí) y la confiabilidad test-retest (el grado en que los resultados de una medida en particular siguen siendo consistentes en múltiples administraciones).

    Desafortunadamente, ser consistente en la medición no significa necesariamente que hayas medido algo correctamente. Para ilustrar este concepto, considera una báscula de cocina que se utilizaría para medir el peso del cereal que comes por la mañana. Si la báscula no está correctamente calibrada, puede subestimar o sobreestimar de manera consistente la cantidad de cereal que se está midiendo. Si bien la báscula es altamente confiable para producir resultados consistentes (por ejemplo, la misma cantidad de cereal vertida en la báscula produce la misma lectura cada vez), esos resultados son incorrectos. Aquí es donde entra en juego la validez. Validez se refiere a la medida en que un determinado instrumento o herramienta mide con precisión lo que se supone que debe medir, y una vez más, hay una serie de formas en las que se puede expresar la validez. La validez ecológica (el grado en que los resultados de la investigación se generalizan a aplicaciones del mundo real), la validez de constructo (el grado en que una variable determinada captura o mide realmente lo que se pretende medir) y la validez facial (el grado en que una variable dada parece válida en la superficie) son solo una pocos tipos que los investigadores consideran. Si bien cualquier medida válida es por necesidad confiable, lo contrario no es necesariamente cierto. Los investigadores se esfuerzan por utilizar instrumentos que sean altamente confiables y válidos.

    CONEXIÓN DIARIO: ¿Qué tan válidos son el SAT y ACT?

    Se supone que las pruebas estandarizadas como el SAT y el ACT miden la aptitud de un individuo para una educación universitaria, pero ¿qué tan confiables y válidas son tales pruebas? La investigación realizada por el College Board sugiere que los puntajes en el SAT tienen una alta validez predictiva para el GPA de los estudiantes universitarios de primer año (Kobrin, Patterson, Shaw, Mattern, & Barbuti, 2008). En este contexto, la validez predictiva se refiere a la capacidad de la prueba para predecir efectivamente el GPA de estudiantes universitarios de primer año. Dado que muchas instituciones de educación superior requieren el SAT o ACT para su ingreso, este alto grado de validez predictiva podría ser reconfortante.

    No obstante, el énfasis puesto en los puntajes SAT o ACT en las admisiones universitarias ha generado cierta polémica en varios frentes. Por un lado, algunos investigadores afirman que estas pruebas son sesgadas y colocan a los estudiantes de minorías en desventaja y reducen injustamente la probabilidad de ser admitidos en una universidad (Santelices & Wilson, 2010). Adicionalmente, algunas investigaciones han sugerido que la validez predictiva de estas pruebas es muy exagerada en lo bien que son capaces de predecir el GPA de los estudiantes universitarios de primer año. De hecho, se ha sugerido que la validez predictiva del SAT puede sobreestimarse hasta en un 150% (Rothstein, 2004). Muchas instituciones de educación superior están empezando a considerar desenfatizar la importancia de los puntajes del SAT en la toma de decisiones de admisión (Rimer, 2008).

    Ejemplos recientes de escándalos de trampas de alto perfil tanto a nivel nacional como en el extranjero solo han incrementado el escrutinio que se está colocando en este tipo de pruebas, y a partir de marzo de 2019, más de 1000 instituciones de educación superior han relajado o eliminado los requisitos para las pruebas SAT o ACT para admisiones ( Strauss, 2019, 19 de marzo).


    This page titled 2.4: Análisis de hallazgos is shared under a CC BY 4.0 license and was authored, remixed, and/or curated by Rose M. Spielman, William J. Jenkins, Marilyn D. Lovett, et al. (OpenStax) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.