Saltar al contenido principal
Library homepage
 
LibreTexts Español

18.2: Faltan modelos estadísticos en el libro

  • Page ID
    151748
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    La estadística es un campo enorme. Las herramientas centrales que he descrito en este libro (pruebas de chi-cuadrado, pruebas t, ANOVA y regresión) son herramientas básicas que se utilizan ampliamente en el análisis de datos cotidianos, y forman el núcleo de la mayoría de los libros introductorios de estadísticas. Sin embargo, hay muchas otras herramientas por ahí. Hay tantas situaciones de análisis de datos que estas herramientas no cubren, y en futuras versiones de este libro quiero hablar de ellas. Para darte una idea de cuánto más hay, y cuánto más trabajo quiero hacer para terminar esto, la siguiente es una lista de herramientas de modelización estadística de las que me hubiera gustado hablar. Algunos de estos definitivamente lo convertirán en futuras versiones del libro.

    • Análisis de covarianza En el Capítulo 16 dediqué un poco de tiempo a discutir la conexión entre ANOVA y regresión, señalando que cualquier modelo ANOVA puede ser refundido como una especie de modelo de regresión. De manera más general, ambos son ejemplos de modelos lineales, y es muy posible considerar modelos lineales que son más generales que cualquiera de ellos. El ejemplo clásico de esto es el “análisis de covarianza” (ANCOVA), y se refiere a la situación en la que algunos de tus predictores son continuos (como en un modelo de regresión) y otros son categóricos (como en un ANOVA).
    • Regresión no lineal Al discutir la regresión en el Capítulo 15, vimos que la regresión asume que la relación entre predictores y resultados es lineal. Por otro lado, cuando hablamos del problema más simple de correlación en el Capítulo 5, vimos que existen herramientas (por ejemplo, correlaciones de Spearman) que son capaces de evaluar las relaciones no lineales entre variables. Hay una serie de herramientas en estadística que se pueden utilizar para hacer regresión no lineal. Por ejemplo, algunos modelos de regresión no lineal asumen que la relación entre predictores y resultados es monótona (por ejemplo, regresión isotónica), mientras que otros asumen que es suave pero no necesariamente monótona (por ejemplo, regresión de Lowess), mientras que otros asumen que la relación es de una forma conocida que pasa a ser no lineal (por ejemplo, regresión polinómica).
    • Regresión logística Otra variación de la regresión ocurre cuando la variable de resultado es de valor binario, pero los predictores son continuos. Por ejemplo, supongamos que está investigando las redes sociales, y quiere saber si es posible predecir si alguien está o no en Twitter en función de sus ingresos, su edad y un rango de otras variables. Esto es básicamente un modelo de regresión, pero no se puede usar la regresión lineal regular porque la variable de resultado es binaria (o estás en Twitter o no lo estás): debido a que la variable de resultado es binaria, no hay forma de que los residuos puedan distribuirse normalmente. Existen una serie de herramientas que los estadísticos pueden aplicar a esta situación, la más destacada de las cuales es la regresión logística.
    • El Modelo Lineal General (GLM) El GLM es en realidad una familia de modelos que incluye regresión logística, regresión lineal, (algunos) regresión no lineal, ANOVA y muchos otros. La idea básica en el GLM es esencialmente la misma idea que sustenta los modelos lineales, pero permite la idea de que sus datos podrían no estar distribuidos normalmente, y permite relaciones no lineales entre predictores y resultados. Hay muchos análisis muy útiles que puedes ejecutar que caen dentro del GLM, por lo que es algo muy útil de conocer.
    • Análisis de supervivencia En el Capítulo 2 hablé del “desgaste diferencial”, la tendencia de las personas a abandonar el estudio de manera no aleatoria. En aquel entonces, estaba hablando de ello como una posible preocupación metodológica, pero hay muchas situaciones en las que el desgaste diferencial es en realidad lo que te interesa. Supongamos, por ejemplo, que te interesa saber cuánto tiempo la gente juega diferentes tipos de juegos de computadora en una sola sesión. ¿La gente tiende a jugar juegos RTS (estrategia en tiempo real) por tramos más largos que los juegos de FPS (disparos en primera persona)? Podrías diseñar tu estudio así. La gente entra al laboratorio, y pueden jugar tanto tiempo o tan poco como quieran. Una vez terminadas, grabas el tiempo que pasaron jugando. No obstante, debido a restricciones éticas, supongamos que no se puede permitir que sigan jugando más de dos horas. Mucha gente dejará de jugar antes del límite de dos horas, así que sabes exactamente cuánto tiempo jugaron. Pero algunas personas se encontrarán con el límite de dos horas, y así no sabes cuánto tiempo habrían seguido jugando si hubieras podido continuar con el estudio. Como consecuencia, tus datos son sistemáticamente censurados: te estás perdiendo todos los tiempos muy largos. ¿Cómo analizas estos datos con sensatez? Este es el problema que resuelve el análisis de supervivencia. Está diseñado específicamente para manejar esta situación, donde sistemáticamente te falta un “lado” de los datos porque el estudio terminó. Es muy ampliamente utilizado en la investigación en salud, y en ese contexto a menudo se usa literalmente para analizar la supervivencia. Por ejemplo, es posible que estés rastreando a personas con un tipo particular de cáncer, algunas que han recibido tratamiento A y otras que han recibido tratamiento B, pero solo tienes fondos para rastrearlos durante 5 años. Al final del periodo de estudio algunas personas están vivas, otras no. En este contexto, el análisis de supervivencia es útil para determinar qué tratamiento es más efectivo, y para informarle sobre el riesgo de muerte que enfrentan las personas con el paso del tiempo.
    • Medidas repetidas ANOVA Al hablar de remodelar datos en el Capítulo 7, introduje algunos conjuntos de datos en los que cada participante se midió en múltiples condiciones (por ejemplo, en el conjunto de datos de medicamentos, se midió la capacidad de memoria de trabajo (WMC) de cada persona bajo la influencia del alcohol y la cafeína). Es bastante común diseñar estudios que tengan este tipo de estructura de medidas repetidas. Un ANOVA regular no tiene sentido para estos estudios, porque las mediciones repetidas significan que se viola la independencia (es decir, las observaciones del mismo participante están más estrechamente relacionadas entre sí que con las observaciones de otros participantes. El ANOVA de medidas repetidas es una herramienta que se puede aplicar a datos que tienen esta estructura. La idea básica detrás de RM-ANOVA es tomar en cuenta el hecho de que los participantes pueden tener diferentes niveles generales de desempeño. Por ejemplo, Amy podría tener un WMC de 7 normalmente, que cae a 5 bajo la influencia de la cafeína, mientras que Borat podría tener un WMC de 6 normalmente, que cae a 4 bajo la influencia de la cafeína. Debido a que este es un diseño de medidas repetidas, reconocemos que —aunque Amy tiene un WMC más alto que Borat— el efecto de la cafeína es idéntico para estas dos personas. En otras palabras, un diseño de medidas repetidas significa que podemos atribuir parte de la variación en nuestra medición de WMC a diferencias individuales (es decir, algunas de ellas es solo que Amy tiene un WMC mayor que Borat), lo que nos permite sacar conclusiones más fuertes sobre el efecto de la cafeína.
    • Modelos mixtos Medidas repetidas El ANOVA se utiliza en situaciones en las que se tienen observaciones agrupadas dentro de unidades experimentales. En el ejemplo que di anteriormente, tenemos múltiples medidas WMC para cada participante (es decir, una para cada condición). No obstante, hay muchas otras formas en las que se puede terminar con múltiples observaciones por participante, y para la mayoría de esas situaciones el marco ANOVA de medidas repetidas es insuficiente. Un buen ejemplo de esto es cuando rastrea a personas individuales a través de múltiples puntos de tiempo. Digamos que estás rastreando la felicidad a lo largo del tiempo, para dos personas. La felicidad de Aarón comienza a las 10, luego baja a 8, y luego a 6. La felicidad de Belinda comienza a las 6, luego se eleva a 8 y luego a 10. Ambas personas tienen el mismo nivel “general” de felicidad (el promedio a lo largo de los tres puntos de tiempo es de 8), por lo que un análisis ANOVA de medidas repetidas trataría a Aaron y Belinda de la misma manera. Pero eso es claramente incorrecto. La felicidad de Aarón está disminuyendo, mientras que la de Belinda va en aumento. Si quieres analizar de manera óptima los datos de un experimento donde las personas puedan cambiar con el tiempo, entonces necesitas una herramienta más poderosa que ANOVA de medidas repetidas. Las herramientas que las personas utilizan para resolver este problema se denominan modelos “mixtos”, porque están diseñados para aprender sobre unidades experimentales individuales (por ejemplo, la felicidad de las personas individuales a lo largo del tiempo) así como los efectos generales (por ejemplo, el efecto del dinero en la felicidad a lo largo del tiempo). El ANOVA de medidas repetidas es quizás el ejemplo más simple de un modelo mixto, pero hay mucho que puedes hacer con modelos mixtos que no puedes hacer con ANOVA de medidas repetidas.
    • Análisis de confiabilidad Volver al Capítulo 2 Hablé de la confiabilidad como una de las características deseables de una medición. Uno de los diferentes tipos de confiabilidad que mencioné fue la confiabilidad entre ítems. Por ejemplo, al diseñar una encuesta utilizada para medir algún aspecto de la personalidad de alguien (por ejemplo, la extraversión), generalmente se intenta incluir varias preguntas diferentes que hacen la misma pregunta básica de muchas maneras diferentes. Cuando haces esto, tiendes a esperar que todas estas preguntas tenderán a correlacionarse entre sí, porque todas están midiendo el mismo constructo latente. Hay una serie de herramientas (por ejemplo, el α de Cronbach) que puedes usar para verificar si esto es realmente cierto para tu estudio.
    • Análisis factorial Una gran deficiencia con las medidas de confiabilidad como la α de Cronbach es que asumen que todas las variables observadas miden un solo constructo latente. Pero eso no es cierto en general. Si miras la mayoría de los cuestionarios de personalidad, o las pruebas de coeficiente intelectual, o casi cualquier cosa en la que estés tomando muchas medidas, probablemente sea el caso de que en realidad estés midiendo varias cosas a la vez. Por ejemplo, todas las diferentes pruebas utilizadas al medir el coeficiente intelectual tienden a correlacionarse entre sí, pero el patrón de correlaciones que ves a través de las pruebas sugiere que hay múltiples “cosas” diferentes sucediendo en los datos. El análisis factorial (y herramientas relacionadas como análisis de componentes principales y análisis de componentes independientes) es una herramienta que puedes usar para ayudarte a descubrir cuáles son estas cosas. En términos generales, lo que haces con estas herramientas es tomar una gran matriz de correlación que describa todas las correlaciones por pares entre tus variables, e intentar expresar este patrón de correlaciones usando solo un pequeño número de variables latentes. El análisis factorial es una herramienta muy útil —es una excelente manera de tratar de ver cómo se relacionan tus variables entre sí— pero puede ser complicado de usar bien. Mucha gente comete el error de pensar que cuando el análisis factorial descubre una variable latente (por ejemplo, la extraversión aparece como una variable latente cuando analizas factorialmente la mayoría de los cuestionarios de personalidad), en realidad debe corresponder a una “cosa” real. Eso no es necesariamente cierto. Aun así, el análisis factorial es algo muy útil de conocer (especialmente para los psicólogos), y sí quiero hablar de ello en una versión posterior del libro.
    • Escala multidimensional El análisis factorial es un ejemplo de un modelo de “aprendizaje no supervisado”. Lo que esto significa es que, a diferencia de la mayoría de las herramientas de “aprendizaje supervisado” que he mencionado, no puedes dividir tus variables en predictores y resultados. La regresión es aprendizaje supervisado; el análisis factorial es aprendizaje no supervisado. Sin embargo, no es el único tipo de modelo de aprendizaje sin supervisión. Por ejemplo, en el análisis factorial se trata del análisis de correlaciones entre variables. Sin embargo, hay muchas situaciones en las que realmente te interesa analizar similitudes o disimilitudes entre objetos, elementos o personas. Hay una serie de herramientas que puedes usar en esta situación, la más conocida de las cuales es el escalado multidimensional (MDS). En MDS, la idea es encontrar una representación “geométrica” de tus artículos. Cada elemento se “traza” como un punto en algún espacio, y la distancia entre dos puntos es una medida de cuán diferentes son esos elementos.
    • Clustering Otro ejemplo de un modelo de aprendizaje no supervisado es la agrupación (también conocida como clasificación), en la que desea organizar todos sus elementos en grupos significativos, de manera que elementos similares se asignen a los mismos grupos. Mucho clustering es sin supervisión, es decir, que no sabes nada de lo que son los grupos, solo tienes que adivinar. Hay otras situaciones de “clustering supervisado” en las que es necesario predecir las membresías grupales sobre la base de otras variables, y esas membresías grupales son realmente observables: la regresión logística es un buen ejemplo de una herramienta que funciona de esta manera. Sin embargo, cuando no conoces realmente las membresías del grupo, tienes que usar diferentes herramientas (por ejemplo, k-means clustering). Incluso hay situaciones en las que quieres hacer algo llamado “clustering semi-supervisado”, en el que conoces las membresías grupales para algunos artículos pero no para otros. Como probablemente puedas adivinar, la agrupación es un tema bastante grande, y algo bastante útil de conocer.
    • Modelos causales Una cosa de la que no he hablado mucho en este libro es cómo se puede utilizar el modelado estadístico para aprender sobre las relaciones causales entre variables. Por ejemplo, considere las siguientes tres variables que podrían ser de interés al pensar en cómo alguien murió en un pelotón de fusilamiento. Podríamos querer medir si se dio o no una orden de ejecución (variable A), si un tirador disparó o no su arma (variable B), y si la persona fue golpeada o no con una bala (variable C). Estas tres variables están todas correlacionadas entre sí (por ejemplo, existe una correlación entre las armas que se disparan y la gente es golpeada con balas), pero en realidad queremos hacer declaraciones más fuertes sobre ellas que simplemente hablar de correlaciones. Queremos hablar de causalidad. Queremos poder decir que la orden de ejecución (A) provoca que el tirador dispare (B) lo que provoca que alguien sea baleado (C). Podemos expresarlo mediante una notación de flecha dirigida: la escribimos como A→B→C. Esta “cadena causal” es una explicación fundamentalmente diferente para los eventos que aquella en la que el tirador dispara primero, lo que provoca el disparo B→C, y luego hace que el verdugo emita “retroactivamente” la orden de ejecución, B→A. efecto” dice que A y C son ambos causados por B. Se puede ver por qué estos son diferentes. En el primer modelo causal, si hubiéramos logrado impedir que el verdugo emitiera la orden (interviniendo para cambiar A), entonces no habría ocurrido ningún tiroteo. En el segundo modelo, el tiroteo habría ocurrido de cualquier manera porque el tirador no estaba siguiendo la orden de ejecución. Existe una gran literatura en estadística sobre tratar de comprender las relaciones causales entre variables, y existen varias herramientas diferentes para ayudarlo a probar diferentes historias causales sobre sus datos. La más utilizada de estas herramientas (al menos en psicología) es la modelización de ecuaciones estructurales (SEM), y en algún momento me gustaría extender el libro para hablar de ello.

    Por supuesto, incluso este listado está incompleto. No he mencionado el análisis de series temporales, la teoría de respuesta a los ítems, el análisis de la canasta de mercado, los árboles de clasificación y regresión, ni ninguno de una amplia gama de otros temas. Sin embargo, la lista que he dado anteriormente es esencialmente mi lista de deseos para este libro. Claro, duplicaría la longitud del libro, pero significaría que el alcance se ha vuelto lo suficientemente amplio como para cubrir la mayoría de las cosas que los investigadores aplicados en psicología necesitarían usar.


    This page titled 18.2: Faltan modelos estadísticos en el libro is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Danielle Navarro via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.