Saltar al contenido principal
LibreTexts Español

4.3: Evaluación del Diseño Instruccional

  • Page ID
    136513
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Evaluación del Diseño Instruccional

    Cheryl Calhoun, Shilpa Sahay y Matthew Wilson

    Nota del editor

    Esta es una versión remezclada de un capítulo anterior sobre evaluación en diseño instruccional que se puede encontrar en el sitio web de ADDIE Explicado, y se imprime aquí bajo la misma licencia que el original.

    La evaluación se encuentra en el centro del modelo de diseño instruccional. Proporciona retroalimentación a todas las demás etapas del proceso de diseño para informar y mejorar continuamente nuestros diseños instructivos. En este capítulo discutiremos el Por qué, qué, cuándo y cómo de la evaluación. Exploraremos varios de los modelos y marcos de evaluación más citados para realizar evaluaciones formativas, sumativas y confirmativas. Es importante señalar que la instrucción puede ocurrir en entornos formales de instrucción o a través del desarrollo de productos instructivos como herramientas de aprendizaje digital. A lo largo de este capítulo discutiremos indistintamente programas y/o productos instructivos. La evaluación efectiva se aplica a todas estas formas de diseño instruccional.

    Diseño de modelos ADDIE
    Figura 4.3.1: Modelo ADDIE de Diseño (Fav203, 2012)

    ¿Por qué evaluamos?

    La evaluación asegura que la instrucción que se está diseñando satisfaga la necesidad identificada de instrucción y sea efectiva para lograr los resultados de aprendizaje previstos para los participantes. Ayuda a responder preguntas como:

    • ¿Nuestras metas de instrucción están alineadas con los requisitos del programa de instrucción?
    • ¿Nuestros planes de lecciones, materiales de instrucción, medios de comunicación y evaluaciones están alineados con las necesidades de aprendizaje?
    • ¿Necesitamos hacer algún cambio en nuestro diseño para mejorar la efectividad y la satisfacción general con la instrucción?
    • ¿La implementación proporciona instrucción efectiva y lleva a cabo el plan de lecciones previsto y los objetivos instructivos?
    • ¿Los alumnos han obtenido los conocimientos y habilidades que se necesitan?
    • ¿Nuestros alumnos son capaces de transferir su aprendizaje al entorno contextual deseado?

    Estas preguntas ayudan a dar forma al diseño instruccional, confirman qué y hasta qué punto el alumno está aprendiendo, y validan el aprendizaje a lo largo del tiempo para apoyar las decisiones tomadas con respecto al diseño, así como cómo se mantiene el programa a lo largo del tiempo.

    ¿Qué es la Evaluación?

    La evaluación es el proceso de revisar tanto los componentes instructivos como los resultados resultantes de la instrucción para determinar si la instrucción logra los resultados deseados. El modelo de evaluación de Kirkpatrick propone cuatro niveles de evaluación: reacción, aprendizaje, comportamiento y resultados (Kirkpatrick & Kirkpatrick, 2016). Si bien este es un modelo bastante simplista, proporciona un marco para comprender la evaluación y ha proporcionado un modelo significativo de evaluación al campo del diseño instruccional.

    Imagen del modelo de evaluación de Kirkpatrick para resultados, comportamiento, aprendizaje y reacción.
    Figura 4.3.2: Modelo de Evaluación de Kirkpatrick

    Reacción

    Para tener una instrucción efectiva, se requiere retroalimentación frecuente de los alumnos para verificar el progreso del aprendizaje y monitorear la eficacia del proceso pedagógico seleccionado para la instrucción (Heritage, 2007). Un diseñador instruccional puede evaluar tanto la reacción del maestro como del alumno ante una nueva instrucción pedagógica. Una vez que se determina que hay compromiso por parte de los alumnos, se puede suponer que los alumnos no abandonarán la escuela debido a su reacción a la calidad o aplicabilidad de la instrucción. También ayuda al evaluador a controlar el ritmo del programa a medida que uno avanza en la fase de entrenamiento. Deja menos frustración y vaguedad en la mente del evaluador si se sabe que todos los alumnos están orientados positivamente a emprender la formación.

    Aprendiendo

    Evaluar el aprendizaje es un proceso continuo en el desarrollo instruccional. Es importante evaluar si los materiales desarrollados resuelven los problemas que fueron identificados. Cuando los alumnos dominan el contenido de la capacitación o exhiben un aprendizaje adecuado a través de la evaluación, se puede asumir la efectividad del programa e identificar lo que no funcionó si los resultados de aprendizaje muestran resultados adversos. Diversos estudios en el campo de la medición educativa han sugerido que las evaluaciones y evaluaciones conducen a un aprendizaje de mayor calidad. Popham (2008) calificó a este nuevo aspecto de la evaluación en el proceso de evaluación como “Evaluación Transformativa” donde un evaluador identifica la progresión del aprendizaje de los alumnos mediante el análisis de la secuencia de habilidades aprendidas durante el período del programa de estudio. Esto también ayuda al evaluador o al diseñador instruccional a desarrollar métodos para evaluar cuánto dominaron los alumnos el material de aprendizaje.

    Comportamiento

    Las actitudes y el comportamiento son indicadores importantes hacia la aceptación y el éxito de un programa de instrucción. Dick, Carey y Carey (2015) mencionaron que un evaluador necesita escribir instrucciones para guiar las actividades del alumno y construir una rúbrica (por ejemplo, una lista de verificación o una escala de calificación) para evaluar y medir el desempeño, los productos y las actitudes. Un alumno desarrolla varias habilidades intelectuales y conductuales, y una evaluación puede descubrir qué cambios se han traído en la actitud y el comportamiento de los alumnos.

    Resultados

    Con cada producto instruccional, evaluar los resultados es la tarea más significativa de un evaluador, y se realiza para determinar qué tan cerca se ha podido lograr el éxito en la implementación del programa. Un evaluador realiza una evaluación con el fin de probar la efectividad de la instrucción para crear el resultado de aprendizaje deseado (Morrison et al., 2019). Morrison et al. (2019) sugirieron que los evaluadores midan la eficiencia del aprendizaje comparando las habilidades dominadas con el tiempo empleado; costo del desarrollo del programa; gastos continuos; reacciones hacia el programa; y beneficios a largo plazo del programa.

    ¿Cuándo Evaluamos?

    Tres tipos de evaluación comúnmente utilizados para la instrucción son formativa, sumativa y confirmativa (Morrison et al., 2019; Ross & Morrison, 2010). La evaluación formativa se lleva a cabo durante el proceso de diseño para proporcionar retroalimentación que informa el proceso de diseño. La evaluación sumativa se lleva a cabo al final del proceso de diseño para determinar si el producto instructivo logra los resultados deseados. La evaluación confirmativa se realiza a lo largo del tiempo para determinar los efectos duraderos de la instrucción. Cada una de estas etapas de evaluación se examina en detalle aquí, tanto a través de la definición de la propia forma como a través de una discusión de algunas de las herramientas clave dentro de cada una.

    “Cuando el cocinero prueba la sopa que es formativa; cuando los invitados prueban la sopa, eso es sumativo”. — Robert E. Stake (M. Scriven, 1991, p. 169)

    Formativo

    La evaluación formativa ocurre durante el diseño instruccional. Es el proceso de evaluar la instrucción y los materiales de instrucción para obtener retroalimentación que a su vez impulsa revisiones para hacer que la instrucción sea más eficiente y efectiva. Una forma de pensar sobre esto es compararlo con un chef probando su comida antes de enviársela al cliente. Morrison et al. (2019) explicaron que el proceso de evaluación formativa utiliza datos de medios, instrucción y compromiso del alumno para formular una imagen del aprendizaje a partir de la cual el diseñador puede hacer cambios en el producto antes de la implementación final.

    Boston (2002, p. 2) declaró el propósito de la evaluación formativa como “todas las actividades que los profesores y alumnos realizan para obtener información que pueda ser utilizada diagnósticamente para alterar la enseñanza y el aprendizaje”. La evaluación formativa da como resultado el mejoramiento de los procesos de instrucción para el mejoramiento del alumno. Si bien los cambios formativos se realizan mejor durante etapas tempranas del proceso de diseño, estos cambios pueden llegar más tarde si la situación lo dicta. Según Morrison et al., (2019), cuando las evaluaciones sumativas y confirmativas demuestran efectos indeseables, entonces los resultados pueden ser utilizados como una herramienta de evaluación formativa para realizar mejoras.

    Los diseñadores instructivos deben considerar una variedad de fuentes de datos para crear una imagen completa de la efectividad de su diseño. Morrison et al. (2019) propusieron que las evaluaciones basadas en el conocimiento, orientadas a la toma de decisiones, basadas en objetivos y constructivistas son cada una metodologías apropiadas dentro del proceso formativo. Más recientemente Patton (2016) introdujo la evaluación del desarrollo que introduce la innovación y la adaptación en entornos dinámicos.

    Tipos de Evaluación Formativa

    Basado en el Conocedor

    Emplea expertos en la materia (pymes) en la revisión de objetivos de desempeño, instrucción y evaluaciones para verificar el aprendizaje, el análisis instruccional, la precisión del contexto, la idoneidad del material, la validez del ítem de prueba y la secuenciación. Cada uno de estos ítems permite al diseñador mejorar la organización y el flujo de instrucción, la precisión del contenido, la legibilidad de los materiales, las prácticas de instrucción y la efectividad total (Morrison et al., 2019).

    Orientado a la decisión

    Las preguntas hechas pueden desarrollarse a partir del conocimiento profesional de un diseñador instruccional o equipo de diseño. Estas preguntas posteriormente requieren que el diseñador desarrolle más herramientas para evaluar la pregunta, y como tal debe completarse en un momento en que el cambio sigue siendo una opción y financieramente prudente (Morrison et al., 2019).

    Basado en objetivos

    A través de un examen de las metas de un curso de instrucción, se puede analizar el éxito del desempeño de un alumno.

    Constructivista

    Toma en cuenta las habilidades aprendidas por los estudiantes durante el proceso de aprendizaje así como cómo han asimilado lo aprendido a su vida real.

    Desarrollo

    Responsivo al contexto y más ágil, permitiendo una respuesta más rápida y soporte de diseños innovadores (Patton, 2011).

    Sumativo

    Dick et al. (2015, p. 320) afirmaron que la pregunta final de evaluación sumativa es “¿Resolvió el problema?” Esa es la esencia de la evaluación sumativa. Continuando con la analogía del chef desde arriba, uno pregunta: “¿El cliente disfrutó la comida?” (M. Scriven, 1991). Las partes involucradas en la evaluación toman los datos y sacan una conclusión sobre la efectividad de la instrucción diseñada. Sin embargo, con el tiempo, la evaluación sumativa se ha convertido en un proceso más complejo de lo que la pregunta inicial puede dejar pasar. En el diseño instruccional moderno, los profesionales investigan múltiples preguntas a través de la evaluación para determinar la efectividad del aprendizaje, la eficiencia del aprendizaje y la rentabilidad, así como las actitudes y reacciones al aprendizaje (Morrison et al., 2019).

    Efectividad en el aprendizaje

    La efectividad del aprendizaje se puede evaluar de muchas maneras. Aquí estamos tratando de entender:

    • ¿Qué tan bien aprendió el alumno?
    • ¿Los estudiantes están motivados para cambiar de conducta?
    • ¿Se involucró a la población pretendida de aprendices?
    • Incluso, ¿le enseñamos lo correcto al alumno?

    La medición de la efectividad del aprendizaje se puede determinar a partir de evaluaciones, calificaciones de proyectos y desempeño, observaciones del comportamiento de los estudiantes, encuestas de fin de curso, grupos focales y entrevistas. Dick et al. (2015) esbozaron un plan integral para la evaluación sumativa a lo largo del proceso de diseño, incluyendo la recolección de datos de las pymes y durante los ensayos de campo para obtener retroalimentación.

    Eficiencia de aprendizaje y costo-efectividad

    Si bien la eficiencia del aprendizaje y la rentabilidad de la instrucción son ciertamente constructos distintos, el éxito de los primeros impacta a los segundos. La eficiencia del aprendizaje es una cuestión de recursos (por ejemplo, tiempo, instructores, instalaciones, etc.), y cómo esos recursos se utilizan dentro de la instrucción para alcanzar la meta de instrucción exitosa (Morrison et al., 2019). Dick et al. (2015) recomendaron comparar los materiales con las necesidades, el grupo objetivo y los recursos de una organización. El resultado es el análisis de los datos para llegar a una conclusión final sobre la rentabilidad con base en cualquier número de fórmulas prescritas.

    Actitudes y reacciones al aprendizaje

    Las actitudes y reacciones ante el aprendizaje, si bien son integrales a la evaluación formativa, también pueden ser evaluadas sumativamente. Morrison et al. (2019) explicaron que hay dos usos para la evaluación actitudinal: evaluar la instrucción y evaluar los resultados dentro del aprendizaje. Si bien la mayoría de los objetivos dentro del aprendizaje son cognitivos, los objetivos psicomotores y afectivos también pueden ser metas de aprendizaje. Las evaluaciones sumativas a menudo se centran en medir el logro de los objetivos. En consecuencia, existe una conexión natural entre las actitudes y la evaluación de objetivos afectivos. Por el contrario, los diseñadores pueden utilizar evaluaciones sumativas que recopilan datos sobre las versiones finales de su producto de aprendizaje. Esta evaluación sumativa mide las reacciones al aprendizaje.

    Confirmativo

    El propósito de una evaluación confirmativa es determinar si la instrucción es efectiva y si satisface las necesidades de instrucción definidas por la organización. En efecto, ¿resolvió el problema? El cliente se comió la comida y la disfrutó. Pero, ¿volvieron? La evaluación confirmativa va más allá del alcance de la evaluación formativa y sumativa y analiza si los efectos a largo plazo de la instrucción son lo que la organización esperaba lograr. ¿La instrucción afecta el comportamiento o proporciona a los alumnos las habilidades necesarias según lo determinado por los objetivos originales de la instrucción? Los métodos de evaluación confirmativa pueden no diferir mucho de los formativos y sumativos fuera del hecho de que ocurre después de la implementación de un diseño. Moseley y Solomon (1997) describieron la evaluación confirmativa como mantener el enfoque en lo que es importante para sus grupos de interés y garantizar que se sigan cumpliendo las expectativas de aprendizaje.

    ¿Cómo Evaluamos?

    Evaluación Formativa

    La evaluación formativa es un proceso iterativo que requiere la participación de diseñadores instruccionales, expertos en la materia, alumnos e instructores. Tessmer (2013) identificó cuatro etapas de evaluación formativa, incluyendo la revisión de expertos, uno a uno, grupos pequeños y evaluación de pruebas de campo. Los resultados de cada fase de evaluación son realimentados a los diseñadores instruccionales para ser utilizados en el proceso de mejora del diseño. En todas las etapas de evaluación, es importante que los alumnos sean seleccionados que coincidan estrechamente con las características de la población de aprendizaje objetivo.

    Imagen que muestra las cuatro etapas del ciclo de evaluación formativa.
    Figura 4.3.3: El ciclo de evaluación formativa

    Revisión de expertos

    El propósito de la revisión experta es identificar y eliminar los errores más obvios y obtener retroalimentación sobre la efectividad de la instrucción. La fase de juicio experto puede incluir análisis de congruencia, análisis de contenido, análisis de diseño, análisis de viabilidad y análisis de usuarios. Los resultados de la revisión de expertos se pueden utilizar para mejorar los componentes y materiales de instrucción antes de una implementación piloto. Esta fase se lleva a cabo con el diseñador instruccional, los expertos en la materia y, a menudo, un revisor externo. Los alumnos objetivo no están involucrados en esta etapa de evaluación.

    Figura 4

    Gráfico que muestra las fases del juicio pericial.
    Figura 4.3.4: La Fase del Juicio Pericial (Dick et al., 2015)

    Uno a uno

    La evaluación uno a uno es muy parecida a un estudio de usabilidad. Durante esta evaluación, los ID deben buscar claridad, impacto y factibilidad (Dick et al., 2015, p. 262; Earnshaw, Tawfik, & Schmidt, 2017). Al alumno se le presentan los materiales didácticos que se proporcionarán durante la instrucción. El evaluador debe alentar al alumno a discutir lo que ve, escribir en los materiales según corresponda y anotar cualquier error. La identificación puede involucrar al alumno en un diálogo para solicitar comentarios sobre los materiales y la claridad de la instrucción. Existen muchas herramientas tecnológicas que pueden facilitar una evaluación uno-a-uno. Los principios de Interacción Humana Computadora y Diseño de Centro de Usuarios pueden informar la revisión del diseño instruccional (Earnshaw et al., 2017). En Don't Make Me Think, Krug (2014) describió un proceso de realización de un estudio de usabilidad para el desarrollo de sitios web. Los pasos que brindó son una buena guía para realizar una evaluación uno a uno. Krug recomendó grabar en video la sesión para su posterior análisis. Si la instrucción se basa en computadora, hay herramientas disponibles que pueden registrar la interacción del alumno, así como las respuestas del alumno. Morae de Techsmith (https://edtechbooks.org/-oPnH) es una herramienta que permite registrar las interacciones de los usuarios y analizar de manera eficiente los resultados.

    Grupo pequeño

    La evaluación en grupos pequeños se utiliza para determinar la efectividad de los cambios realizados en la instrucción después de la evaluación uno a uno y para identificar cualquier problema adicional que los alumnos puedan estar experimentando. El enfoque está en la consideración de si los alumnos pueden usar la instrucción sin la interacción del instructor. En una evaluación en grupo pequeño, el instructor administra la instrucción y los materiales en la forma en que están diseñados. Los participantes en grupos pequeños completan la (s) lección (s) como se describe. El diseñador instruccional observa pero no interviene. Después de completar la lección instruccional, se debe pedir a los participantes que completen una evaluación posterior diseñada para proporcionar comentarios sobre la instrucción.

    Prueba de campo

    Después de que se hayan implementado las recomendaciones de la evaluación en grupos pequeños, es el momento de realizar un ensayo de campo. La instrucción seleccionada debe entregarse lo más cerca posible de la forma en que se pretende implementar el diseño en el entorno de instrucción final, y la instrucción debe ocurrir en un entorno lo más cercano posible al entorno objetivo. Los alumnos deben ser seleccionados que coincidan estrechamente con las características de los aprendices previstos. Todos los materiales de instrucción para la sección de instrucción seleccionada, incluido el manual del instructor, deben estar completos y listos para usar. Se deben recopilar datos sobre el desempeño y las actitudes del alumno, el tiempo requerido para usar los materiales en el contexto instruccional y la efectividad del plan de manejo instruccional. Durante el ensayo de campo la identificación no participa en la entrega de instrucción. El ID y el equipo de revisión observarán el proceso y registrarán los datos sobre sus observaciones.

    Diagrama de flujo que muestra los pasos para la evaluación en un ensayo de campo.
    Figura 4.3.5: Prueba de campo

    Evaluación sumativa

    El propósito de una evaluación sumativa es evaluar los materiales de instrucción y/o instrucción una vez finalizados. Se realiza durante o inmediatamente después de la implementación. Esta evaluación puede ser utilizada para documentar las fortalezas y debilidades en la instrucción o materiales instructivos, para decidir si continuar la instrucción, o si adoptar la instrucción. Los evaluadores externos para tomadores de decisiones a menudo realizan o participan en la evaluación sumativa. Es posible que se necesiten expertos en la materia para garantizar la integridad de la instrucción y/o los materiales de instrucción. Hay varios modelos que podemos considerar para la evaluación sumativa, incluyendo el Modelo CIPP, el Modelo de Estaca y el Modelo de Scriven.

    Modelo CIPP

    El modelo de evaluación CIPP de Stufflebeam (1971) describe un marco para la evaluación proactiva para servir a la toma de decisiones y la evaluación retroactiva para servir a la rendición de cuentas. El modelo define la evaluación como el proceso de delinear, obtener y proporcionar información útil para juzgar alternativas de decisión. Incluye cuatro tipos de evaluación: contexto, entrada, proceso y producto. Las primeras letras de los nombres de estos cuatro tipos de evaluación dieron el acrónimo - CIPP. El modelo proporciona pautas sobre cómo los pasos en el proceso de evaluación interactúan con estos diferentes tipos de evaluación.

    El modelo de evaluación CIPP por Mallory Buzun-Miller

    Modelo de Stake

    Stake en 1969 creó un marco de evaluación para ayudar a un evaluador a recopilar, organizar e interpretar datos para las dos principales operaciones de evaluación (Stake, 1967; Wood, 2001). Estos incluyen (a) descripción completa y (b) juicio del programa. W. J. Popham (1993) definió que los esquemas de Stake llaman la atención hacia las diferencias entre los actos descriptivos y críticos según su fase en un programa educativo, y estas fases pueden ser antecedentes, transacciones y resultados. Se trata de un modelo integral para que un evaluador piense completamente a través de los procedimientos de una evaluación.

    Dr. Robert Stake por educación en Illinois

    Modelo sin metas de Scriven

    Scriven proporciona un modelo transdisciplinario de evaluación en el que se extrae de una visión objetivista de la evaluación (Michael Scriven, 1991a, 1991b). Scriven definió tres características para este modelo: epistemológico, político y disciplinario. Algunas de las características importantes de la evaluación libre de metas de Scriven enfatizan la validez, confiabilidad, objetividad/credibilidad, importancia/oportunidad, relevancia, alcance y eficiencia en todo el proceso de enseñanza y aprendizaje. Youker (2013) amplió el modelo para crear principios generales para guiar al evaluador sin metas. Younker propuso los siguientes principios:

    1. Identificar efectos relevantes para examinar sin hacer referencia a metas y objetivos.
    2. Identificar lo ocurrido sin la incitación de metas y objetivos.
    3. Determinar si lo ocurrido puede atribuirse lógicamente al programa o intervención.
    4. Determinar el grado en que los efectos son positivos, negativos o neutros.

    El propósito principal de la evaluación sin metas es determinar qué cambio se ha producido que puede atribuirse al programa instruccional. Al realizar la evaluación sin conocimiento previo de los resultados u objetivos de aprendizaje, el evaluador sirve como una verificación para ver si el programa produjo el resultado deseado por el diseñador (es) instruccional (es).

    El pasado, el presente y el futuro de la evaluación: posibles roles para la Universidad de Melbourne, por la Universidad de Melbourne

    Evaluación Confirmativa

    El enfoque de la evaluación confirmativa debe estar en la transferencia de conocimiento o habilidad a un contexto de largo plazo. Para realizar una evaluación confirmativa, es posible que desee utilizar observaciones con verificación por revisión experta. También puede desarrollar o utilizar listas de verificación, entrevistas, observaciones, escalas de calificación, evaluaciones y una revisión de los datos de productividad organizacional. La evaluación confirmativa debe realizarse de manera regular. El intervalo de evaluación debe basarse en las necesidades de la organización y el contexto instruccional.

    Conclusión

    La evaluación es el proceso de determinar si la instrucción diseñada cumple con sus objetivos previstos. Además, la evaluación nos ayuda a determinar si los alumnos pueden transferir las habilidades y conocimientos aprendidos a cambios a largo plazo en el comportamiento y las habilidades requeridas para el contexto objetivo. La evaluación brinda a los diseñadores instruccionales la oportunidad de asegurar que todos los interesados estén de acuerdo en que la instrucción desarrollada está cumpliendo con los objetivos de la organización

    En este capítulo revisamos cómo es la evaluación y su relación dentro del proceso de diseño instruccional. Analizamos varios modelos de evaluación, incluyendo el modelo de Kirkpatrick y los cuatro niveles de evaluación: Evaluar la reacción, evaluar el aprendizaje, evaluar el comportamiento y evaluar resultados. También analizamos las tres fases de evaluación, incluyendo la evaluación formativa, sumativa y confirmativa, e introdujimos varios modelos y métodos diferentes para llevar a cabo la evaluación de muchos académicos líderes en evaluación.

    Discusión

    • ¿Dónde se encuentra la evaluación en el modelo de diseño instruccional? ¿Cómo se verá tu diagrama de flujo cuando describas la evaluación en relación con las otras etapas del diseño instruccional?
    • Describir las tres etapas de evaluación. Dé un ejemplo para explicar cómo un diseñador instruccional utilizará estas tres etapas en un caso específico de un producto de aprendizaje.
    • ¿Cuáles son los cinco tipos de métodos de evaluación formativa mencionados en el capítulo que ayudan a recabar puntos de datos para la evaluación inicial? ¿Cuáles dos de estos métodos serán su elección preferida para su evaluación formativa y por qué?
    • ¿Cuáles serán los parámetros para evaluar el éxito de la formación instruccional?
    • ¿Cuáles son algunas de las técnicas para realizar la evaluación formativa y sumativa?
    • Varios modelos de evaluación han sido discutidos en el capítulo. Discuta cualquiera de estos modelos en detalle y explique cómo aplicará estos modelos en su proceso de evaluación.

    Ejercicios de Aplicación

    Para los siguientes ejercicios, puede usar un módulo de instrucción con el que esté familiarizado desde la primera infancia, k-12, educación superior, carrera y técnica, corporativa u otra implementación donde se necesite diseño instruccional. Sé creativo y usa algo de un entorno educativo que te interese. Asegúrese de describir su módulo de instrucción seleccionado en lo que respecta a cada uno de estos ejercicios. Es posible que deba hacer algunas investigaciones adicionales en línea para responder estas preguntas. Asegúrese de incluir sus referencias en sus respuestas.

    1. Describe cómo realizarías las tres fases de la evaluación formativa. Defina sus estrategias, poblaciones y metodologías para cada etapa del proceso.
    2. Dibujar un diagrama del proceso de evaluación formativa iterativa. ¿Qué piezas específicas de la intervención instruccional se consideran dentro de cada etapa del proceso? ¿Cómo se emplean los datos recopilados durante este proceso para mejorar el diseño de la instrucción?
    3. Describa el contexto y el proceso de selección del alumno que utilizaría para configurar un ensayo de campo de evaluación formativa. ¿Qué consideraciones especiales hay que hacer para llevar a cabo esta etapa de evaluación de manera efectiva?
    4. ¿Qué materiales debe incluir el diseñador en una prueba de campo? ¿Cómo contrastan los materiales utilizados para los ensayos de campo con las evaluaciones uno a uno y en grupos pequeños?

    Se le ha pedido que se desempeñe como evaluador externo en una evaluación sumativa de un modelo de capacitación diseñado por uno de sus compañeros. Explique las fases de la evaluación sumativa en las que se le puede pedir que participe como revisor externo. Imagina que has creado una rúbrica para ayudarte a evaluar la intervención instruccional. ¿Qué elementos podría contener esa rúbrica para ayudarlo a realizar una revisión de manera efectiva y eficiente?

    Asignación de grupo

    Realizar un estudio de evaluación para comprender cuán exitosa ha sido una intervención instruccional en el logro de las metas de la instrucción diseñada. Tenga en cuenta el proyecto grupal realizado en los capítulos anteriores de desarrollo e implementación y realice un estudio de evaluación para evaluar el éxito de lograr las metas y objetivos de la instrucción. Para lograr estos objetivos, debes realizar varias rondas de evaluación:

    • Realizar una evaluación individual con un estudiante de la población objetivo. Hacer observaciones de las acciones del alumno dentro de la instrucción y reacciones a los materiales, contenido y diseño general. Proponer cambios a la intervención instruccional con base en los comentarios del estudiante de muestra.
    • Realizar una evaluación en grupo pequeño con un grupo de 3 a 5 alumnos. Esta evaluación debe reflejar los cambios que realizó después de la etapa uno a uno y evaluar materiales e instrucción casi operativos. Debe reclutar a un instructor para que imparta la instrucción. Hacer observaciones y hacer que el instructor administre una evaluación sumativa después de la instrucción. Analizar los datos recopilados y crear un informe de una página sobre los resultados.
    • Implementar una prueba de campo con un instructor y una población estudiantil de al menos 15 personas. Los materiales de instrucción, incluido el manual del instructor, deben estar completos y listos para usar. Recopilar datos sobre el desempeño y las actitudes del alumno, así como el tiempo requerido para la instrucción y la efectividad del plan de manejo instruccional. Observe el proceso y registre los datos, y cree un informe final detallando el ciclo completo de evaluación.

    Referencias

    Boston, C. (2002). El concepto de evaluación formativa. En ERIC Clearinghouse on Assessment and Evaluation.

    Dick, W., Carey, L., & Carey, J. (2015). El diseño sistemático de la instrucción (8ª ed.). Estados Unidos: Pearson.

    Earnshaw, Y., Tawfik, A. A., & Schmidt, M. (2017). Diseño de experiencia de usuario. En Fundamentos de Aprendizaje y Tecnología de Diseño Instruccional.

    Fav203. (2012). ADDIE_Model_of_Design.jpg. En. Wikipedia.com: está licenciado bajo CC BY-SA 3.0 vía Wikimedia Commons. Recuperado a partir de https://edtechbooks.org/-kyA

    Patrimonio, M. (2007). Evaluación formativa: ¿Qué necesitan saber y hacer los profesores? Phi Delta Kappan, 89 (2), 140—145.

    Kirkpatrick, J. D., & Kirkpatrick, W. K. (2016). Los cuatro niveles de evaluación de la formación de Kirkpatrick: Asociación para el Desarrollo del Talento.

    Krug, S. (2014). No me hagas pensar, revisitado (Vol. 3): Nuevos jinetes.

    Morrison, G. R., Ross, S. J., Morrison, J. R., & Kalman, H. K. (2019). Diseñando instrucción efectiva: Wiley.

    Moseley, J. L., & Solomon, D. L. (1997). Evaluación Confirmativa: Un Nuevo Paradigma para la Mejora Continua. Mejora del Desempeño, 36 (5), 12-16.

    Patton, M. Q. (2011). Evaluación del desarrollo: Aplicando conceptos de complejidad para potenciar la innovación y el uso: Guilford Press.

    Patton, M. Q. (2016). El estado del arte y la práctica de la evaluación del desarrollo. Ejemplos de evaluación del desarrollo, 1-24.

    Popham, W. (2008). Evaluación transformadora: Asociación para la Supervisión y el Desarrollo Curricular. 1703 North Beauregard Street, Alexandria, VA 22311-1714. En: Tel.

    Popham, W. J. (1993). Evaluación Educativa: Allyn y Bacon. Recuperado a partir de https://books.google.com/books?id=_UolAQAAIAAJ

    Ross, S. M., & Morrison, G. R. (2010). El Papel de la Evaluación en el Diseño Instruccional. En Manual de Mejora del Desempeño en el Lugar de Trabajo: Diseño Instruccional e Impartición de Capacitación.

    Scriven, M. (1991a). Más allá de la evaluación formativa y sumativa. Evaluación y educación: Al cuarto de siglo, 10 (Parte II), 19-64.

    Scriven, M. (1991). Tesauro de evaluación (4ª ed. ed.). Newbury Park, CA: Publicaciones Sage.

    Scriven, M. (1991b). Prosa y contras sobre la evaluación sin metas. Práctica de Evaluación, 12 (1), 55-62.

    Estaca, R. E. (1967). El semblante de la evaluación educativa: Citeseer.

    Stufflebeam, D. L. (1971). La relevancia del modelo de evaluación CIPP para la rendición de cuentas educativas. Recuperado a partir de http://search.proquest.com/docview/6...ccountid=10920

    Tessmer, M. (2013). Planeación y realización de evaluaciones formativas: Routledge.

    Madera, B. B. (2001). Modelo de semblante de estaca: evaluación de un curso de desarrollo profesional de educación ambiental. La Revista de Educación Ambiental, 32 (2), 18-27.

    Youker, B. W. (2013). Evaluación sin metas: Un modelo potencial para la evaluación de programas de trabajo social. Investigación en Trabajo Social, 37 (4), 432-438.


    This page titled 4.3: Evaluación del Diseño Instruccional is shared under a CC BY-NC license and was authored, remixed, and/or curated by Jason K. McDonald & Richard E. West (EdTech Books) .