Saltar al contenido principal
LibreTexts Español

9.4: Aseguramiento de la Calidad por Diseño

  • Page ID
    136107
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Involucrar a todos los interesados en el proceso de diseño

    Heurística pedagógica: Al diseñar sistemas de e-learning, primero debemos determinar el objetivo, la intención y las especificaciones mediante la recopilación de la información relevante. Como resultado, los alumnos serán libres de justificar por qué utilizan las aplicaciones y sus razones deberán coincidir con las intenciones de la organización. A nivel operativo, podemos utilizar varios marcos de evaluación, conocidos como heurística pedagógica. La heurística proporciona un mapa con el que trabajar, sin evaluaciones extensas de los usuarios. Norman (1998), Shneiderman (2002, 2005, 2006) y Nielsen (citado en su sitio web, sin fecha) intentaron ayudar a diseñadores y evaluadores a diseñar sistemas para los usuarios proporcionando pautas generales. Norman propuso “siete principios para transformar tareas difíciles en simples”:

    1. Utilizar tanto el conocimiento en el mundo como el conocimiento en la cabeza.
    2. Simplificar la estructura de las tareas.
    3. Hacer las cosas visibles: cerrar los golfos de ejecución y evaluación.
    4. Obtenga las asignaciones correctas.
    5. Explotar el poder de las restricciones, tanto naturales como artificiales.
    6. Diseño por error.
    7. Cuando todo lo demás falla, estandariza.

    Un segundo conjunto de heurísticas proviene de las Ocho Reglas de Oro de Shneiderman:

    1. Esforzarse por la consistencia.
    2. Permite a los usuarios frecuentes utilizar accesos directos.
    3. Ofrecer comentarios informativos.
    4. Diseñar diálogos para dar cierre.
    5. Ofrezca un manejo sencillo de errores.
    6. Permitir una fácil reversión de acciones.
    7. Apoya el locus interno de control.
    8. Reduce la carga de memoria a corto plazo.

    Ambos conjuntos de reglas pueden ser utilizados como herramientas de evaluación y como heurística de usabilidad.

    Nielsen (n.d.) propuso otras heurísticas de usabilidad para el diseño de la interfaz de usuario. Los suyos son más utilizados:

    • visibilidad del estado del sistema
    • partido entre el sistema y el mundo real
    • control de usuarios y libertad
    • consistencia y estándares
    • prevención de errores
    • reconocimiento en lugar de recordar
    • flexibilidad y eficiencia de uso
    • diseño estético y minimalista
    • ayudar a los usuarios a reconocer, diagnosticar y recuperarse de errores
    • ayuda y documentación.

    Sus heurísticas se refieren principalmente a interfaces de provisión de información y no apoyan explícitamente el aprendizaje en comunidades que utilizan plataformas de software social. Se necesitan nuevas heurísticas para apoyar la naturaleza social de los sistemas después de la migración de los entornos sociotécnicos en Internet. Por ejemplo, mientras que Suleiman (1998) sugirió una verificación del control de usuarios, la comunicación del usuario y los límites tecnológicos para la comunicación mediada por computadora, Preece (2000) propuso la usabilidad para las comunidades en línea que apoya la navegación, el acceso, el diseño de la información y el apoyo al diálogo.

    Usabilidad pedagógica (PU): Cuando el e-learning comenzó a ser ampliamente utilizado a mediados de la década de 1990, se necesitaban nuevas heurísticas con una orientación social y pedagógica. Con una perspectiva social en mente, Squires y Preece (1999) proporcionaron el primer conjunto de heurísticas para aprender con software. De manera similar, Hale y French (1999) recomendaron un conjunto de principios de diseño de e-learning para reducir conflictos, frustración y repetición de conceptos. Se referían a la técnica de e-learning, refuerzo positivo, participación estudiantil, organización del conocimiento, aprendizaje con comprensión, retroalimentación cognitiva, diferencias individuales y motivación. A la fecha, el diseño de aprendizaje se concentra en la provisión de información y la gestión de actividades dirigidas al individuo en lugar de comunidades de e-learning. Por lo tanto, existe una ausencia de terreno común entre las teorías de aprendizaje colaborativo y el diseño instruccional. Lambropoulos (2006) propone por lo tanto siete principios para diseñar, desarrollar, evaluar y mantener comunidades de e-learning. Estos son: intención, información, interactividad, evaluación en tiempo real, visibilidad, control y soporte. De esta manera, enfatiza la necesidad de unir el e-learning y la interacción humano-computadora (HCI).

    Desde el punto de vista del HCI, se necesitan nuevas heurísticas y hay espacio para la investigación. Silius y sus colegas (2003) propusieron que la usabilidad pedagógica (PU) debería cuestionar si las herramientas, contenidos, interfaces y tareas proporcionadas dentro de los entornos de e-learning apoyaban a los e-learning. Construyeron herramientas de evaluación mediante cuestionarios. Involucraron a todas las partes interesadas en el proceso y proporcionaron formas fáciles de evaluar el aprendizaje electrónico. Muir y colegas (2003) también trabajaron en la pirámide PU para el e-learning, concentrándose en la efectividad educativa y la eficiencia práctica de un sitio web relacionado con cursos. Destacaron que era necesaria la participación de todos los interesados en el diseño y evaluación para la toma de decisiones.

    Uno de los grandes retos del siglo XXI es el aseguramiento de la calidad. ¿Qué factores de calidad se pueden medir para un aprendizaje electrónico efectivo, eficiente y agradable? Se sugiere que este tipo de evaluación sea parte de la usabilidad pedagógica. Se han realizado estudios que investigan temas de calidad del e-learning: manejo y diseño (Pond, 2002); calidad que mejora el diseño (Johnson et al., 2000); y medición y evaluación de la calidad, la última recomendada por McGorry (2003) en siete constructos para medir y evaluar programas de e-learning. Estos son:

    • flexibilidad
    • capacidad de respuesta
    • apoyo estudiantil
    • aprendizaje de los estudiantes
    • participación de los estudiantes en el aprendizaje
    • facilidad de uso de la tecnología y soporte tecnológico
    • satisfacción de los estudiantes.

    La evaluación de McGorry está centrada en el alumno, tanto el sistema como los tutores electrónicos necesitan apoyar a los estudiantes con el objetivo final de satisfacción del alumno. La ausencia de investigación empírica en el campo del e-learner cotidiano indica que los métodos y herramientas para las mediciones interdisciplinarias aún no se han considerado para el individuo. Debido a que la evaluación de e-learning existente en general se basa en eventos pasados, quedan problemas inherentes relacionados con la comprensión del e-learning con el uso de la evaluación para retroalimentación y toma de decisiones. Estos problemas se pueden abordar con la integración de fases de diseño instruccional bajo evaluación en tiempo real.

    Integración de Fases Instruccionales: Ingeniería de e-Learning

    La evolución del cambio sociocultural en la educación generó un giro en el diseño de sistemas de instrucción y sistemas de gestión del aprendizaje. Fenrich (2005) identificó pautas prácticas para un proceso de diseño instruccional dirigido a soluciones multimedia. Brindó un enfoque global involucrando a todos los actores involucrados en el proceso de diseño al cubrir todas sus necesidades. También empleó un enfoque basado en proyectos dividiendo la fase de análisis en subetapas, que fueron: la descripción de la idea inicial, el análisis y la planeación. Mediante la iteración sistemática de actividades y la evaluación de las primeras etapas del diseño, Fenrich aseguró la calidad.

    Pero por muy bien diseñados que sean los entornos de e-learning, no pueden facilitar el aprendizaje independiente sin interacción con los demás (Oliver, 2005). Los sistemas actuales de gestión del aprendizaje no facilitan las interacciones sociales y colaborativas; solo proporcionan el espacio para ello. El e-learning colaborativo puede ser mejor apoyado si hay más información sobre estas interacciones. Estos problemas de diseño están relacionados con la naturaleza colaborativa de la tarea, los métodos utilizados para informar la práctica, las competencias de diseño y el propio proceso de diseño. Bannon (1994) sugirió que, al diseñar trabajos cooperativos apoyados por computadora, es necesario integrar el diseño y uso del sistema así como la evaluación. Es cierto que el análisis, diseño, evaluación y uso de sistemas en e-learning se sustentan en la interacción de la pedagogía y la tecnología. Si este proceso de diseño instructivo se sustenta en una evaluación en tiempo real, todas las fases de diseño pueden ser informadas de manera completa y precisa. Entonces, todavía hay espacio para la retroalimentación de las fases de diseño instruccional. Si esto se hace y el diseño instruccional acepta la integración de todas las fases apoyadas por la evaluación en tiempo real entonces esto se llama ingeniería instruccional:


    9.4.1.png
    Figura\(\PageIndex{1}\): El ciclo de ingeniería instruccional

    La ingeniería instruccional (IE) es el proceso de planeación, análisis, diseño y entrega de sistemas de e-learning. Paquette (2002, 2003) adoptó los pilares interdisciplinarios de la interacción humano-computadora Esto considera los beneficios de diferentes actores (actores) al integrar los conceptos y procesos de diseño instruccional, así como principios, de la ingeniería de software y la ingeniería cognitiva. Al observar las proposiciones de Fenrich y Paquette, sugerimos que podría haber dos formas de garantizar los beneficios de todas las partes interesadas. Hay identificación de varianzas clave y evaluación dinámica.

    Identificación de varianzas clave: Todas las organizaciones necesitan funcionar bien sin problemas. Los eslabones más débiles deben ser identificados, eliminados o al menos controlados. Trabajando en el diseño sociotécnico, Mumford (1983) consideró que el diseño necesita identificar problemas que son endémicos a los objetivos y tareas de las organizaciones. Las variaciones intencionales se derivan de los propósitos y metas organizacionales. Las variaciones operativas son anteriores al diseño, y son las áreas a las que la organización tiene que apuntar. Se derivan de las insuficiencias operativas del viejo sistema, y los problemas técnicos y procesales se le han incorporado inadvertidamente. “Las varianzas clave se refieren a la misma varianza tanto en los niveles intencionales como operativos”.

    El diseño y la ingeniería están conectados a enfoques tanto intencionales (pedagógicos) como operativos (ingeniería). A veces hay problemas, llamados varianzas en el diseño sociotécnico. Desde una perspectiva educativa, Schwier y sus colegas (2006) enfatizaron la necesidad de enfoques intencionales (principios o valores) y operativos (implicaciones prácticas), y proporcionaron un marco analítico de las brechas y discrepancias que los diseñadores instruccionales necesitan enfrentar. La identificación de una varianza clave ayuda a la organización a proporcionar resultados de valor agregado. Esto se logra mediante el uso de la evaluación dinámica.

    Evaluación dinámica: Según Lambropoulos (2006), la evaluación del e-learning tiene como objetivo controlar y proporcionar retroalimentación para la toma de decisiones y mejora. Tiene cuatro características: mediciones en tiempo real, evaluación formativa y sumativa e investigación interdisciplinaria. La evaluación dinámica vincula e informa el diseño. También proporciona una evaluación inmediata a los diseñadores de interfaces de usuario. Además, identifica señales para el benchmarking, lo que hace factibles las comparaciones entre indicadores de calidad pasados y presentes (Oliver, 2005). Dichas evaluaciones dinámicas permitirán la evolución de los métodos de diseño y desarrollos conceptuales. El uso de varias metodologías combinadas son necesarias en entornos en línea. Andrews y colegas (2003), De Souza y Preece (2004), y Laghos y Zaphiris (2005) son defensores de la investigación multinivel en entornos en línea y e-learning. Widrick, citado por Parker, afirmó que:

    “[ello]... se ha entendido desde hace tiempo en las organizaciones que cuando se quiere mejorar algo, primero hay que medirlo” (2002 p. 130). Parker (2003 p. 388), no ve que la ingeniería para entornos de aprendizaje unificados sea factible: “La ingeniería (o reingeniería) de sistemas diseñados para garantizar que los procesos de fabricación cumplan con las especificaciones técnicas podría parecer implicar una uniformidad que puede no ser posible, o incluso deseable, en el entorno dinámico y heterogéneo de la educación superior”.

    Según Parker, un diseño de sistemas unificados no es posible, ni siquiera deseable. La naturaleza interdisciplinaria del e-learning, la gran cantidad de actores involucrados y la singularidad del contexto hacen que la ingeniería de e-learning sea extremadamente difícil. Nichol y Watson (2003, p. 2) han hecho una observación similar: “Rara vez en la historia de la educación se ha gastado tanto por tantos durante tanto tiempo, con tan poco que mostrar por la sangre, el sudor y las lágrimas gastadas”. Se sostiene que la ingeniería de e-learning, incluida la evaluación dinámica, bien puede minimizar el costo. Los diseñadores de interfaces de usuario deben reconocer la necesidad de limitar este proceso a un período de días o incluso horas, y aún así obtener los datos relevantes necesarios para influir en un rediseño (Shneiderman & Plaisant, 2005).

    En la actualidad, el proceso de diseño sigue siendo vulnerable al efecto Hawthorn (Faulkner, 2000). La investigación de laboratorio ignora las distracciones del comportamiento del e-learner en el mundo real. Por otro lado, la evaluación dinámica permite la evolución de los métodos de diseño y desarrollos conceptuales (Silius & Tervakari, 2003; Rogers, 2004). La etnografía captura los eventos tal como ocurren en la vida real, y luego los usa para el diseño. Puede ser una metodología basada en el tiempo que busca una descripción de un proceso para comprender la situación y su contexto, y proporcionar descripciones de individuos y sus tareas (Anderson, 1996). Este tipo de investigación podría decirse que forma parte de la evaluación dinámica en ingeniería de e-learning:


    9.4.2.png
    Figura\(\PageIndex{2}\): Evaluación formativa y sumativa en comunidades de e-learning

    La línea de A a B en la Figura 9.3 representa la vida útil de una comunidad de e-learning. Una comunidad de aprendizaje electrónico a corto o largo plazo puede tener un comienzo (A) que es la línea base, y un final (B). Por lo general, la comparación de los datos recogidos en A y B proporciona la evaluación sumativa. El éxito o fracaso de la comunidad de e-learning es evidente donde se cumplen los objetivos iniciales de la organización. La mayoría de las veces hay diferencias entre lo que los diferentes actores quieren o parecen necesitar. (Véase la tesis doctoral de Cohen, Apéndice I, 2000.) La evaluación formativa puede arrojar luz sobre las etapas individuales del e-learning y en la comprensión de las varianzas clave a medida que ocurren. Esto proporciona retroalimentación y control para todas las partes interesadas.

    A la fecha, la mayor parte de la evaluación y la investigación están diseñadas para apoyar la evaluación sumativa. Las herramientas y métodos de evaluación existentes no están diseñados para ayudar a la evaluación dinámica. Si se pueden diseñar nuevas herramientas para la ingeniería de e-learning, entonces, el aseguramiento de la calidad, la evaluación y la mejora controlarán los problemas que surjan y mejorarán las mejores prácticas. Los esfuerzos actuales para cumplir con estos objetivos de calidad están conectados con la disolución de las jerarquías educativas tradicionales y otros sistemas (Pond, 2002).


    This page titled 9.4: Aseguramiento de la Calidad por Diseño is shared under a CC BY-SA license and was authored, remixed, and/or curated by Sandy Hirtz (BC Campus) .