viernes, 1 de junio de 2007

¿Cómo dar nuestros primeros pasos en los protocolos de evaluación de software educativo?

Un tipo de entornos basados en el aprendizaje por computadora que ha llamado recientemente la atención de la comunidad investigadora es la de "Ambientes Educativos Abiertos basados en la Solución de Problemas". Estos son sistemas típicos interactivos para solución de problemas por parte de los usuarios con énfasis en el carácter constructivo, subjetivo y activo del aprendizaje (von Glasersfeld, 1987). En estos entornos la actividad del estudiante no se reduce a una secuencia de tareas pre-definidas combinadas con un sistema de evaluación de las respuestas correctas como sucede en muchos ambientes de aprendizaje tradicionales. En lugar de esto, se proporcionan una serie de herramientas a través de las cuales el usuario puede construir soluciones para un conjunto de tareas o problemas.

Estos ambientes proporcionan un contexto que permite a los aprendientes explorar de manera activa ciertos conceptos abstractos, y se les ha caracterizado como microworlds (micromundos) (Papera, 1980, Balacheff & Kaput, 1996). Los "Ambientes Educativos Abiertos basados en la Solución de Problemas" dan una retroalimentación intrínseca de manera inmediata a las acciones del usuario en una forma simple, directa y visual (Laborde & Strasser, 1990), lo que brinda oportunidades para la exploración de diferentes, nuevas y representaciones vinculadas la mismo concepto (Kaput, 1987).

Aquí quisiera aportar que, en mi opinión muy particular, resultado de mi experiencia en la enseñanza, cualquier software educativo es un buen candidato para integrarse al modelo de "Ambientes Educativos Abiertos basados en la Solución de Problemas", tan solo basta plantear de manera paralela un buen diseño de plan de uso y la integración –ajustado a las necesidades didáctico-pedagógicas- de un protocolo de evaluación del software propuesto.

El diseño de estos ambientes no es una tarea fácil, mientras por un lado existe una gran aceptación sobre la importancia de estos ambientes de aprendizaje basados en la solución de problemas, por el otro crece la preocupación en lo relacionado a la falta de metodologías y herramientas integrales que validen y evalúen la usabilidad del software y el impacto en el proceso de adquisición de conocimientos (Kordaki and Avouris, 2001).

El diseño de un protocolo de evaluación puede involucrar el estudio de posibles estrategias alternativas que emplea el usuario al realizar tareas típicas, asi como estudiar formas alternas en las cuales el usuario pudiera inteactuar con el software. Sin embargo, este comportamiento del usuario no puede ser anticipado completamente, los estudiantes o aprendientes pueden acercarse al problema por diferentes caminos y cometer errores en el proceso. Desde una perspectiva constructivista, son exactamente estos errores los que pueden ser tratado como oportunidades para aprender.

Sobre la evaluación de la usabilidad del software educativo.

Actualmente existen varias propuestas metodológicas que se han inspirado en el campo de investigación de la interacción humana con la computadora, éstas pueden clasificarse en tres categorías principales:

a) Prueba: aquí utilizamos el protocolo de "piensa en voz alta", co-descubrimiento y medida del desempeño.
b) Inspección: evaluación heruristica, basada en los principios de usabilidad, aproximación cognitiva, listas guía (checklists), todo esto como base para una evaluación comparativa.
c) Consulta: entrevistas con los usuarios finales o cuestionarios.

Para un análisis a profundidad sobre el uso de estos métodos, consultar a Avouris et al, (2001) and Tselios et al. (2001b).

Squires y Preece (1999) estan en favor de una convergencia de métodos, en lo particular ellos proponen una extensión a la evaluación heurística tomando en cuenta la perspectiva de aprendizaje socioconstructivista.

Por su lado, Mayes and Fowler (1999) argumentan que el diseño de software educativo debe enfocarse al diseño de tareas efectivas en lugar de interfases, porque el aprendizaje no puede suceder como un ejercicio mecánizado. Ellos resaltan la importancia de evaluar la pertinencia y relevancia de la tarea por el propósito educativo.

Sedig et al. (2001) también sugiere el software educativo cumplirá con su verdadera función cuando el conocimiento esté implícitamente "integrado" en la tarea.

Para finalizar, quisiera proponer varios sitios (Gracias Yoatzin :-D) que nos permitirán discriminar y apoyar nuestro proceso de evaluación de software educativo, en lo particular he ocupado algunos de ellos; y los he utilizado -no he querido manejar uno solo- de acuerdo a las características y naturaleza de los materiales en el Centro de Autoacceso.

http://seamonkey.ed.asu.edu/emc300/software/evalform.html

Fuentes consultadas

Gándara V, M. 2000 Algunas observaciones sobre evaluación de software educativo. ENAH/INAH.

Gándara V, M. 2006. Protocolo de evaluación rápida de usabilidad en páginas de portada para sitios WWW. ENAH

ILCE. CECTE. MCyTE. Módulo de Sistemas. Presentaciones de la sesión 16. [en línea], Disponible en: http://cecte.ilce.edu.mx/campus/file.php/22/sesion16/Presentaciones/sistemas_sesion_16.ppt

Mayes J. T.,Fowler C. J.,(1999) Learning Technology and Usability: A Framework for Understanding Courseware Usability and Educational Software Design.Interacting with Computers 1999 v.11 n.5 p.485-497

Tselios, N. Maragoudakis, M. Avouris, N. Fakotakis, N. Kordaki, M. (2001a) Automatic diagnosis of student problem solving strategies using Bayesian Networks, 5th Panhellenic Conf. on Didactics of Mathematics and Informatics in Education, Thessaloniki, 12-14 October 2001.

Tselios N., Avouris N., Dimitracopoulou A, (2001b), Evaluation of Distance-learning Environments: Impact of Usability on Student Performance, Int. Journal of Educational Telecommunications, forthcoming.

No hay comentarios: