daniel fernando franco beltrÁn - …repository.udistrital.edu.co/bitstream/11349/5106/1... ·...

190
PROTOTIPO WEB RESPONSIVO PARA LA APLICACIÓN DE ACTIVIDADES DE EVALUACIÓN EN LOS PROCESOS DE ENSEÑANZA – APRENDIZAJE DE LA EDUCACIÓN BÁSICA Y MEDIA DANIEL FERNANDO FRANCO BELTRÁN UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE INGENIERÍA PROYECTO CURRICULAR DE INGENIERÍA DE SISTEMAS BOGOTÁ D.C. 2016

Upload: nguyenminh

Post on 19-Oct-2018

220 views

Category:

Documents


0 download

TRANSCRIPT

PROTOTIPO WEB RESPONSIVO PARA LA APLICACIÓN DE ACTIVIDADES DE

EVALUACIÓN EN LOS PROCESOS DE ENSEÑANZA – APRENDIZAJE DE LA

EDUCACIÓN BÁSICA Y MEDIA

DANIEL FERNANDO FRANCO BELTRÁN

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

FACULTAD DE INGENIERÍA

PROYECTO CURRICULAR DE INGENIERÍA DE SISTEMAS

BOGOTÁ D.C.

2016

PROTOTIPO WEB RESPONSIVO PARA LA APLICACIÓN DE ACTIVIDADES DE

EVALUACIÓN EN LOS PROCESOS DE ENSEÑANZA – APRENDIZAJE DE LA

EDUCACIÓN BÁSICAY MEDIA

DANIEL FERNANDO FRANCO BELTRÁN

Monografía para optar al título de

Ingeniero de Sistemas

Director

Ing. Julio Barón Velandia

Profesor Facultad de Ingeniería

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

FACULTAD DE INGENIERÍA

PROYECTO CURRICULAR DE INGENIERÍA DE SISTEMAS

BOGOTÁ D.C.

2016

Nota de aceptación

____________________________

____________________________

____________________________

____________________________

____________________________

____________________________

Firma de Jurado

Bogotá D.C., Noviembre 16 de 2016

DEDICATORIA

A mi familia

Agradezco infinitamente a mi familia, especialmente a mi mamá y hermano, por su apoyo

constante y aliento en los momentos difíciles, permitiéndome alcanzar los objetivos que

me he propuesto hasta el día de hoy.

AGRADECIMIENTOS

Al ingeniero Julio Barón Velandia, director de este trabajo de grado, por las gestiones

realizadas, sus aportes y guía oportuna, que permitieron la realización de este trabajo.

Al ingeniero Jhon Herrera Cubides, revisor de este trabajo de grado, quien con sus

observaciones y correcciones encaminó este proyecto en la dirección adecuada.

Al Colegio San Francisco de Asís IED, en cabeza del Doctor Dumer Antonio Pedraza, por

permitir el acceso a la institución educativa, la disposición de espacios físicos, académicos

y recursos tecnológicos disponibles para llevar a cabo la prueba del producto obtenido.

A la profesora Ana Cecilia Beltrán, asesora pedagógica de este proyecto, quien aportó sus

conocimientos y criterios para definir y moldear los elementos que componen este

producto, así como sus gestiones para aplicarlo en un contexto pedagógico real.

Al profesor Juan Carlos Muñoz, profesor participante en la prueba del producto, quien

brindó los espacios académicos y recursos tecnológicos necesarios para llevar a cabo estas

pruebas, así como sus aportes que contribuyeron al refinamiento del producto.

A los estudiantes de los cursos 604 y 704 del Colegio San Francisco de Asís, jornada tarde,

por su disposición para participar en las pruebas propuestas, así como sus sinceras

opiniones respecto al producto generado.

A mis familiares, amigos, colegas y allegados, quienes brindaron sus conceptos, puntos de

vistas, recomendaciones y consejos para la realización de este trabajo, así como la

generación y refinamiento del producto obtenido.

6

TABLA DE CONTENIDO

1. INTRODUCCIÓN ................................................................................................................. 16

2. PLANTEAMIENTO DEL PROBLEMA .............................................................................. 17

3. OBJETIVOS .......................................................................................................................... 18

3.1 OBJETIVO GENERAL ................................................................................................. 18

3.2 OBJETIVOS ESPECÍFICOS ......................................................................................... 18

4. JUSTIFICACIÓN .................................................................................................................. 19

5. MARCO REFERENCIAL .................................................................................................... 20

5.1 EL PROCESO DE ENSEÑANZA – APRENDIZAJE .................................................. 20

5.1.1 La formación ........................................................................................................... 20

5.1.2 Actores de la formación .......................................................................................... 21

5.1.3 Elementos para la formación .................................................................................. 22

5.1.4 Fases de la formación.............................................................................................. 22

5.2 LA EVALUACIÓN EN EL PROCESO DE ENSEÑANZA – APRENDIZAJE .......... 23

5.2.1 Taxonomía de Bloom .............................................................................................. 24

5.2.2 Pirámide de Miller .................................................................................................. 25

5.2.3 Tipos de evaluación ................................................................................................ 26

5.2.4 Técnicas e instrumentos de evaluación ................................................................... 28

5.3 LAS TIC EN EL PROCESO DE ENSEÑANZA – APRENDIZAJE ............................ 30

5.3.1 Modelo MITICA ..................................................................................................... 30

5.3.2 Modelo SAMR ........................................................................................................ 31

5.3.3 Entornos virtuales de aprendizaje ........................................................................... 33

5.4 PROCESOS DE EVALUACIÓN CON TIC ................................................................. 33

5.4.1 Evaluar con los EVA .............................................................................................. 33

5.4.2 Otras opciones para evaluar con las TIC ................................................................ 34

5.5 FORMATOS PARA CREACIÓN DE SOFTWARE .................................................... 36

5.5.1 Web responsiva ....................................................................................................... 38

6. METODOLOGÍA .................................................................................................................. 39

7

6.1 ASIGNACIÓN DE ROLES SCRUM ............................................................................ 39

6.2 DINÁMICA DE TRABAJO SCRUM ........................................................................... 39

6.2.1 Desarrollo del prototipo .......................................................................................... 40

6.2.2 Prueba del prototipo ................................................................................................ 40

7. EL INSTRUMENTO DE EVALUACIÓN ........................................................................... 41

7.1 ESTRUCTURA .............................................................................................................. 41

7.1.1 Preguntas ................................................................................................................. 41

7.1.2 Logros ..................................................................................................................... 43

7.2 CALIFICACIÓN ............................................................................................................ 43

7.2.1 Calificación para las preguntas ............................................................................... 43

7.2.2 Descuento o penalización para las preguntas .......................................................... 44

7.2.3 Calificación para la evaluación ............................................................................... 45

7.3 RETROALIMENTACIÓN ............................................................................................ 45

7.3.1 Informes grupales.................................................................................................... 46

7.3.2 Informes individuales.............................................................................................. 47

7.4 MECÁNICAS CON EVENTOS DE ARRASTRAR Y SOLTAR ................................ 48

7.4.1 Descripción de eventos ........................................................................................... 48

7.4.2 Creación de evaluaciones ........................................................................................ 51

7.4.3 Presentación de evaluaciones .................................................................................. 52

8. DESARROLLO DEL PROTOTIPO ..................................................................................... 54

8.1 ELECCIÓN DE TECNOLOGÍAS ................................................................................. 54

8.1.1 Persistencia de datos ............................................................................................... 54

8.1.2 Frontend .................................................................................................................. 55

8.1.3 Backend................................................................................................................... 57

8.2 MODELO DE DATOS .................................................................................................. 58

8.2.1 Usuario .................................................................................................................... 59

8.2.2 Galería ..................................................................................................................... 59

8.2.3 Pregunta .................................................................................................................. 60

8.2.4 Evaluación............................................................................................................... 64

8

8.2.5 Resultado................................................................................................................. 65

8.3 REQUERIMIENTOS DEL SISTEMA .......................................................................... 66

8.3.1 Requerimientos funcionales .................................................................................... 66

8.3.2 Requerimientos no funcionales ............................................................................... 67

8.4 DISEÑO DE BACKEND............................................................................................... 67

8.4.1 Diagrama de despliegue .......................................................................................... 68

8.4.2 División de responsabilidades en la arquitectura cliente – servidor ....................... 69

8.4.3 Diagramas de secuencia para operaciones más representativas ............................. 70

8.5 DISEÑO DE FRONTEND............................................................................................. 76

8.5.1 Usabilidad ............................................................................................................... 76

8.5.2 Patrones y recomendaciones para diseños responsivos .......................................... 77

8.5.3 Mockups .................................................................................................................. 78

8.6 PRODUCTO GENERADO ........................................................................................... 87

8.6.1 Página principal del aplicativo ................................................................................ 87

8.6.2 Perfiles de usuario ................................................................................................... 88

8.6.3 Módulo de gestión de multimedia........................................................................... 89

8.6.4 Módulo de gestión de preguntas ............................................................................. 91

8.6.5 Módulo de gestión de evaluaciones ........................................................................ 95

8.6.6 Módulo de presentación de evaluaciones ............................................................... 97

8.6.7 Módulo de resultados e informes .......................................................................... 100

9. PRUEBA EN INSTITUCIÓN EDUCATIVA .................................................................... 103

9.1 TRÁMITES ANTE LA INSTITUCIÓN...................................................................... 103

9.2 CRONOGRAMA DE ACTIVIDADES ....................................................................... 104

9.3 SESIONES DE CONTEXTUALIZACIÓN................................................................. 104

9.3.1 Entorno de trabajo ................................................................................................. 105

9.3.2 Contextualización con docentes ............................................................................ 106

9.3.3 Contextualización con estudiantes ........................................................................ 106

9.4 SESIONES DE PRUEBA ESPECÍFICA ..................................................................... 110

9.4.1 Entorno de trabajo ................................................................................................. 110

9.4.2 Prueba específica con curso 604 ........................................................................... 113

9

9.4.3 Primera sesión para prueba específica con curso 704 ........................................... 120

9.4.4 Segunda sesión para prueba específica con curso 704 .......................................... 124

10. CONCLUSIONES ............................................................................................................... 129

11. TRABAJOS FUTUROS ...................................................................................................... 131

12. BIBLIOGRAFÍA ................................................................................................................. 132

13. ANEXOS ............................................................................................................................. 138

10

LISTA DE TABLAS

Tabla 1. Enseñanza y Aprendizaje según corrientes educativas. .................................................. 20

Tabla 2. Fases de la formación. .................................................................................................... 23

Tabla 3. Niveles de la taxonomía revisada de Bloom. .................................................................. 25

Tabla 4. Tipos de evaluación según el ámbito temporal. .............................................................. 27

Tabla 5. Clasificación de las técnicas de evaluación. ................................................................... 28

Tabla 6. Técnicas y herramientas de evaluación. ......................................................................... 29

Tabla 7. Preguntas más comunes para pruebas escritas. ............................................................... 29

Tabla 8. Ejes del modelo MITICA. .............................................................................................. 31

Tabla 9. Categorías del modelo SAMR. ....................................................................................... 32

Tabla 10. Principales tipos de preguntas para evaluación en los EVA. ........................................ 34

Tabla 11. Ventajas y desventajas de aplicaciones nativas y web. ................................................ 37

Tabla 12. Roles SCRUM para el proyecto.................................................................................... 39

Tabla 13. Objetivos propuestos para cada sprint. ......................................................................... 40

Tabla 14. Actividades realizadas en cada Sprint .......................................................................... 40

Tabla 15. Propósitos de los tipos de pregunta incorporados. ........................................................ 41

Tabla 16. Elementos compartidos por los tipos de preguntas. ...................................................... 42

Tabla 17. Elementos específicos para los tipos de preguntas. ...................................................... 42

Tabla 18. Elementos que definen un logro. .................................................................................. 43

Tabla 19. Parámetros para determinar la nota de una pregunta. ................................................... 44

Tabla 20. Parámetros para determinar la nota de cada uno de los tipos de preguntas. ................. 44

Tabla 21. Parámetros para determinar el descuento en una pregunta. .......................................... 45

Tabla 22. Parámetros para determinar el descuento de cada uno de los tipos de preguntas. ........ 45

Tabla 23. Información para retroalimentación de resultados por pregunta. ................................. 47

Tabla 24. Manipulación de componentes de la evaluación con eventos de arrastrar y soltar. ..... 51

Tabla 25. Creación y modificación de preguntas con eventos de arrastrar y soltar. ..................... 52

Tabla 26. Resolución de preguntas con eventos de arrastrar y soltar. .......................................... 53

Tabla 27. Entidades definidas para el modelo de datos. ............................................................... 58

Tabla 28. Entidad Usuario del modelo de datos. .......................................................................... 59

Tabla 29. Entidad Galería del modelo de datos. ........................................................................... 59

11

Tabla 30. Entidad Pregunta del modelo de datos. ......................................................................... 60

Tabla 31. Entidad Evaluación del modelo de datos. ..................................................................... 64

Tabla 32. Entidad Resultado del modelo de datos. ....................................................................... 65

Tabla 33. Estructura de la respuesta del estudiante. ..................................................................... 65

Tabla 34. Requerimientos funcionales del sistema. ...................................................................... 66

Tabla 35. Requerimientos no funcionales. .................................................................................... 67

Tabla 36. Requerimientos mínimos de software para el funcionamiento del aplicativo. ............. 68

Tabla 37. Distribución de módulos y responsabilidades. ............................................................. 69

Tabla 38. Componentes del estándar ISO/IEC 9126 para el análisis de la usabilidad. ................ 77

Tabla 39. Patrones de diseño para la web responsiva. .................................................................. 77

Tabla 40. Recomendaciones y buenas prácticas en sitios web del mercado. ............................... 78

Tabla 41. Trámites y documentos realizados a la institución educativa. .................................... 104

Tabla 42. Características técnicas de servidor y clientes en entorno local. ................................ 105

Tabla 43. Inquietudes de los docentes respecto al aplicativo. .................................................... 106

Tabla 44. Resultados de encuesta # 1 para estudiantes. .............................................................. 108

Tabla 42. Características técnicas de servidor y clientes en el entorno de la nube. .................... 112

Tabla 45. Resultados de encuesta # 2 para estudiantes. .............................................................. 115

Tabla 46. Impresiones de los estudiantes de 604 sobre la experiencia. ...................................... 116

Tabla 47. Resultados encuesta aplicada a docente Ana Cecilia Beltrán. .................................... 117

Tabla 48. Resultados encuesta aplicada a docente Juan Carlos Muñoz. .................................... 125

LISTA DE FIGURAS

Figura 1. Taxonomía de Bloom y su actualización....................................................................... 24

Figura 2. Pirámide de Miller ......................................................................................................... 26

Figura 3. Modelo MITICA. .......................................................................................................... 31

Figura 4. Modelo SAMR. ............................................................................................................. 32

Figura 5. Primer movimiento para aplicación de eventos de arrastrar y soltar. ............................ 49

Figura 6. Segundo movimiento para aplicación de eventos de arrastrar y soltar. ........................ 50

Figura 7. Modelo de datos no relacional propuesto para el aplicativo. ........................................ 58

Figura 8. Estructura de los elementos multimedia. ....................................................................... 60

Figura 9. Estructura de los elementos que conforman las preguntas. ........................................... 61

Figura 10. Estructura de las preguntas de base común. ................................................................ 61

Figura 11. Estructura de las preguntas de correlación. ................................................................. 62

Figura 12. Estructura de las preguntas de opción múltiple. .......................................................... 62

Figura 13. Estructura de las preguntas de ordenamiento. ............................................................. 63

Figura 14. Estructura de las preguntas de verdadero o falso. ....................................................... 63

Figura 15. Estructura para asignación de puntajes y logros.......................................................... 64

Figura 16. Diagrama de despliegue para el aplicativo propuesto. ................................................ 68

Figura 17. Diagrama de secuencia para creación de elementos multimedia. ............................... 71

Figura 18. Diagrama de secuencia para creación de preguntas. ................................................... 72

Figura 19. Diagrama de secuencia para creación de evaluaciones. .............................................. 73

Figura 20. Diagrama de secuencia para presentación de evaluaciones. ....................................... 74

Figura 21. Diagrama de secuencia para consulta de resultados como docente. ........................... 75

Figura 22. Diagrama de secuencia para consulta de resultados como estudiante. ........................ 76

Figura 23. Estructura base del aplicativo para computadores y laptops. ...................................... 78

Figura 24. Estructura base del aplicativo para dispositivos móviles ............................................ 79

Figura 25. Distribución de columnas para computadores y laptops. ............................................ 80

Figura 26. Distribución de columnas para dispositivos móviles .................................................. 80

Figura 27. Uso de acordeón en computadores y laptops. ............................................................. 81

Figura 28. Uso de acordeón en dispositivos móviles. ................................................................... 82

Figura 29. Uso de ventanas emergentes en computadores y laptops. ........................................... 83

13

Figura 30. Uso de ventanas emergentes en dispositivos móviles. ................................................ 83

Figura 31. Cambio de texto en los botones por íconos en computadores y laptops. .................... 84

Figura 32. Cambio de texto en los botones por íconos en dispositivos móviles. ......................... 84

Figura 33. Uso de íconos para acompañar elementos de una página en computadores y laptops. 85

Figura 34. Uso de íconos para acompañar elementos de una página en dispositivos móviles. .... 85

Figura 35. Incorporación de íconos para indicar resultados en computadores y laptops. ............ 86

Figura 36. Incorporación de íconos para indicar resultados en dispositivos móviles. .................. 86

Figura 37. Página principal del aplicativo .................................................................................... 87

Figura 38. Página de inicio para usuarios de tipo docente. ........................................................... 88

Figura 39. Página de inicio para usuarios de tipo docente. ........................................................... 89

Figura 40. Ejemplo de galería de usuario con elementos. ............................................................ 90

Figura 41. Ejemplo de formulario para creación de textos. .......................................................... 90

Figura 42. Ejemplo de gestor de carga de archivos. ..................................................................... 91

Figura 43. Ejemplo de formulario para creación de preguntas de base común. ........................... 92

Figura 44. Ejemplo de formulario para creación de preguntas de correlación ............................. 93

Figura 45. Ventana emergente para manejo de categorías en preguntas de correlación. ............. 93

Figura 46. Ejemplo de formulario para creación de preguntas de opción múltiple. ..................... 94

Figura 47. Ejemplo de formulario para creación de preguntas de ordenamiento. ........................ 94

Figura 48. Ejemplo de formulario para creación de preguntas de verdadero o falso. .................. 95

Figura 49. Ejemplo de formulario para creación de evaluaciones. ............................................... 96

Figura 50. Ejemplo de pregunta de base común vista por un estudiante. ..................................... 97

Figura 51. Ejemplo de pregunta de correlación vista por un estudiante. ...................................... 98

Figura 52. Ventana emergente para indicar respuesta en preguntas de correlación. .................... 98

Figura 53. Ejemplo de pregunta de opción múltiple vista por un estudiante. ............................... 99

Figura 54. Ejemplo de pregunta de ordenamiento vista por un estudiante. .................................. 99

Figura 55. Ejemplo de pregunta de verdadero o falso vista por un estudiante. .......................... 100

Figura 56. Ejemplo de informe individual de resultados. ........................................................... 101

Figura 57. Ejemplo de informe grupal de resultados. ................................................................. 102

Figura 58. Entorno de red para la sesión de contextualización. .................................................. 105

Figura 59. Entorno de trabajo para la prueba específica. ............................................................ 111

Figura 60. Información consola OpenShift. ................................................................................ 112

14

Figura 61. Información consola mLab. ....................................................................................... 112

Figura 62. Participantes en primera sesión de prueba específica. ............................................... 113

Figura 63. Lectura colectiva de texto en la prueba específica con curso 604. ............................ 114

Figura 64. Vista panorámica de la prueba específica con curso 604. ......................................... 114

Figura 65. Error obtenido durante en la sesión de prueba específica con curso 704. ................. 120

Figura 66. Reporte de estado del servicio de OpenShift. ............................................................ 123

Figura 67. Reporte de estado del servicio de mLab. ................................................................... 123

Figura 68. Error detectado en la segunda sesión de prueba específica con curso 704. .............. 128

LISTA DE ANEXOS

Anexo 1. Historias de usuario para el proyecto. ......................................................................... 138

Anexo 2. Descripción de requerimientos funcionales ................................................................ 140

Anexo 3. Descripción de requerimientos no funcionales ........................................................... 152

Anexo 4. Plan de pruebas realizadas al prototipo. ...................................................................... 154

Anexo 5. Carta de solicitud institucional emitida por el CERI. .................................................. 156

Anexo 6. Carta de solicitud a título personal. ............................................................................. 157

Anexo 7. Autorización de padres de familia. .............................................................................. 159

Anexo 8. Informe final presentado a la institución educativa. ................................................... 160

Anexo 9. Evaluación para tutorial guiado. .................................................................................. 162

Anexo 10. Evaluación para familiarización del aplicativo. ........................................................ 164

Anexo 11. Encuesta # 1 para estudiantes. ................................................................................... 170

Anexo 12. Encuesta # 2 para estudiantes. ................................................................................... 171

Anexo 13. Encuesta # 1 para docentes........................................................................................ 172

Anexo 14. Evaluación de Español para prueba específica con curso 604. ................................. 174

Anexo 15. Resultados de evaluación de Español aplicada al curso 604. .................................... 179

Anexo 16. Evaluación de Tecnología para prueba específica con curso 704. ............................ 182

Anexo 17. Resultados de evaluación de Tecnología aplicada al curso 704. ............................... 189

16

1. INTRODUCCIÓN

La incorporación de las TIC a los procesos de enseñanza – aprendizaje cambió la forma de

realizar sus actividades, incluso ha transformado la concepción de los procesos en sí. El rol de las

TIC en procesos de enseñanza – aprendizaje depende del modelo educativo: puede ser una

herramienta de apoyo o el medio en el que transcurre la totalidad de los procesos. La evolución

constante de las TIC permite considerar las nuevas características como oportunidades para

innovar, fortalecer y mejorar las actividades que se desarrollan dentro de los procesos de enseñanza

– aprendizaje.

La evaluación es indispensable para determinar el grado en que los estudiantes logran los

objetivos definidos en los procesos de enseñanza – aprendizaje. Existen herramientas para evaluar

haciendo uso de las TIC y buscan facilitar la creación y aplicación de evaluaciones, así como la

automatización de la calificación. Sin embargo, el uso de estas herramientas es poco frecuente o

nulo, principalmente por causas asociadas al uso e incompatibilidades entre herramientas y

dispositivos. El docente, al desconocer cómo usar las herramientas y cómo afrontar los problemas

técnicos, resuelve no utilizarlas.

Este proyecto propone la construcción de un prototipo web responsivo a medida, para la

aplicación de actividades de evaluación. Al ser web, su acceso puede realizarse desde cualquier

lugar con conexión a Internet. Con características responsivas, cualquier dispositivo que cuente

con navegador web permite usar el aplicativo. Con mecánicas basadas en eventos de arrastrar y

soltar, se busca hacer intuitiva la creación y aplicación de evaluaciones, eliminando la necesidad

de conocer el aplicativo para poder usarlo. Dichas mecánicas ofrecen experiencias innovadoras

para docentes y estudiantes.

Adicionalmente, se plantea la automatización completa de la calificación y

retroalimentación de resultados, permitiendo al docente enfocar esfuerzos en otras actividades,

como la preparación de las sesiones de clase. Con la generación de informes, el docente accede a

información significativa que le ayuda a analizar el desempeño individual y grupal, identificar

áreas de fortaleza o que requieren refuerzo, así como determinar el grado en que se logran los

objetivos propuestos para una temática específica o para un curso en general.

17

2. PLANTEAMIENTO DEL PROBLEMA

Dentro de los instrumentos para efectuar actividades de evaluación, la prueba escrita es uno

de los más conocidos y empleados. Con preguntas abiertas y cerradas, el docente puede

puntalmente, interrogar y determinar la validez de la respuesta. Las pruebas escritas delimitan las

respuestas a un fragmento de texto o un conjunto de opciones predefinidas, reduciendo en gran

medida, el tiempo que el docente debe invertir para revisar las respuestas proporcionadas por los

estudiantes (SEP, 2012). Por lo anterior, las herramientas TIC para aplicar evaluaciones se basan

en la prueba escrita.

Los procesos de evaluación con TIC facilitan la labor docente al automatizar los procesos

como la calificación, permitiéndole enfocarse en otras actividades. No obstante, el docente

requiere tener conocimientos técnicos y dominar las herramientas. Las cuestiones técnicas como

incompatibilidades entre dispositivos y aplicativos requieren solución y son responsabilidad de él,

en muchas ocasiones. Asimismo, los aplicativos no son intuitivos y requieren ser estudiados a

fondo para usarlos. El docente, al no contar con conocimientos técnicos y no tener la facilidad de

capacitarse, descarta el uso de las TIC para evaluar y realiza la evaluación de forma convencional.

Para el estudiante, las mecánicas usadas en las pruebas escritas pueden resultar confusas e

inducir al error. La variedad de formas para indicar la respuesta y la presión de ser evaluado,

pueden llevarlo a elegir la opción incorrecta, marcar más de las opciones solicitadas o diligenciar

mal la hoja de respuestas, invalidando la pregunta para su calificación. Al evaluar con las TIC se

reducen estos errores, ya que se incorporan mecanismos de validación que prohíben elegir más de

una opción o dejar una respuesta en blanco. No obstante, la interacción entre aplicativo y estudiante

no es muy amigable, pudiendo generar en él sensación de monotonía y cansancio.

¿Cómo facilitar la aplicación de actividades de evaluación dentro de los procesos de

enseñanza – aprendizaje con el uso de las TIC, reduciendo el conocimiento técnico e informático

requerido por parte del docente y permitiéndole al estudiante la interacción con formas diferentes

de evaluación, sin dependencias específicas de infraestructura tecnológica y aplicaciones de

software?

18

3. OBJETIVOS

3.1 OBJETIVO GENERAL

Desarrollar un prototipo web responsivo para la aplicación de actividades de evaluación en

los procesos de enseñanza – aprendizaje de la educación básica y media, que facilite la labor

docente en la elaboración, aplicación, calificación y retroalimentación de dichas actividades,

constituyendo una experiencia diferente dentro y fuera del aula.

3.2 OBJETIVOS ESPECÍFICOS

Establecer las mecánicas de elaboración y presentación de actividades de evaluación,

basadas en eventos de arrastrar y soltar, teniendo en cuenta las necesidades de usabilidad

de docentes y estudiantes.

Proponer un modelo de datos que permita la representación semántica de actividades de

evaluación y sus respectivos resultados, para facilitar su comprensión, implementación

y extensión.

Determinar el conjunto de tecnologías para backend y frontend, mediante una evaluación

de características de usabilidad y compatibilidad, para despliegue en entornos web sobre

dispositivos convencionales y móviles.

Implementar un mecanismo para la automatización total de la calificación de las

actividades de evaluación, así como la retroalimentación de resultados, mediante la

generación de informes para docentes y estudiantes.

Construir un prototipo web responsivo que permita realizar actividades de evaluación,

generando resultados y retroalimentaciones al instante, para docentes y estudiantes.

Realizar una prueba del prototipo, con un grupo de docentes y estudiantes, en el aula de

clase, para evaluar la pertinencia del aplicativo en procesos de evaluación, enfocándose

en la usabilidad de los mecanismos de interacción y la independencia tecnológica para

su acceso.

19

4. JUSTIFICACIÓN

Las TIC cumplen un rol importante en los procesos de enseñanza – aprendizaje, pues

apoyan a docentes y estudiantes en las actividades que realizan, dentro y fuera del aula. En la

educación básica y media, las TIC tienen mayor impacto, ya que los estudiantes son nativos

digitales, personas que han interactuado con estas tecnologías durante toda su vida. Aunque ellos

las dominan ampliamente, son individuos en formación y es una necesidad el guiarlos para que las

usen de forma apropiada. Por ello, el ámbito académico permite dar a conocer otras formas de usar

las TIC, así como adquirir y fortalecer competencias tecnológicas, ya sea directa o indirectamente.

Lleva a cabo procesos de evaluación usando las TIC, es una realidad. Sin embargo, el

docente opta por evaluar de forma tradicional, debido a dificultades al usar las herramientas y

problemas técnicos entre dispositivos y aplicativos. Por ello, construir un aplicativo web

responsivo para aplicar actividades de evaluación, contrarresta las problemáticas de

compatibilidad y reduce la necesidad de conocimiento técnico para su puesta en marcha. Para el

docente, representa una alternativa que apoya significativamente su labor cotidiana y lo desliga

del aspecto técnico, para enfocarse en el pedagógico.

Con mecánicas de elaboración y aplicación de evaluaciones, basadas en eventos de arrastrar

y soltar, se brindan formas naturales e intuitivas para el uso de la herramienta, respondiendo a las

necesidades de usabilidad. Para el estudiante, estas mecánicas crean un contexto amigable, afín

con su realidad tecnológica, que puede transformar su percepción de la evaluación, motivarle y

ayudarle a obtener excelentes resultados, sin dejar a un lado el propósito de evaluar. Al docente,

se le presenta un escenario innovador para crear actividades de evaluación, que facilita realmente

su labor al ahorrar tiempo y aliviar su carga laboral.

Por otra parte, al automatizar la calificación y retroalimentación de resultados, el docente

concentra sus esfuerzos en actividades que requieren de su total intervención. Puede notificársele

al estudiante de inmediato sus resultados y obtenerse fácilmente informes, para determinar áreas

que son fortalezas o que requieren ser trabajadas, ya sea de un estudiante o del grupo en general.

De la misma forma, puede determinarse el grado en el que se alcanzaron los objetivos propuestos

para una determinada temática o para la asignatura en general.

20

5. MARCO REFERENCIAL

5.1 EL PROCESO DE ENSEÑANZA – APRENDIZAJE

El proceso de enseñanza – aprendizaje puede concebirse como un conjunto de actividades,

en las que participan docente y estudiantes, cuya finalidad es la formación de estos últimos. Sin

embargo, esta descripción no engloba muchas de las características relevantes, que son necesarias

para comprenderlo. A continuación se describe la acción de formar, los actores y elementos que

participan en ella y las fases o etapas que la componen, haciendo énfasis en la evaluación.

5.1.1 La formación

Es el proceso donde los individuos generan cambios en conocimientos, técnicas y puntos

de vista, adquiridos previamente. Finalizar un proceso formativo implica haber efectuado un

proceso de aprendizaje, presentándose así dos perspectivas de la formación: la enseñanza y el

aprendizaje (Moreno, 2002). No obstante, algunas corrientes educativas difieren en elementos que

describen la enseñanza y el aprendizaje, relevantes para comprender el proceso formativo. A

continuación se exponen algunas de estas corrientes y sus propuestas en enseñanza, aprendizaje y

diseño instruccional (componente encargado de la creación de recursos).

Tabla 1. Enseñanza y Aprendizaje según corrientes educativas.

Paradigma Aprendizaje Enseñanza Foco Instruccional

Conductista Adquisición de

respuestas

Suministro de

retroalimentación Contenidos

Cognitivista Adquisición de

conocimiento

Transmisión de la

información

Contenidos y

enseñanza

Constructivista Construcción de

significado

Orientación del

procesamiento cognitivo Estudiante

Fuente: (Moreno, 2002).

Catalogar estas corrientes educativas como obsoletas o incorrectas, dadas las condiciones

actuales de educación, sería una equivocación. Cada una de ellas propone elementos que deben ser

considerados para llevar a buen término los procesos de enseñanza – aprendizaje. Sin embargo,

los procesos formativos, hoy en día se centran en el estudiante, permitiendo considerar a la

corriente constructivista como aquella que es tenida en cuenta principalmente (Moreno, 2002).

21

La formación por competencias es un enfoque donde los conocimientos y habilidades

impartidos responden a las necesidades de la sociedad. Su propósito es fortalecer los modelos

pedagógicos existentes en tres aspectos: aprendizaje, función docente y evaluación; así como la

integración del conocimiento, habilidades y valores, para el estudio y resolución de problemas.

Asimismo, aporta a la creación de programas de formación que buscan satisfacer los

requerimientos del entorno y el aseguramiento de la calidad en todas las actividades que componen

el proceso educativo (Tobón, 2006).

La corriente constructivista se relaciona ampliamente con la formación por competencias,

ya que la adquisición de conocimiento supone la construcción del mismo, así como el desarrollo

de nuevas competencias, que conducen al individuo a aplicar adecuadamente el conocimiento en

las situaciones que lo demandan. Sin embargo, el enfoque constructivista está más relacionado al

proceso de adquisición de conocimiento y el enfoque por competencias a su aplicación (Cuevas,

Rocha, Casco, & Martínez, 2011).

En Colombia, el Plan Decenal de Educación (PNDE) encamina la educación hacia la

formación por competencias. Mediante la construcción de currículos que fomenten la adquisición

de competencias, se busca que los estudiantes respondan a las necesidades en los campos personal,

profesional y social. Entre muchas competencias, se busca que las personas adquieran y fortalezcan

competencias ciudadanas, el dominio de una segunda lengua, así como el uso y apropiación de las

TIC (MEN, 2007).

5.1.2 Actores de la formación

El proceso de formación requiere dos partes: los individuos a ser formados (estudiantes) y

quien conducirá el proceso (docente). Estos dos roles son vitales para concebir el proceso de

enseñanza – aprendizaje en su esencia, pero no son los únicos que participan en él. Son ejemplo

de actores: las instituciones educativas, que con sus directivas y actuaciones influyen notablemente

los procesos; entidades públicas y privadas, así como la sociedad en general. Este apartado enfatiza

el rol docente y estudiante (Moreno, 2002).

El docente ha sido definido como transmisor de conocimiento, transferido a sus estudiantes

en actividades, apoyándose en recursos y siguiendo una metodología. Sin embargo, ahora es

mediador en los procesos de enseñanza – aprendizaje, quien con sus capacidades personales y

22

profesionales lo llevar a buen término (Moreno, 2002). Con las TIC, puede delegar actividades al

estudiante y darle protagonismo en su proceso de formación. El docente necesita ser experto con

las TIC y su supervisión e intermediación, son vitales para lograr los objetivos (Mejía, Cruz, &

Osmán, 2014). Además, está en constante capacitación para adquirir los conocimientos y

competencias adecuadas para realizar su labor (MEN, 2007).

Con una concepción del proceso de enseñanza – aprendizaje centrado en el estudiante, su

definición cambia radicalmente. El estudiante deja de ser un actor pasivo y se convierte en partícipe

activo de su proceso de formación, quien debe saber, poder y querer aprender (Moreno, 2002).

Además, debe ser una persona que respeta los derechos, deberes y la diversidad, que convive en

armonía con sus semejantes, posee capacidades para atender al conocimiento multidisciplinar y es

competente en diferentes ámbitos como el personal, laboral y social (MEN, 2007).

5.1.3 Elementos para la formación

Los recursos son todos los elementos usados por docentes y estudiantes como soporte en

las actividades desarrolladas dentro del proceso de enseñanza – aprendizaje, tales como el

desarrollo de contenidos y la evaluación de los objetivos (Carballo, 1978). Los recursos pueden

clasificarse según quien los use, pueden ser recursos para la enseñanza o para el aprendizaje.

Asimismo, pueden observarse como recursos físicos y no físicos, incluyendo estos últimos a las

personas, el tiempo, entre otros (Moreno, 2002).

La metodología define los lineamientos que describen la manera en que el docente

encamina el proceso de enseñanza – aprendizaje, haciendo uso de los recursos y técnicas dentro

de las actividades propuestas. Igualmente, define el entorno en el que ocurren las diferentes

actividades, que debe tener las condiciones adecuadas y los recursos necesarios para llevar a buen

término el proceso de enseñanza – aprendizaje (Moreno, 2002).

5.1.4 Fases de la formación

Un proceso de enseñanza – aprendizaje consta de cuatro fases o etapas, que ocurren de

forma sistemática, continua e integrada, estas son: planeamiento, conducción, evaluación y

relaciones interpersonales (Carballo, 1978). A continuación se describe cada una de ellas.

23

Tabla 2. Fases de la formación.

Fase Descripción

Planeamiento Momento de preparación, donde se definen elementos como

objetivos, contenidos, actividades, recursos, evaluación, entre otros.

Conducción Puesta en marcha de la planificación realizada, centrándose en la

realización de las actividades con los recursos asignados.

Evaluación Actividades cuyo objetivo es determinar en qué medida los

estudiantes alcanzan los objetivos propuestos.

Relaciones

interpersonales

Su propósito es resaltar la importancia de la interacción entre

docentes y estudiantes, que son permanentes y de gran impacto.

Fuente: Autor. Basada en (Carballo, 1978).

Aunque la evaluación constituye una serie de actividades y está contenida en la etapa de

conducción, por su gran importancia requiere ser abordada como una etapa independiente, a la que

se denomina evaluación. Algunos aspectos a considerar en la evaluación son: el tipo de medición

a realizar, los instrumentos a utilizar, la manera en que se construirá el contenido del instrumento

de evaluación, entre otros.

5.2 LA EVALUACIÓN EN EL PROCESO DE ENSEÑANZA – APRENDIZAJE

Tradicionalmente, la evaluación se asocia con medir el conocimiento del estudiante, al

culminar su formación. Esta visión la limita como un medio para el control del estudiante (Rosales,

2014). No obstante, el concepto de la evaluación ha cambiado a la par con los procesos de

enseñanza – aprendizaje, siendo ahora un mecanismo que permite obtener información para

soportar la emisión de juicios y toma de decisiones (Manríquez, 2012).

Evaluar es un proceso donde su adecuada definición y conducción, el qué evaluar y cómo,

son cuestiones clave. Determinar el progreso de los estudiantes puede llegar a ser una tarea

subjetiva e infructuosa. La taxonomía de Bloom (Bloom, Engelhart, Furst, Hill, & Krathwohl,

1956) y la pirámide de Miller (Miller, 1990), son modelos que permiten al docente identificar el

qué evaluar y la manera de hacerlo, es decir, definir y dimensionar la evaluación, de acuerdo con

los objetivos del proceso de enseñanza – aprendizaje. A continuación se exponen estos modelos,

así como los tipos, técnicas e instrumentos de evaluación existentes.

24

5.2.1 Taxonomía de Bloom

Es un modelo que describe lo que se espera que el estudiante haya logrado, ya sea al

finalizar una actividad o el proceso de enseñanza – aprendizaje. Es ideal para definir objetivos,

pautas y elementos a evaluar (López, 2008). Una jerarquía de 6 niveles define las capacidades y

habilidades del individuo para usar el conocimiento adquirido. Al escalar en el modelo, se está en

capacidad de realizar acciones más amplias y significativas, denominadas pensamiento de orden

superior, enmarcado en tres dominios: cognitivo, referente al conocimiento; afectivo, relativo al

individuo y psicomotor, que comprende habilidades y destrezas (Bloom et al., 1956).

Figura 1. Taxonomía de Bloom y su actualización.

Fuente: (López, 2008).

La taxonomía revisada de Bloom, como se conoce a la actualización realizada al modelo

en 2001, renombra los niveles de la jerarquía con verbos, expresando explícitamente las acciones

que pueden realizarse en cada uno. Igualmente, reforma estructuralmente la taxonomía,

intercambiando los dos niveles superiores, considerando así a la síntesis como la habilidad máxima

que un individuo manifiesta al generar nuevo conocimiento (Anderson et al., 2001). A

continuación se describen los niveles de la taxonomía actualizada.

25

Tabla 3. Niveles de la taxonomía revisada de Bloom.

Nivel Descripción

Recordar Retención de información y capacidad de traerla a memoria en diferentes

instantes de tiempo.

Comprender Comprensión y construcción de significados, partiendo de elementos e

información proporcionada.

Aplicar Aplicación de conocimientos, técnicas, herramientas, entre otras, para la

resolución de problemas.

Analizar Habilidades para el estudio de elementos y situaciones, con la descomposición

de sus partes.

Evaluar Capacidad de contrastar elementos y emitir juicios de valor para la toma de

decisiones soportadas en criterios lógicos y razonables.

Crear Generación de nuevo conocimiento, partiendo de conocimientos, técnicas,

herramientas, entre otras, previamente adquiridos.

Fuente: Autor. Basada en (López, 2008).

La taxonomía de Bloom ha sido un referente importante para los procesos de enseñanza –

aprendizaje desde su publicación. Apoyarse en esta herramienta permite visualizar claramente si

se lograron los objetivos propuestos, así como evidenciar cambios conductuales en los estudiantes

(Carballo, 1978). Usar la taxonomía garantiza que, al finalizar un proceso de enseñanza –

aprendizaje, los estudiantes “deben haber adquirido” nuevas habilidades y/o conocimientos

(López, 2008).

5.2.2 Pirámide de Miller

Este modelo clasifica los conocimientos y habilidades de los estudiantes, una vez finalizada

una actividad o el proceso de enseñanza – aprendizaje, en el área de la medicina. Tiene cuatro

niveles jerárquicos, que describen las destrezas y saberes del estudiante desde el qué y el cómo. Al

escalar en la pirámide, el estudiante pasa de la teoría a la práctica, pudiendo así traducir sus

conocimientos en hechos (Miller, 1990).

Este modelo puede ser extrapolado a otros campos del saber, ya que la necesidad de evaluar

al estudiante está presente en cualquier nivel educativo y área de conocimiento. Es un instrumento

ideal para la evaluación dentro de la formación por competencias, pues permite al docente usar

varios métodos para evaluar al estudiante, que es la manera adecuada de constatar el dominio de

una competencia. Sin embargo, al usarse añade dificultad a la evaluación de competencias y

requiere un cambio cultural en docentes y estudiantes, respecto a la evaluación (Manríquez, 2012).

26

Figura 2. Pirámide de Miller

Fuente: Autor. Basado en (Miller, 1990).

La pirámide de Miller contribuye a la evaluación integral, considerando varios puntos de

vista para una misma competencia. Instrumentos de evaluación tradicionales, como la evaluación

escrita, permite evaluar el conocimiento y su aplicación teórica, pues denotan el aspecto cognitivo

del estudiante. Sin embargo, para los dos niveles superiores se requieren instrumentos acordes al

objeto y contexto de la evaluación, donde el estudiante aplica el conocimiento en situaciones

propias del área de formación, que requieren formas específicas para su observación y medición

(Durante, 2006).

5.2.3 Tipos de evaluación

La Comisión de Educación Superior del Atlántico Medio (MSCHE) clasifica la evaluación

según la medición realizada, en métodos directos e indirectos. Los primeros, permiten determinar

el grado en que un estudiante domina un tema, posee aptitudes para una actividad, entre otros. Los

segundos, permiten obtener información del proceso de enseñanza – aprendizaje en sí, como la

recopilación de información que evidencie la realización de actividades o indicadores para evaluar

los objetivos institucionales (MSCHE, 2007).

27

El aspecto temporal es otro punto de vista para clasificar la evaluación. La evaluación

formativa y acumulativa son tipos de evaluación ampliamente estudiados e implementados

(Rosales, 2014), (MSCHE, 2007). Asimismo, en esta clasificación se encuentran las evaluaciones

diagnóstica, de necesidad y reacción (Shepherd & Godwin, 2004). A continuación se describe cada

una de ellas.

Tabla 4. Tipos de evaluación según el ámbito temporal.

Evaluación Características

Diagnóstica

Se aplica antes de una experiencia de aprendizaje. Su objetivo es identificar el

conocimiento previo que posee un individuo y poder conducir la experiencia

según su resultado.

Formativa

Su aplicación es continua dentro del proceso de enseñanza – aprendizaje con

el fin de estudiar el desempeño de un estudiante respecto a una experiencia

culminada, brindar la retroalimentación y aplicar los correctivos necesarios.

Necesidad

Su alcance es grupal y busca determinar las fortalezas, habilidades y actitudes

del conjunto de individuos respecto al desarrollo del curso, así como posibles

deficiencias.

Reacción

Su alcance es grupal y busca establecer, entre otras cosas, el nivel de

satisfacción con respecto a una experiencia de aprendizaje, de un curso o del

proceso de enseñanza – aprendizaje en sí.

Acumulativa

Su aplicación es llevada a cabo al culminar el proceso de enseñanza –

aprendizaje. Su finalidad es la de emitir un juicio o calificación definitiva

valorando los logros de cada individuo.

Fuente: Autor. Basado en (MSCHE, 2007), (Rosales, 2014) y (Shepherd & Godwin, 2004).

Las evaluaciones de necesidad y reacción pueden considerarse métodos indirectos de

evaluación, así como implementarse en cualquier instante del proceso de enseñanza – aprendizaje,

ya que su propósito es recopilar información del proceso en sí. Por otra parte, las evaluaciones

diagnóstica, formativa y acumulativa se relacionan con el desempeño y saberes del estudiante en

momentos específicos, definidos en la planeación del proceso de enseñanza – aprendizaje, por lo

que son considerados métodos directos de evaluación.

La evaluación, según su alcance, puede ser a nivel de curso, programa o institución. El

nivel de curso se refiere al conjunto de estudiantes de una asignatura. Por otra parte, el programa

comprende un nivel escolar, programa académico, especialidad, entre otros. Finalmente, el nivel

de institución constituye una visión completa de los procesos de enseñanza – aprendizaje,

considerando todo elemento que interactúe en el proceso y con la organización (MSCHE, 2007).

28

Cualquier método de evaluación a usar debe considerar el tipo de medición a realizar,

dando cabida a otra clasificación de la evaluación, ya sea cualitativa o cuantitativa, teniendo ambos

enfoques sus ventajas y desventajas. El enfoque cuantitativo se caracteriza por la expresión

numérica de la información, permitiendo el su tratamiento estadístico facilitando de análisis. Como

desventaja, los datos cuantitativos son muy cerrados y no permiten otras perspectivas de estudio

(Rosales, 2014).

Por otra parte, el enfoque cualitativo maneja información no numérica. Su obtención se

realiza mediante dos técnicas: categorización o expresión narrativa. Su mayor ventaja es el

potencial para representar información, permitiendo así un análisis profundo que puede derivar en

información adicional, de gran relevancia para docentes y estudiantes. Sin embargo, al trabajar el

enfoque cualitativo se requiere realizar un análisis más profundo y su tratamiento estadístico se

torna complicado (Rosales, 2014).

5.2.4 Técnicas e instrumentos de evaluación

Para la Secretaría de Educación Pública de México (SEP), las técnicas y herramientas para

realizar procesos evaluativos en la educación básica pueden clasificarse en cuatro categorías:

observación, desempeño, análisis del desempeño e interrogatorio, cuyo objetivo en esencia es la

medición de conocimientos, habilidades, actitudes y valores (mencionados posteriormente como

elementos medibles) del estudiante a lo largo del proceso de enseñanza – aprendizaje (SEP, 2012).

A continuación se describe cada una de ellas.

Tabla 5. Clasificación de las técnicas de evaluación.

Técnicas Descripción

Observación

Evidencian la posesión y aplicación de los elementos medibles. Se

dividen en sistemáticas, que obtiene información concreta; y no

sistemáticas, que obtienen información general.

Desempeño Evidencian en los estudiantes la posesión de los elementos

medibles, con la obtención de resultados y del procedimiento usado.

Análisis de desempeño Amplían el alcance de las técnicas del desempeño, obteniendo

información adicional del estudiante.

Interrogativas

Determinan la posesión de los elementos medibles realizando

cuestionamientos puntuales. Acota significativamente las variables

a estudiar y la información recopilada.

Fuente: Autor. Basado en (SEP, 2012).

29

La siguiente tabla relaciona las técnicas expuestas anteriormente junto con algunos

instrumentos, que son los más conocidos y usados en cada categoría. Además, relaciona el tipo de

saberes que cada instrumento puede evaluar, los cuales corresponden a los dominios cognitivo,

psicomotor y afectivo respectivamente, propuestos por la Taxonomía de Bloom.

Tabla 6. Técnicas y herramientas de evaluación.

Técnicas Instrumentos

Aprendizajes que pueden evaluarse

Conocimientos Habilidades Actitudes y

Valores

Observación

Guía de observación x x x

Registro anecdotario x x x

Diario de clase x x x

Diario de trabajo x x x

Escala de actitudes x

Desempeño

Preguntas del procedimiento x x

Cuaderno de los alumnos x x x

Organizadores gráficos x x

Análisis del

desempeño

Portafolio x x

Rúbrica x x x

Lista de cotejo x x x

Interrogativo

Tipo textual: Debate y ensayo x x x

Tipos oral y escrito: Pruebas

escritas x x

Fuente: (SEP, 2012).

Las pruebas escritas, son el instrumento más conocido y usado en la evaluación. Se

caracterizan por ser claras y precisas, así como por demandar del alumno una respuesta concreta o

puntual. Facilita la automatización del proceso de calificación ya que, al formular preguntas que

limitan su solución a elementos predefinidos, se garantiza unicidad en los resultados a procesar

posteriormente (SEP, 2012). A continuación se presentan los tipos de interrogantes o preguntas más

usados en pruebas escritas.

Tabla 7. Preguntas más comunes para pruebas escritas.

Tipo de pregunta Descripción

Opción múltiple Ofrece un conjunto de respuestas donde solo una es correcta. En algunos

casos varias opciones conforman la respuesta.

De base común

(Multireactivas)

Interrogantes realizados a partir de una misma información (texto o

recurso gráfico).

Ordenamiento Plantea una serie de elementos en desorden que deben ser puestos en

jerarquía o secuencia, de acuerdo con un criterio solicitado.

30

Tipo de pregunta Descripción

Verdaderas o Falsas Interrogante que requiere ser validado o refutado.

Correlación Propone dos conjuntos de elementos que se relacionan entre sí. El

objetivo es encontrar las relaciones.

Para completar ideas Presenta una idea incompleta que requiere ser acabada con información

que brinde coherencia y sentido.

Abiertas de

respuesta única Interrogante que requiere una respuesta concreta.

Fuente: Autor. Basado en (SEP, 2012).

5.3 LAS TIC EN EL PROCESO DE ENSEÑANZA – APRENDIZAJE

Las Tecnologías de la Información y Comunicación (TIC) son aquellas que permiten

almacenar, recuperar, procesar y comunicar información (Belloch, 2012). Desde la visión

constructivista, estas herramientas acompañan a docentes en su labor formativa, así como al

estudiante en la construcción del conocimiento (Sanchez, 2004). El aprendizaje significativo es

una teoría del constructivismo que observa la construcción de conocimiento como un proceso

resultante de relacionar los saberes previos y los nuevos (Ausubel, 1980).

Incorporar las TIC en procesos de enseñanza – aprendizaje es un reto para docentes y

estudiantes, roles transformados al adoptar estas tecnologías como elemento activo en la formación

(Mejía et al., 2014). Aunque el docente es responsable de usar las TIC, no es el único que lo hace

posible, pues actores como instituciones educativas y entidades externas tienen responsabilidades

en esto. A continuación se exponen los modelos MITICA (Piedrahita & López, 2003) y SAMR

(López, 2015), que describen la integración de las TIC en procesos educativos y los Entornos

Virtuales de Aprendizaje (EVA), herramienta ampliamente conocida y usada en procesos de

enseñanza – aprendizaje.

5.3.1 Modelo MITICA

Este modelo brinda una descripción desde la perspectiva institucional sobre la

incorporación de la TIC en los procesos de enseñanza – aprendizaje. Consta de 5 ejes que son de

gran relevancia para lograr la integración de estas tecnologías a los procesos educativos, así como

conseguir trasformaciones significativas en la enseñanza (Piedrahita & López, 2003). A

continuación se presenta el modelo, así como la descripción de cada uno de sus ejes.

31

Figura 3. Modelo MITICA.

Fuente: (Piedrahita & López, 2003).

Tabla 8. Ejes del modelo MITICA.

Eje Descripción

Dirección Institucional Se encarga de liderar el proceso de incorporación de TIC desde el

enfoque administrativo, pedagógico y técnico.

Infraestructura TIC Encargada de los elementos técnicos como lo son hardware, software y

soporte técnico.

Coordinación y

Docencia TIC

Su función es la dirección del área tecnológica de la institución y sus

miembros como lo son coordinadores y docentes.

Docentes otras Áreas Su propósito es la adquisición de competencias e implementación de

TIC por parte de los docentes en sus asignaturas.

Recursos Digitales Gestiona los recursos digitales a ser usados por parte de los docentes en

sus asignaturas ya sea software o recurso en la web.

Fuente: Autor. Basado en (Piedrahita & López, 2003).

5.3.2 Modelo SAMR

Este modelo permite estudiar el alcance de las TIC y su impacto dentro de los procesos de

enseñanza – aprendizaje. Propone cuatro categorías, divididas en dos niveles, que denotan el papel

de las TIC para realizar actividades (Puentedura, 2006). A continuación se presenta el modelo, así

como la descripción de cada una de sus categorías.

32

Figura 4. Modelo SAMR.

Fuente: (López, 2015).

Tabla 9. Categorías del modelo SAMR.

Nivel Categoría Descripción

Mejorar

Sustituir

La tecnología sustituye una herramienta que permite realizar

determinada actividad, sin efectuar cambio alguno tanto en la

actividad como en la metodología.

Aumentar

La tecnología sustituye herramientas tradicionales agregando

funcionalidades que cambian la didáctica de la actividad, pero no es

indispensable para su realización. Su uso no produce una

transformación a la metodología.

Transformar

Modificar

La tecnología se convierte en elemento activo, involucrada en gran

parte de un proceso de enseñanza – aprendizaje, ocasionando así

cambios considerables de la metodología y las actividades que

consideren su uso.

Redefinir

La tecnología es una herramienta indispensable para la realización

de todas las actividades de un proceso de enseñanza – aprendizaje.

Se genera una transformación completa de la metodología y

actividades propuestas.

Fuente: Autor. Basado en (López, 2015) y (Puentedura, 2006).

33

5.3.3 Entornos virtuales de aprendizaje

Es la forma más conocida y usada para incorporar las TIC en los procesos de enseñanza –

aprendizaje. Se definen como un espacio virtual que incorpora un conjunto de herramientas,

enmarcadas en cuatro pilares: publicación de material y actividades, comunicación e interacción

de sus miembros, trabajo colaborativo y organización de contenidos de la asignatura (Salinas,

2011). Estas características responden a las necesidades de las modalidades de educación

semipresencial o b-learning, educación virtual e-learning y se adapta a la educación presencial o

tradicional (Belloch, 2013).

Los EVA permiten llevar a cabo todas las actividades de los procesos de enseñanza –

aprendizaje, con herramientas como foros, wikis o blogs, cuya intención es el trabajo grupal e

interacción de sus integrantes. Además, pueden realizarse actividades de evaluación, que son de

naturaleza privada e individual, con el uso de herramientas diseñadas para este fin, que se enfocan

en la automatización del proceso de calificación y la generación de informes.

5.4 PROCESOS DE EVALUACIÓN CON TIC

A continuación se expone cómo pueden llevarse a cabo evaluaciones con los EVA, así

como algunas opciones existentes en el mercado, diseñadas específicamente para realizar procesos

de evaluación.

5.4.1 Evaluar con los EVA

La evaluación en los EVA se asemeja a la prueba escrita, donde puntualmente se indaga a

los estudiantes e igualmente se espera su respuesta, ya sea de forma abierta o con opciones

predefinidas. Este tipo de evaluación permite automatizar la calificación, pero no aplica para todos

los casos. Las preguntas abiertas requieren que el docente emita un concepto, un juicio o valor,

con respecto a los criterios de evaluación que ha definido previamente.

En la actualidad, herramientas como Moodle, Schoology, Blackboard, Sakai, Edmodo y

Dokeos, son usadas para los procesos de enseñanza – aprendizaje, pues permiten llevar a cabo la

totalidad de las actividades que puedan realizarse a lo largo del proceso, incluidas las actividades

de evaluación. A continuación se exponen los principales tipos de pregunta que los aplicativos

mencionados ofrecen al docente para construir evaluaciones.

34

Tabla 10. Principales tipos de preguntas para evaluación en los EVA.

Tipo de Pregunta Tipo de respuesta Moodle Schoology Blackboard Sakai Edmodo Dokeos

Cálculo Abierta / Cerrada x x x x

Arrastrar y soltar Cerrada x

Respuesta corta Abierta x x x x x x

Ensayo Abierta x x x x x x

Asociación Cerrada x x x x x x

Llenar espacios Abierta / Cerrada x x x x x x

Selección múltiple Cerrada x x x x x x

Falso o verdadero Cerrada x x x x x x

Ordenamiento Cerrada x x x

Encuesta Cerrada x x

Archivo adjunto Abierta x x x

Fuente: Autor. Basado en (Moodle, n.d.-b), (Schoology, n.d.), (Blackboard, n.d.), (Sakai, n.d.-b), (Garrido, n.d.) y

(Dockeos, 2014).

En estos aplicativos, la forma de crear y aplicar el contenido es similar, pues hacen uso de

interfaces web donde predominan las listas desplegables, botones de selección y campos de texto

(Moodle, n.d.-a) (Moodle, n.d.-b) (Schoology, n.d.) (Blackboard, n.d.) (Garrido, n.d.) (Sakai, n.d.-

a) (Sakai, n.d.-b). En la creación de las evaluaciones pudo observarse elementos que pueden hacer

difícil el proceso, confundiendo al usuario y generando una definición incorrecta de elementos,

como por ejemplo definir jerarquías mediante listas, no previsualizar imágenes incorporadas, el

uso de expresiones o comandos propios del aplicativo para indicar la existencia de un elemento,

entre otros.

El uso de multimedia en las evaluaciones es un factor diferenciador en estos aplicativos,

Moodle y Blackboard usan imágenes en algunos tipos de pregunta, contrario a Sakai, Schoology

y Edmodo, que usan únicamente texto. Sakai propone un tipo de pregunta para usar audio, donde

el estudiante ingresa su respuesta con el micrófono. Dokeos permite el uso de video, texto e imagen

en algunos de los tipos de preguntas que incorpora. No obstante, el uso de texto se impone sobre

otros tipos de datos y no se permite, en muchos casos, su uso simultaneo.

5.4.2 Otras opciones para evaluar con las TIC

Este apartado presenta tres opciones existentes en el mercado para realizar evaluaciones

usando las TIC. Todas ellas usan mecánicas de creación y solución de evaluaciones, similares a

35

los EVA mencionados, donde botones circulares, botones de chequeo, listas, entre otros, son la

constante. Asimismo, emplean algunos de los tipos de preguntas presentados en los EVA.

5.4.2.1 ProProfs

Es una solución web para realizar quices y encuestas en el ámbito educativo y profesional.

Es usada por instituciones educativas como Hardvard y Yale, así como grandes compañías como

Sony y Dell. Ofrece funcionalidades gratis y de pago, así como soporte para computadores de

escritorio, portátiles, tabletas y teléfonos inteligentes. (ProProfs, n.d.).

Para las evaluaciones usa más de seis tipos de preguntas, donde destacan las preguntas de

opción múltiple, verdadero o falso, emparejamiento, llenar espacios, ensayo, etc. Todas ellas

pueden hacer uso de elementos multimedia. Ofrece un banco de preguntas, con diversas temáticas.

La calificación es de forma automática, exceptuando aquellas de respuesta abierta. Existen varias

modalidades de calificación, que la hacen flexible, permitiendo validar respuestas parciales y

distribución de puntajes, así como penalizar con calificaciones negativas y recompensar con

bonificaciones (ProProfs, n.d.).

La versión gratuita no permite generar ningún tipo de estadística o informe. La versión

paga permite analizar el desempeño individual y grupal, observar las respuestas proporcionadas y

las esperadas, los tiempos de respuesta por pregunta, el tiempo general, porcentajes de acierto,

entre otros. Todo esto usando información numérica y su representación gráfica. Igualmente, se

permite exportar dicha información para disponibilidad fuera del aplicativo (ProProfs, n.d.).

5.4.2.2 QuestBase

Es una aplicación web gratuita para la creación y administración de evaluaciones, quices y

exámenes, de manera digital e impresa. Es concebida como una herramienta para el aprendizaje y

el entrenamiento, es decir para el uso académico y profesional. Puede ser usada en cualquier

dispositivo, que cuente con navegador web y conexión a internet (QuestBase, n.d.).

Los tipos de pregunta que incorpora esta herramienta son: opción múltiple, con única y

varias respuestas, verdadero o falso, llenar el espacio en blanco, y preguntas de ensayo. Las

preguntas de opción múltiple pueden hacer uso de audio, video e imagen, así como fórmulas

matemáticas. La calificación es automatizada para las preguntas cerradas y se requiere la

36

intervención del docente para las abiertas. Pueden personalizarse los mensajes de

retroalimentación, así como distribución de la puntuaciones (QuestBase, n.d.).

La generación de estadísticas y reportes es en tiempo real y permite visualizar, exportar o

imprimir informes. Brinda información tanto grupal como individual, facilita el análisis e

interpretación de datos con la presentación de gráficas, ya que puede manejarse información de

cientos o miles de usuarios. Este producto permite elegir la información que el estudiante observa

como retroalimentación, ya sea su calificación, sus respuestas y las respuestas esperadas y la

valoración de cada respuesta (QuestBase, n.d.).

5.4.2.3 Testmoz

Es un aplicativo web sencillo para la creación y aplicación de quices y exámenes. No

requiere del registro de docentes y estudiantes para su uso, es totalmente gratuito, aunque tiene un

límite de 100 estudiantes y 50 preguntas por evaluación. No obstante, se ofrecen mayores

funcionalidades al realizar un pago anual. Funciona en dispositivos que cuenten con un navegador

web (Johnson, n.d.).

Incorpora cuatro tipos de preguntas: verdadero o falso, opción múltiple con única y varias

respuestas y llenar el campo en blanco. Todas las preguntas permiten automatizar su calificación,

incluso la pregunta de llenar el campo en blanco. A través de protección con clave, se restringe el

acceso a la presentación de la evaluación. El uso de multimedia no es directo y se requieren

conocimientos de HTML (Johnson, n.d.).

Los informes y estadísticas son sencillos, el estudiante observa si la pregunta es correcta o

no, pero no la respuesta esperada. El docente, puede ver el desempeño de un estudiante,

contrastando lo contestado y esperado. La calificación de los estudiantes se observa en términos

unitarios y porcentuales, el desempeño por pregunta se presenta porcentualmente. Sin embargo,

no se ofrecen gráficos que apoyen el análisis de la información. Los datos pueden exportarse en

formato CVS, para ser procesados externamente (Johnson, n.d.).

5.5 FORMATOS PARA CREACIÓN DE SOFTWARE

Dos formas de proveer soluciones software son las aplicaciones nativas y aplicaciones web.

Las primeras, se construyen para una plataforma o sistema operativo específico, bajo ciertos

37

requerimientos de hardware. Las segundas, requieren únicamente un navegador web para

funcionar y los requerimientos de hardware se trasladan a los servidores que las alojan. Con los

dispositivos móviles, que poseen capacidades similares (pero limitadas) frente a dispositivos

convencionales, el desarrollo de software se torna más amplio y se requieren de desarrollos

específicos para esta familia de equipos, tanto nativos como web.

La tendencia actual en el desarrollo de software apunta a dos enfoques: aplicativos web y

para dispositivos móviles. Además, tecnologías como cloud computing han fomentado la

popularización de estos últimos y relegado a los aplicativos de escritorio a un segundo plano. A

diferencia de los dispositivos convencionales, donde algunas tecnologías de desarrollo son

multiplataforma, los dispositivos móviles requieren que sus aplicativos nativos sean construidos

sobre una tecnología específica. Esto implica que un desarrollo nativo para móviles requiere de

expertos en cada una de las plataformas en las que se quiera prestar el servicio.

Construir soluciones web ofrece ventajas frente al desarrollo para móviles o plataformas

nativas. Se realiza un único desarrollo, concentrando esfuerzos en un único proyecto, logrando así

un desarrollo de calidad que permita una experiencia positiva al usuario. Sin embargo, la gran

variedad de dispositivos, con diferentes tamaños, tipos de pantalla y resoluciones generan un reto

a este enfoque. En un principio, construir una misma solución web para computadores y

dispositivos móviles representaba dos proyectos separados, ya que las configuraciones de

hardware podían restringir parcial o totalmente el uso de la solución.

De acuerdo con (Lionbridge, 2012), ya sea aplicación web o aplicación nativa, cada

enfoque tiene sus ventajas y desventajas, hablando sobre dispositivos móviles. Sin embargo,

algunas de estas características pueden ser extendidas y hablar, en general, de aplicaciones web y

nativas para todo dispositivo. A continuación se exponen dichas ventajas y desventajas.

Tabla 11. Ventajas y desventajas de aplicaciones nativas y web.

Tipo de

Aplicación Ventajas Desventajas

Aplicaciones

web

Compatibilidad entre plataformas.

Problemas con la diversidad de

resoluciones de pantalla y tamaños de los

dispositivos.

Fácil acceso para gran cantidad de

usuarios.

El control sobre algunos elementos

software o hardware del dispositivo.

Mantenimiento sencillo y barato. Dependencia a una conexión de red.

38

Tipo de

Aplicación Ventajas Desventajas

Aplicaciones

nativas

Control sobre el software y

hardware del dispositivo.

Versiones diferentes para cada plataforma

existente.

No requiere una conexión a red

para funcionar.

El mantenimiento es costoso debido a la

cantidad de plataformas.

Mayor interacción con el usuario

en cuanto a actualizaciones,

recordatorios, etc.

Los proveedores de contenido deben

compartir información con el sitio de

distribución de la aplicación.

Fuente: Autor. Basado en (Lionbridge, 2012).

5.5.1 Web responsiva

La web responsiva es una tendencia reciente que permite realizar un único desarrollo y

proveer una solución a una gran cantidad de dispositivos móviles, reduciendo incompatibilidades

al mínimo. Este enfoque posee la capacidad de crear diseños web que se adapten al dispositivo

usado. Ya no se piensa en diseñar para muchos tipos de pantalla, sino que se diseña para que los

dispositivos, a través de algunas directrices, ajusten el contenido web para que su visualización y

uso sea el apropiado (Marcotte, 2011).

Para lograr que los dispositivos se adaptan al aplicativo desarrollado, la web responsiva

trabaja con tres pilares: una rejilla flexible, que es el sistema que describe la disposición de los

elementos en la página web; los medios flexibles, que hace referencia a las características

necesarias de los elementos multimedia para ser tratados y adaptados a los diferentes dispositivos;

y las media queries, que son directivas usadas para determinar el tipo de dispositivo que accede al

sitio web, para así configurar tanto el sistema de rejilla como los elementos multimedia (Marcotte,

2011).

39

6. METODOLOGÍA

Este proyecto implementará la metodología de desarrollo de software SCRUM, marco de

trabajo para proyectos complejos y cambiantes en el tiempo, que requieren resultados a corto plazo,

obtenidos mediante soluciones parciales y funcionales, que son completadas durante la ejecución

del proyecto (Schwaber & Sutherland, 2013). A continuación se realiza la asignación de los roles

SCRUM, así como la dinámica de trabajo que se seguirá durante el desarrollo.

6.1 ASIGNACIÓN DE ROLES SCRUM

SCRUM define los siguientes roles: Product Owner, SCRUM Master y SCRUM Team. La

siguiente es la distribución de estos roles SCRUM en este proyecto.

Tabla 12. Roles SCRUM para el proyecto.

Rol Personas

Product Owner Ana Cecilia Beltrán

SCRUM Master Daniel Franco Beltrán

SCRUM Team Daniel Franco Beltrán

Fuente: Autor.

Ana Cecilia Beltrán es docente de Lengua Castellana del Colegio San Francisco de Asís

IED, ubicado en la localidad Los Mártires, de Bogotá D.C., quien asesora los aspectos pedagógicos

durante el desarrollo, gestionará y llevará a cabo la prueba del prototipo en la institución, con un

grupo de alumnos.

6.2 DINÁMICA DE TRABAJO SCRUM

De acuerdo a la intención de este proyecto, se identifican dos momentos fundamentales a

ocupar: el desarrollo del prototipo y su respectiva prueba en un entorno educativo. Se estiman

cuatro meses y medio para la culminación del proyecto, así como cuatro sprints o iteraciones de

un mes de duración. Las dos semanas restantes, corresponden a la realización de la prueba del

prototipo. A continuación se describen las actividades realizadas tanto en el desarrollo como en la

prueba prototipo.

40

6.2.1 Desarrollo del prototipo

Cada uno de los sprints a realizar considera el mismo conjunto de actividades, no así su

objetivo. A continuación se describen los objetivos de cada sprint y las actividades realizadas.

Tabla 13. Objetivos propuestos para cada sprint.

Sprint Objetivo

1 Creación del material de evaluación.

2 Aplicación del material de evaluación.

3 Calificación automática de la evaluación y retroalimentación mediante informes.

4 Revisión y ajustes al producto obtenido.

Fuente: Autor.

Tabla 14. Actividades realizadas en cada Sprint

Actividad Objetivo

Definición de

requerimientos Obtención de requerimientos mediante historias de usuario.

Elección de

tecnologías

Selección de tecnologías que faciliten la satisfacción de los requerimientos,

enmarcadas en el desarrollo ágil.

Preparación del

Sprint Revisión del product backlog y generación del sprint backlog.

Análisis y

Diseño

Descripción de requerimientos en lenguaje UML, enfatizando la interacción

y flujo de información entre objetos.

Desarrollo Codificación de los diseños usando las tecnologías elegidas.

Pruebas Pruebas unitarias y de integración al desarrollo realizado.

Revisión del

Sprint Presentación y socialización del incremento con las partes interesadas.

Retrospectiva

del Sprint

Análisis y retroalimentación del trabajo realizado durante el sprint para las

partes interesadas.

Fuente: Autor.

6.2.2 Prueba del prototipo

Contempla la construcción y puesta en marcha de una prueba dentro del aula de clase, que

permita evaluar la experiencia de los usuarios con respecto al uso del producto obtenido. El docente

está encargado de crear el contenido de la evaluación a aplicar, así como la gestión ante la

institución para la disponibilidad de los recursos necesarios, como espacios y dispositivos. El

equipo de trabajo garantiza el acceso y funcionamiento adecuado del aplicativo desarrollado, así

como acompañamiento y asesoría antes, durante y después de la prueba.

41

7. EL INSTRUMENTO DE EVALUACIÓN

Para este proyecto, se considera una prueba escrita o evaluación como un conjunto de

preguntas cerradas, relacionadas a una temática específica, que tienen como propósito determinar

el desempeño de los individuos evaluados, respecto a uno o varios dominios. En los siguientes

apartados se expone la estructura de la evaluación, el sistema de calificación, la retroalimentación

de resultados y la incorporación de los eventos de arrastrar y soltar para su elaboración y

presentación.

7.1 ESTRUCTURA

La prueba escrita implementada se compone de un conjunto de preguntas, así como de un

conjunto de logros, que definen las componentes de los diferentes dominios a analizar. A

continuación se describe estos elementos.

7.1.1 Preguntas

Los tipos de preguntas incorporados en el instrumento de evaluación son: base común,

correlación, ordenamiento, opción múltiple y verdadero o falso. Cada una tiene un propósito

específico, explicados a continuación.

Tabla 15. Propósitos de los tipos de pregunta incorporados.

Actividad Propósito

Base común Agrupación de preguntas relacionadas a un recurso común.

Correlación Clasificación de un listado de elementos en una o varias categorías.

Ordenamiento Ordenamiento de un listado de elementos, de acuerdo a un criterio.

Opción múltiple Selección de uno o más elementos contenidos en un conjunto de opciones.

Verdadero o falso Catalogación de un listado de hechos en verdaderos y falsos.

Fuente: Autor.

Todos los tipos de preguntas maneja la siguiente información, denominada como elementos

o datos básicos: enunciado, puntaje, recurso y logros. El enunciado y recurso asociado son

elementos a los que el estudiante tiene acceso en la presentación de la evaluación. El puntaje y los

logros son elementos usados para realizar la valoración del estudiante, así como analizar su

desempeño en las dimensiones especificadas. A continuación se describe cada uno de estos

elementos.

42

Tabla 16. Elementos compartidos por los tipos de preguntas.

Dato Descripción

Enunciado Narración breve que describe el requerimiento o interrogante a solucionar.

Puntaje Valor máximo que puede obtenerse como calificación.

Recurso Elemento de referencia o apoyo al enunciado.

Logros Conjunto de componentes a analizar con la aplicación de la pregunta.

Fuente: Autor.

Las preguntas de base común, al ser contenedora de otros tipos de preguntas, no poseen

puntaje y logros asociados. Teóricamente, su puntaje es la sumatoria de los puntajes de sus

preguntas, así como sus logros son los logros de estas preguntas. El recurso o elemento de base

común es esencial, ya que define la intención de la pregunta.

Cada uno de los tipos de pregunta maneja un bloque de información específico, que define

su mecánica de trabajo. El estudiante interactúa directamente con estos elementos y al

manipularlos, les da significado y construye la respuesta solicitada. A continuación se explica el

bloque de información para cada tipo de pregunta.

Tabla 17. Elementos específicos para los tipos de preguntas.

Tipo de pregunta Datos Descripción

Opción múltiple

Opciones Conjunto de elementos candidatos a ser la respuesta

solicitada.

Respuestas Conjunto de elementos que conforman la respuesta

solicitada.

Ordenamiento Elementos

Conjunto de elementos que deben ser ordenados, de

acuerdo con un criterio determinado.

Respuesta Orden esperado de los elementos propuestos.

Verdadero o falso Hechos verdaderos

Conjunto de afirmaciones con respecto a una

temática.

Hechos falsos Conjunto de negaciones con respecto a una temática.

Correlación

Elementos

Conjunto de elementos que deben ser catalogados en

diferentes categorías, siguiendo un criterio

determinado.

Categorías Conjunto de categorías donde son clasificados los

elementos propuestos.

Fuente: Autor.

Las preguntas de base común no poseen una mecánica de trabajo, sino un conjunto de

preguntas asociadas, que son las que definen su bloque de información específico.

43

7.1.2 Logros

Llevar a cabo una actividad de evaluación tiene como propósito analizar el desempeño del

estudiante, en ciertos aspectos de una temática dada. Los logros son narraciones cortas que

describen conocimientos, habilidades y valores, que se espera un estudiante posea al culminar una

parte o la totalidad de los procesos de enseñanza – aprendizaje. Incorporar los logros en la prueba

escrita implementada, permite al docente definir los componentes de una temática que desea medir,

teniendo en cuenta propuestas como la Taxonomía de Bloom o la Pirámide de Miller.

Un logro se constituye de dos elementos: un nombre y una descripción. En la siguiente

tabla se explican estos elementos.

Tabla 18. Elementos que definen un logro.

Elemento Descripción

Nombre Palabra o frase corta que identifica al logro, usado para categorizar los

resultados cuantitativos obtenidos.

Descripción Narración corta que define el logro.

Fuente: Autor.

7.2 CALIFICACIÓN

El mecanismo elegido para la calificación de la prueba escrita se denomina Sistema de

coincidencias y se basa en el número de coincidencias entre la respuesta esperada y la respuesta

proporcionada por el estudiante. Los siguientes apartados describen los procedimientos para

calcular la nota o calificación del instrumento de evaluación.

7.2.1 Calificación para las preguntas

Para todos los tipos de preguntas implementados, exceptuando las preguntas de base

común, se aplica la siguiente expresión matemática, con el fin de obtener su calificación, nota,

puntaje o valoración.

𝑛𝑜𝑡𝑎 = 𝑐𝑜𝑖𝑛𝑐𝑖𝑑𝑒𝑛𝑐𝑖𝑎𝑠 ∗ 𝑛𝑜𝑡𝑎 𝑚á𝑥𝑖𝑚𝑎

𝑐𝑜𝑖𝑛𝑐𝑖𝑑𝑒𝑛𝑐𝑖𝑎𝑠 𝑒𝑠𝑝𝑒𝑟𝑎𝑑𝑎𝑠 (1)

A continuación se explican los términos que componen a (1).

44

Tabla 19. Parámetros para determinar la nota de una pregunta.

Término Descripción

Coincidencias Número de elementos correctos en la respuesta del estudiante.

Nota máxima Puntaje o valor máximo asignado a la pregunta.

Coincidencias esperadas Número total de elementos correctos definidos en la pregunta.

Fuente: Autor.

Para cada uno de los tipos de preguntas implementados, los términos o parámetros

coincidencias y coincidencias esperadas aplican así:

Tabla 20. Parámetros para determinar la nota de cada uno de los tipos de preguntas.

Pregunta Parámetro Descripción

Correlación

Coincidencias

Número de elementos clasificados

correctamente por el estudiante en las

diferentes categorías.

Coincidencias esperadas Número de elementos definidos en cada

una de las categorías.

Opción múltiple Coincidencias

Número de opciones correctas indicadas

por el estudiante como respuesta.

Coincidencias esperadas Número de elementos de la respuesta.

Ordenamiento Coincidencias

Número de elementos ordenados

correctamente por el estudiante.

Coincidencias esperadas Número de elementos ordenados.

Verdadero o falso Coincidencias

Número de hechos catalogados por el

estudiante correctamente como verdaderos

y falsos.

Coincidencias esperadas Número de hechos verdaderos y falsos.

Fuente: Autor.

7.2.2 Descuento o penalización para las preguntas

Este sistema es adecuado para automatizar la calificación del instrumento de evaluación,

por su similitud a la calificación tradicional de estos tipos de preguntas. No obstante, esta forma

de calificación no permite considerar cuando un estudiante indica elementos adicionales en las

preguntas de correlación y opción múltiple. Para resolver esto, se incorpora una penalización o

descuento, definida por la siguiente expresión.

𝑑𝑒𝑠𝑐𝑢𝑒𝑛𝑡𝑜 = 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑎𝑑𝑖𝑐𝑖𝑜𝑛𝑎𝑙𝑒𝑠 ∗ 𝑛𝑜𝑡𝑎 𝑚á𝑥𝑖𝑚𝑎

𝑐𝑜𝑖𝑛𝑐𝑖𝑑𝑒𝑛𝑐𝑖𝑎𝑠 𝑒𝑠𝑝𝑒𝑟𝑎𝑑𝑎𝑠 (2)

A continuación se describen los términos que componen a (2).

45

Tabla 21. Parámetros para determinar el descuento en una pregunta.

Término Descripción

Elementos

adicionales

Número de elementos adicionales a los esperados, en la respuesta del

estudiante.

Nota máxima Puntaje o valor máximo asignado a la pregunta.

Coincidencias

esperadas Número total de elementos correctos definidos en la pregunta.

Fuente: Autor.

Para las preguntas de correlación y opción múltiple, el término o parámetro elementos

adicionales se define así:

Tabla 22. Parámetros para determinar el descuento de cada uno de los tipos de preguntas.

Pregunta Parámetro Descripción

Correlación Elementos adicionales

Número de opciones adicionales a las

esperadas, que el estudiante indica en su

respuesta

Opción múltiple Elementos adicionales

Número de elementos adicionales a los

esperados, que el estudiante indica en cada

una de las categorías.

Fuente: Autor.

7.2.3 Calificación para la evaluación

Para calcular la nota de la evaluación se requiere aplicar las expresiones (1) y (2), según

corresponda, a cada una de las preguntas que conforman el instrumento de evaluación. Una

expresión general para realizar este cálculo es la siguiente.

∑ 𝑛𝑜𝑡𝑎𝑖 −

𝑛

𝑖=1

𝑑𝑒𝑠𝑐𝑢𝑒𝑛𝑡𝑜𝑖 (3)

7.3 RETROALIMENTACIÓN

Una parte esencial de los procesos de evaluación es el instante en que se dan a conocer los

resultados obtenidos y su justificación. Para esta etapa, se generan informes a nivel grupal e

individual, con respecto a la evaluación aplicada. Los informes a nivel grupal están a disposición

de docentes, mientras que los informes a nivel individual pueden consultarse por estudiantes y

docentes.

46

7.3.1 Informes grupales

Se dividen en cuatro secciones: resultados generales, resultados por logro, resultados por

pregunta y resultados por estudiante. A continuación se describe cada sección.

7.3.1.1 Resultados generales

Esta parte del informe brinda al docente una perspectiva general del instrumento de

evaluación, donde puede observar el número de estudiantes que han completado la evaluación, así

como la cantidad de estudiantes que aprobaron y reprobaron. Asimismo, esta información se

expresa en términos porcentuales y es representada en un gráfico de torta.

7.3.1.2 Resultados por logro

Esta sección permite al docente observar el desempeño promedio del curso, en cada uno de

los logros que definió para la evaluación. Con esta información, el docente puede determinar las

áreas o componentes que son el fuerte de sus estudiantes, así como las que requiere reforzar en sus

sesiones de clase. Esta información es expresada en términos porcentuales, así como representada

en un gráfico de radar.

7.3.1.3 Resultados por pregunta

Esta parte del informe permite visualizar el desempeño promedio del curso en cada una de

las preguntas que componen la evaluación. Esta información se presenta para que el docente pueda

analizar la pertinencia de la pregunta en la evaluación, así como determinar aspectos en los que

sus alumnos tienen fortaleza o requieren un refuerzo. En esta sección no se realiza una

representación gráfica de los resultados.

7.3.1.4 Resultados por estudiante

Esta parte del informe permite al docente visualizar el resultado de cada uno de los

estudiantes que tomaron la evaluación. Esta sección le permite consultar en detalle los resultados

de cada estudiante, generando un informe individual, que es explicado en a continuación. El

resultado mostrado está comprendido en la escala 0 a 50.

47

7.3.2 Informes individuales

Están conformados por tres secciones: resultado general, resultados por logro y resultados

por pregunta. En los siguientes apartados se define cada una de estas partes.

7.3.2.1 Resultado general

Esta sección del informe brinda a docentes y estudiantes una visión general del resultado

obtenido, donde se hace un contraste entre la nota máxima (50 puntos), la nota mínima para pasar,

que es el 60% de la nota máxima (30 puntos) y nota obtenida. Asimismo, esta información es

representada en un gráfico de barras.

7.3.2.2 Resultados por logro

En esta parte del informe se da a conocer a estudiantes y docentes el desempeño en cada

uno de los logros definidos para la evaluación. Esta visión permite dar a conocer las áreas que un

estudiante tiene como fortaleza e identificar elementos en los que se deben enfocar sus esfuerzos

para mejorar. Esta información es expresada en términos porcentuales y representada en un gráfico

de radar.

7.3.2.3 Resultados por pregunta

En esta sección se le presenta a estudiantes y docentes el resultado pregunta a pregunta de

la evaluación presentada, contrastando el puntaje asignado a cada pregunta y el puntaje obtenido.

Asimismo, se permite a los usuarios consultar en detalle cada pregunta, donde pueden visualizar

la siguiente información.

Tabla 23. Información para retroalimentación de resultados por pregunta.

Información Descripción

Información general Tipo de pregunta, puntaje máximo y puntaje obtenido.

Logros asociados Listado de logros asociados a la pregunta.

Enunciado Instrucción dada a los estudiantes para la pregunta.

Recurso asociado Recurso multimedia asociado.

Contraste de respuestas Comparación entre la respuesta esperada y la respuesta del estudiante.

Fuente: Autor.

48

La información anterior aplica parcialmente para las preguntas de base común. Por su

naturaleza, no se presenta la sección de información general y logros asociados, así como el

contraste de respuestas. El contraste de respuestas, para cada tipo de pregunta consiste en presentar

la respuesta esperada y la del estudiante simultáneamente, resaltando los aciertos en color verde y

los errores en color rojo, brindando a docentes y estudiantes analizar conjuntamente las causas por

las cuáles se llegaron a esos resultados y evidenciar las fortalezas y áreas a reforzar en el estudiante.

7.4 MECÁNICAS CON EVENTOS DE ARRASTRAR Y SOLTAR

Incorporar los eventos de arrastrar y soltar en la creación y presentación de evaluaciones,

tiene como propósito ofrecer, a docentes y estudiantes, una experiencia diferente e innovadora en

los procesos de evaluación. Este objetivo se plantea teniendo en cuenta la masificación de

dispositivos con pantallas táctiles en la actualidad, característica que ha cambiado la interacción

humano – máquina. En los siguientes apartados se describen estos eventos y se describen las

acciones que los usuarios pueden realizar con estos eventos, asociados al instrumento de

evaluación.

7.4.1 Descripción de eventos

De acuerdo a la estructura del instrumento de evaluación, dos conceptos de gran relevancia

para definir estos eventos son elemento y conjunto. Se denomina elemento cada uno de los

componentes atómicos definidos, que cumplen un rol en la mecánica de trabajo. Asimismo, se

denomina conjunto a la agrupación de elementos que tienen un mismo rol asignado. Los docentes

y estudiantes, al manipular elementos y conjuntos, con eventos de arrastrar y soltar, construyen y

dan respuesta al interrogante o situación planteada.

Esta manipulación de eventos y conjuntos es llamada movimiento, y puede darse dentro de

un conjunto y entre conjuntos. A continuación se definen los posibles movimientos para conjuntos

y elementos.

7.4.1.1 Primer movimiento

Este movimiento es de ámbito local, es decir, aplica al interior de los conjuntos. Permite a

los usuarios cambiar el orden de los elementos que pertenecen a un mismo conjunto y se caracteriza

49

por permitir el intercambio de posiciones para elementos adyacentes. La siguiente es la

representación de este movimiento.

Figura 5. Primer movimiento para aplicación de eventos de arrastrar y soltar.

Fuente: Autor.

En la figura anterior se observa el intercambio de posiciones entre el primer y segundo

elemento. Para llegar a este resultado, el usuario debe aplicar el siguiente procedimiento.

1. Hacer clic o pulsación sobre uno de los dos elementos, y mantenerlo.

2. Arrastrar el elemento verticalmente, según corresponda.

3. Al intercambiar la posición entre elementos, dejar de hacer clic o la pulsación aplicado

al elemento. Es decir, soltar el elemento.

Si se requiere ubicar un elemento en una posición no adyacente, debe aplicarse el siguiente

procedimiento, que es muy similar al anterior.

1. Hacer clic o pulsación sobre el elemento que desea moverse, y mantenerlo.

2. Arrastrar el elemento verticalmente, según corresponda, hasta llegar a la posición

deseada.

3. Al llegar a la posición deseada, soltar el elemento.

50

Al mover un elemento a una posición no adyacente, el orden de los demás elementos no se

ve afectado, pero si su posición, que es el criterio usado para la calificación de las preguntas de

ordenamiento.

7.4.1.2 Segundo movimiento

Este movimiento es de ámbito global, es decir aplica para la manipulación de elementos

entre conjuntos. Permite a los usuarios cambiar el rol o pertenencia a un conjunto, de un elemento.

La siguiente es la representación de este movimiento.

Figura 6. Segundo movimiento para aplicación de eventos de arrastrar y soltar.

Fuente: Autor.

En la figura anterior se ejemplifica el cambio del elemento x, ya sea del conjunto 1 a 2 o

viceversa. Para llegar a este resultado, el usuario debe aplicar el siguiente procedimiento.

1. Hacer clic o pulsación sobre el elemento del conjunto origen que quiere moverse.

2. Mover el elemento al conjunto destino.

3. Una vez ubicado el elemento en el conjunto destino, soltarlo. Cabe resaltar que este

movimiento permite elegir la posición del elemento en el conjunto destino, evitando

realizar el primer movimiento, una vez aplicado el segundo movimiento.

51

El segundo movimiento tiene una variante, que permite a los usuarios clonar o crear una

copia del elemento que es manipulado, posicionando dicha copia en el conjunto de destino y

manteniendo el original en el conjunto de origen. Esta característica permite manipula un listado

de elementos, los cuales pueden adquirir más de un rol o requieren ser asociados en más de una

ocasión a diferentes elementos.

7.4.2 Creación de evaluaciones

Crear o modificar el contenido para evaluar es una labor de vital importancia, ya que debe

garantizarse la integridad de la prueba escrita, para que realmente cumpla su objetivo. Para ello,

se requiere proveer al docente mecanismos, de fácil compresión y aplicación, para que defina los

elementos y relaciones que están presentes en el instrumento de evaluación. Los movimientos

anteriores son aplicados por el docente en aspectos puntuales de la evaluación como la asociación

de logros, el orden de las preguntas y las mecánicas de trabajo de los diferentes tipos de preguntas.

Tabla 24. Manipulación de componentes de la evaluación con eventos de arrastrar y soltar.

Componente Mecánica

Asociación de logros

Posterior a la definición de los logros, el docente puede seleccionar una

pregunta y aplicar la variante del segundo movimiento para asociar los

logros que desee a la pregunta.

Orden de preguntas

Posterior a la definición de las preguntas que componen la evaluación, el

docente puede aplicar el primer movimiento para definir el orden de las

preguntas.

Fuente: Autor.

El orden definido para las preguntas es el mismo en el que se les presentarán a los

estudiantes, una por una, cuando tomen la evaluación. Cuando una evaluación cuenta con una

pregunta de base común, el orden de las preguntas que la conforman no puede cambiarse en el

momento de crear la evaluación, ya que este orden es definido al momento de crear o modificar la

pregunta en sí.

Asimismo, para crear las preguntas el docente usa el primer y segundo movimiento, con el

fin de definir algunas características que los elementos que conforman los componentes propios

de cada uno de los tipos de preguntas implementados. A continuación se describe la aplicación de

los eventos de arrastrar y soltar, para la creación y modificación de preguntas.

52

Tabla 25. Creación y modificación de preguntas con eventos de arrastrar y soltar.

Pregunta Mecánica

Base común

Una vez creadas las preguntas que van a conformarla y cargado el recurso

a asociar, el docente puede aplicar el primer movimiento para indicar el

orden en que serán mostradas al estudiante.

Correlación

Luego de definir las categorías y elementos que conforman la pregunta, el

docente especifica en cada una de las categorías, aplicando la variante del

segundo movimiento, los elementos que la conforman.

Opción múltiple

Posterior a la definición de opciones y respuestas, el docente puede aplicar

el segundo movimiento para posicionar una opción como respuesta o

viceversa.

Ordenamiento

Una vez definido el listado de elementos a ordenar, el docente puede aplicar

el primer movimiento para modificar la posición de un elemento dentro de

la lista.

Verdadero o falso

Al finalizar la definición de hechos verdaderos y falsos, el docente puede

aplicar el segundo movimiento y modificar la validez de un elemento,

posicionando el elemento en el conjunto deseado.

Fuente: Autor.

7.4.3 Presentación de evaluaciones

Aplicar el material de evaluación es una tarea igualmente importante, pues en este proceso

es donde se interactúa con el estudiante y se recoge información de su progreso dentro de los

procesos de enseñanza aprendizaje. Para obtener información significativa y pertinente, se necesita

proveer al estudiante mecanismos de trabajo fáciles de entender y usar, permitiéndole indicar su

respuesta y garantizar la integridad de la misma.

Al estudiante se le presentan una por una las preguntas que conforman el instrumento de

evaluación, en el orden definido por el docente. Los movimientos descritos anteriormente, aplican

para los tipos de pregunta en contextos específicos, exceptuando las preguntas de base común que

no poseen una mecánica de trabajo.

Para cada pregunta se presenta el listado de elementos a trabajar, así como los campos

donde deben indicar su respuesta. A continuación se describe la incorporación de eventos de

arrastrar y soltar en la resolución de preguntas.

53

Tabla 26. Resolución de preguntas con eventos de arrastrar y soltar.

Pregunta Mecánica

Correlación

Se presentan los elementos y categorías a relacionar. Al especificar cada

categoría, el estudiante aplica la variante del segundo movimiento para

indicar los elementos que la conforman.

Opción múltiple

Se presenta el listado de opciones que son candidatas a ser respuesta. El

estudiante aplica el segundo movimiento para indicar los elementos que

conforman su respuesta.

Ordenamiento Se presenta el listado de elementos a ordenar. El estudiante aplica el primer

movimiento para organizar los elementos y así, especificar su respuesta.

Verdadero o falso

Se presenta un contenedor con los hechos verdaderos y falsos. El

estudiante, aplicando el segundo movimiento, clasifica los elementos en los

conjuntos, proporcionando así su respuesta.

Fuente: Autor.

54

8. DESARROLLO DEL PROTOTIPO

En este capítulo se describe el proceso llevado a cabo para la obtención del prototipo

propuesto, de acuerdo a la metodología de desarrollo de software SCRUM. Se parte del

instrumento de evaluación descrito anteriormente, así como las historias de usuario definidas en el

transcurso del proyecto, ver Anexo 1. A continuación se detallan aspectos relevantes para este

proyecto como la elección de tecnologías, la construcción del modelo de datos, la construcción del

prototipo y las pruebas aplicadas para verificar su funcionamiento, previo a la experiencia en la

institución educativa.

8.1 ELECCIÓN DE TECNOLOGÍAS

Determinar las tecnologías para construir el prototipo es una labor que se realiza en tres

puntos de vista: cómo representar y almacenar el instrumento de evaluación y sus resultados

(persistencia), cómo permitirle a los usuarios crear y manipular dicho instrumento (frontend), y

cómo proveer un intermediario entre usuario y datos (backend). Los siguientes apartados abordan

cada uno de estos elementos.

8.1.1 Persistencia de datos

El instrumento de evaluación integrado está compuesto por cinco tipos de preguntas, que

difieren unos de otros en ciertos elementos de su estructura. Estas particularidades son

determinantes en la elección del motor de bases de datos a usar, pues una mala decisión puede

complicar el trabajo a realizar. Dos de los tipos de bases de datos de mayor popularidad y uso son

las bases de datos relacionales y las no relacionales, cuyo uso tiene aspectos positivos y negativos,

que deben ser considerados.

Las bases de datos relacionales son un conjunto de tablas y relaciones, definidas con

algunas restricciones, para garantizar la integridad de los datos. Por esta razón y la “sencillez

conceptual”, son ampliamente usadas (Silberschatz, Korth, & Sudarshan, 2011) (Gracia & Yanes,

2012). No obstante, las restricciones dificultan su uso en algunos dominios, como en este proyecto,

pues representar las estructuras y sus pequeñas diferencias implica la definición de una gran

cantidad de tablas y sus relaciones con las demás entidades. Asimismo, considerar la incorporación

de nuevos tipos de preguntas al instrumento de evaluación puede resultar en algo caótico.

55

Por dificultades como estas surgieron las bases de datos no relacionales o NoSQL, que

permiten flexibilidad en el almacenamiento de datos, así como su manejo en grandes volúmenes

(Gracia & Yanes, 2012). Un tipo de bases de datos NoSQL son las orientadas a documentos, que

permiten representan estructuras jerárquicas complejas en un solo registro (Chodorow, 2013).

Usan la notación JSON (JSON, n.d.-a) para la descripción e intercambió de datos y con ello ofrecen

sencillez, velocidad y escalabilidad. Sin embargo, al brindar tanta flexibilidad delegan labores

como la de integridad a los desarrolladores (Gracia & Yanes, 2012).

MongoDB es un motor de bases de datos NoSQL orientado a documentos caracterizado

por su escalabilidad, flexibilidad y desempeño, así como proporcionar algunas de las

funcionalidades de bases de datos tradicionales (MongoDB, n.d.). Este motor de bases de datos

hace uso de la notación BSON (Binary JSON) (BSON, n.d.), extensión de la notación JSON, que

incorpora otros tipos de datos adicionales a los seis manejados por JSON (null, boolean, number,

string, array y object), como por ejemplo para las fechas el tipo de dato Date.

Por lo expuesto anteriormente, en este proyecto se hace uso del motor de bases de datos

MongoDB para el almacenamiento de datos. Asimismo, se usa la notación JSON para la

representación e intercambio de información en el cliente y servidor, pues al usar un mismo

estándar se contribuye a la integridad de la información, así como una fácil comprensión y

manipulación de los datos al desarrollador, en contraste con el estándar XML (Extensible Markup

Lenguaje) (W3C, n.d.-a) (JSON, n.d.-b).

8.1.2 Frontend

Tres tecnologías que trabajan en conjunto del lado del cliente son HTML (W3C, n.d.-b),

CSS y JavaScript (Mozilla Developer Network, n.d.), las cuales se encargan respectivamente de

definir el contenido, decorarlo y darle dinamismo. Este proyecto implementa mecanismos de

arrastrar y soltar para la manipulación de los datos, por lo que el lenguaje JavaScript toma gran

relevancia, pues es el que permite que este objetivo se cumpla.

Para facilitar el trabajo con JavaScript del lado de cliente existe jQuery, una librería muy

popular y de gran uso, que facilita el trabajo de los desarrolladores en aspectos como la

manipulación de elementos HTML, manejo de eventos, animaciones, entre otros (jQuery

Foundation, n.d.). Aun así, para este proyecto esta librería resulta muy básico, pues el manejo de

56

eventos de arrastrar y soltar requiere definir una lógica compleja, que mantenga la integridad de

los datos y sea relacionada con los eventos en sí.

AngularJS es un framework JavaScript, que trabaja bajo arquitecturas como MVC

(Modelo, Vista, Controlador) en el cliente, con características como la inyección de dependencias,

para un desarrollo modular y reutilización de código, el data binding para asociar y actualizar al

instante la información entre JavaScript y HTML, entre otros (Google, n.d.-a). Este framework se

enfoca en la lógica de la aplicación, es liviano, eficiente y permite la integración de otras

tecnologías JavaScript, como jQuery (Solis, 2015).

Se requiere igualmente ocuparse de la visualización de la información, teniendo en cuenta

el carácter responsivo del proyecto. Existen frameworks web para frontend que trabajan HTML,

CSS y JavaScript en conjunto, ofreciendo mecanismos necesarios para lograr, de forma sencilla,

productos responsivos de gran impacto a los usuarios. Dos ejemplos de estos frameworks son

Bootstrap (Bootstrap, n.d.), que trabaja bajo la filosofía mobile-first, y Materialize, basado en la

filosofía de Material Design (Materialize, n.d.). Ambos frameworks son muy similares y su

propósito es el mismo, lo que los diferencia son sus principios.

El principio mobile-first propone que los elementos de las páginas web deben tratarse

primero para dispositivos móviles, pues por su diversidad requieren mayor atención y detalle que

los dispositivos convencionales. A su vez, Material Design es una filosofía de Google que propone

un diseño responsivo realista, trabajando atributos como sombras y colores, colores, ofreciéndole

al usuario una experiencia acercada a su cotidianidad, así como una unificación de la interacción

con los aplicativos que use (Google, n.d.-b).

Por lo anteriormente expuesto, se elige a AngularJS como tecnología para trabajar

JavaScript en el cliente, pues al asociar la lógica del aplicativo con los documentos HTML, facilita

la incorporación de los eventos de arrastrar y soltar, centrando el trabajo en garantizar la integridad

de la información. Asimismo, se incorpora en el desarrollo a Materialize, ya que por su filosofía

no solo aporta en la experiencia del usuario, sino que simplifica el trabajo de diseñadores y

desarrolladores, pues permite una personalización de los sitios web de forma más directa y

comprensible. La combinación de estas dos tecnologías es una estrategia para lograr un impacto

positivo en los usuarios del aplicativo.

57

8.1.3 Backend

En el desarrollo web, existe gran variedad de tecnologías que trabajan del lado del servidor.

Su uso depende de factores como la complejidad del proyecto, las funcionalidades que se desean

proveer, entre otros. Proyectos como este, buscan obtener productos funcionales en poco tiempo,

lo que requiere usar tecnologías fáciles de aprender y usar. Por ello, tecnologías como Java o .Net

son descartadas, pues aunque aportan características como estabilidad, seguridad, entre otras, su

curva de aprendizaje es muy lenta.

El enfoque de trabajo AMP (Apache, MySQL y PHP) es ampliamente usado en la

actualidad, por ser tecnologías relativamente sencillas de aprender y usar, así como su

compatibilidad con diferentes plataformas. MySQL es un motor de bases de datos relacional, usado

para la persistencia; PHP es un lenguaje de programación del lado del servidor para manejar la

lógica de negocio y Apache es el servidor web para desplegar el aplicativo (Boronczyk et al.,

2009). En este enfoque, MySQL puede ser reemplazado por otros motores de bases de datos como

lo son Oracle, PostgreSQL o MongoDB.

Se ha tenido la concepción de JavaScript como un lenguaje que se ejecuta del lado del

cliente, junto con HTML y CSS. No obstante, NodeJS es una propuesta reciente que permite usar

JavaScript como un lenguaje del lado del servidor. Se define como una plataforma, orientada a

eventos asíncronos, que permite construir aplicaciones en red de forma rápida y escalable (Node.js

Foundation, n.d.). Asimismo, se considera a NodeJS como una solución ideal para aplicaciones no

críticas, que requieren atender una cantidad de usuarios considerable, así como obtener respuestas

rápidas del servidor (Muñoz, 2013).

Una ventaja de NodeJS con respecto al enfoque AMP es que se requiere conocer y manejar

un único lenguaje de programación tanto en el cliente como en el servidor. Asimismo, el usar

JavaScript como único lenguaje es una ventaja, pues al tener soporte nativo de JSON, se facilita la

manipulación e intercambio de información entre el cliente, el servidor y la base de datos, de forma

directa. Por las razones anteriores, se elige a NodeJS como tecnología que soportará el desarrollo

en el lado del servidor.

58

8.2 MODELO DE DATOS

El siguiente es el modelo de datos propuesto para describir el instrumento de evaluación

propuesto y todos los elementos que se requieren para el aplicativo, teniendo en cuenta la elección

del enfoque no relacional y de MongoDB como motor de bases de datos.

Figura 7. Modelo de datos no relacional propuesto para el aplicativo.

Fuente: Autor.

El modelo consta de cinco entidades o colecciones, que permiten representar una

evaluación y sus respectivos resultados. En la siguiente tabla se describe cada una de ellas.

Tabla 27. Entidades definidas para el modelo de datos.

Entidad Descripción

Usuario (User) Representa los usuarios docentes y estudiantes dentro del aplicativo.

Galería (Gallery) Define los recursos multimedia de los usuarios en el aplicativo.

Pregunta (Question) Representa los tipos de preguntas del instrumento de evaluación.

Evaluación (Assessment) Define el instrumento de evaluación incorporado en el aplicativo.

Resultado (Record) Representa las respuestas y resultados de cada estudiante.

Fuente: Autor.

59

8.2.1 Usuario

Esta entidad describe a cada uno de las personas que hacen uso del aplicativo, almacenando

de cada uno el nombre de usuario, contraseña, nombre, apellido y rol, descritos a continuación.

Tabla 28. Entidad Usuario del modelo de datos.

Atributo Tipo Descripción

_id ObjectId Atributo generado por el sistema para identificar un documento.

username String Atributo único del usuario para iniciar sesión en el aplicativo.

password String Contraseña del usuario para validar su ingreso al aplicativo.

name String Nombre(s) del usuario.

lastname String Apellido(s) del usuario.

role String Rol u ocupación del usuario, que puede ser profesor o estudiante.

Fuente: Autor.

8.2.2 Galería

Esta entidad describe los recursos multimedia en el aplicativo. Aunque almacena todos los

tipos de elementos, la estructura de un elemento tipo texto difiere de los elementos tipo audio,

imagen y video. A continuación se explica la estructura de esta entidad.

Tabla 29. Entidad Galería del modelo de datos.

Atributo Tipo Descripción

_id ObjectId Atributo generado por el sistema para identificar un documento.

name String Atributo asignado por el usuario que identifica un recurso.

type String Tipo de elemento, que puede ser audio, imagen, texto o video.

path String Ruta en disco del elemento. Aplica para audio, imagen y video.

url String URL del elemento multimedia. Aplica para audio, imagen y video.

text String Texto con formato. Aplica para texto.

status String Estado del elemento dentro del aplicativo.

owner ObjectId Referencia que asocia el elemento con su propietario.

Fuente: Autor.

A continuación puede apreciarse la diferencia en la estructura en los elementos multimedia,

pues todos tienen en común el nombre, tipo, estado y propietario, pero difieren en otros datos. Los

elementos tipo audio, texto y video, estructura representada en la parte izquierda de la figura,

poseen adicionalmente la ruta y la URL. Los elementos tipo texto, representados en la parte

derecha de la figura, agregan a estos datos el texto con formato HTML, que a su vez puede

referenciar imágenes presentes en el aplicativo, por medio de su URL.

60

Figura 8. Estructura de los elementos multimedia.

Fuente: Autor.

8.2.3 Pregunta

Esta entidad representa los diferentes tipos de pregunta del instrumento de evaluación

propuesto, y tiene variaciones significativas en su estructura, pues cada tipo de pregunta requiere

una estructura específica, acorde con su propósito. A continuación se explica la estructura de esta

entidad.

Tabla 30. Entidad Pregunta del modelo de datos.

Atributo Tipo Descripción

_id ObjectId Atributo generado por el sistema para identificar un documento.

name String Atributo asignado por el usuario que identifica una pregunta.

type String Tipo de pregunta.

statement String Enunciado de la pregunta.

attachment ObjectId Referencia que asocia el recurso multimedia de apoyo a la pregunta.

questions Array Arreglo de referencias para las preguntas asociadas a una pregunta.

body Object Objeto que describe la estructura de tipo de pregunta.

status String Estado de la pregunta dentro del aplicativo.

owner ObjectId Referencia que asocia la pregunta con su propietario.

Fuente: Autor.

Cada uno de los tipos de pregunta manejados en el instrumento de evaluación tiene como

información en común el nombre, tipo, enunciado, recurso adjunto, estado y propietario. Las

preguntas de base común utilizan el atributo questions para asociar las preguntas relacionadas a un

elemento en común. Las preguntas de correlación, opción múltiple, ordenamiento y verdadero o

falso utilizan el atributo body para especificar su estructura, basada en el concepto de elemento.

61

Un elemento es un objeto que incorpora los atributos index y text, cuya función es

identificar a un elemento dentro de la pregunta y expresar el contenido del elemento, que puede

ser una combinación de texto e imágenes, previamente definidas en el sistema, respectivamente.

A continuación se muestra la estructura de un elemento.

Figura 9. Estructura de los elementos que conforman las preguntas.

Fuente: Autor.

8.2.3.1 Pregunta de base común

Este tipo de pregunta difiere de los demás, pues no poseen una estructura específica, pues

su función es relacionar otras preguntas con un elemento en común. Para ello, se hace uso del

atributo questions, que almacena referencias a las preguntas de otros tipos, relacionadas a un

elemento presente en la galería del usuario, por medio del atributo attachment, que es de

obligatorio uso. La siguiente es la estructura de este tipo de pregunta.

Figura 10. Estructura de las preguntas de base común.

Fuente: Autor.

8.2.3.2 Pregunta de correlación

Estas preguntas incorporan un listado de los elementos a catalogar, así como el conjunto

de categorías a los que estos elementos pertenecen. Cada categoría a su vez posee un nombre y los

elementos u objetos que la conforman. Podría considerarse redundante tener el listado total de

elementos a catalogar y los elementos distribuidos por categoría, pero puede suceder que un

62

elemento no sea relacionado en ninguna categoría, por lo que conviene mantener esta distribución.

A continuación se muestra la representación de la estructura general de la pregunta y de las

categorías.

Figura 11. Estructura de las preguntas de correlación.

Fuente: Autor.

8.2.3.3 Pregunta de opción múltiple

Estas preguntas definen un listado de elementos que conforman la respuesta, agrupados en

el conjunto answers. Asimismo, definen un listado de elementos que no hacen parte de la respuesta,

agrupados en el conjunto options. La siguiente es la representación de su estructura.

Figura 12. Estructura de las preguntas de opción múltiple.

Fuente: Autor

63

8.2.3.4 Pregunta de ordenamiento

Este tipo de pregunta define un conjunto de elementos ordenados de acuerdo a un criterio,

especificado en el enunciado. El orden en el que se almacenan los elementos, en el atributo answer,

es la respuesta aceptada. A continuación se representa la estructura de este tipo de pregunta.

Figura 13. Estructura de las preguntas de ordenamiento.

Fuente: Autor.

8.2.3.5 Pregunta de verdadero o falso

Estas preguntas poseen dos conjuntos de elementos: verdadero, que contiene los elementos

o hechos verídicos; y falso, que contiene los elementos que no son ciertos, conformándose así la

respuesta al interrogante propuesto. La siguiente es su estructura.

Figura 14. Estructura de las preguntas de verdadero o falso.

Fuente: Autor.

64

8.2.4 Evaluación

Esta entidad representa el instrumento de evaluación propuesto, el cual consolida una gran

cantidad de información por medio de referencias a otras entidades y de objetos con algunas

relaciones implícitas. A continuación se describe la estructura de una evaluación.

Tabla 31. Entidad Evaluación del modelo de datos.

Atributo Tipo Descripción

_id ObjectId Atributo generado por el sistema para identificar un documento.

Name String Atributo asignado por el usuario que identifica una evaluación.

password String Clave asignada para restringir el acceso a la evaluación.

view_record Boolean Propiedad para habilitar o deshabilitar la consulta de resultados.

go_back Boolean Propiedad para restringir la navegación libre de la evaluación.

goals Array Logros definidos para estudiar en la evaluación.

questions Array Conjunto de referencias a las preguntas de la evaluación.

parameters Array Conjunto de asociaciones de logros y puntajes a las preguntas.

status String Estado de la evaluación dentro del aplicativo.

owner ObjectId Referencia que asocia la evaluación con su propietario.

Fuente: Autor.

Los logros son guardados como cadenas de texto dentro de un arreglo y el índice que le

corresponde, según su posición, es usado para asociarlos con las preguntas que conforman la

evaluación. El atributo parameters relaciona los logros y puntajes en las preguntas que conforman

la evaluación, por medio de objetos que tiene los atributos score, que es el puntaje asignado y

goals, que almacena los índices de los logros. Esta estructura puede apreciarse a continuación.

Figura 15. Estructura para asignación de puntajes y logros.

Fuente: Autor.

La correspondencia entre el arreglo parameters y el arreglo questions de uno a uno. Si la

pregunta es de base común, el arreglo de parameters en dicha posición no almacena un objeto,

sino un arreglo de objetos, que relaciona una a una las preguntas que la conforman, con su

configuración de puntaje y logros.

65

8.2.5 Resultado

Esta entidad del modelo es la encargada de representar los resultados de los estudiantes

para las diferentes evaluaciones que presentan. A diferencia de las otras entidades, esta si maneja

una única estructura, explicada a continuación.

Tabla 32. Entidad Resultado del modelo de datos.

Atributo Tipo Descripción

_id ObjectId Atributo generado por el sistema para identificar un documento.

assessment ObjectId Referencia que relaciona la evaluación con el resultado.

student ObjectId Referencia que relaciona al estudiante con el resultado.

score Number Puntaje obtenido por el estudiante.

answers Array Respuestas del estudiante para las preguntas de la evaluación.

goals Array Resultados del estudiante para los logros de la evaluación.

Fuente: Autor.

El atributo score representa la calificación genera del estudiante, mientras que el atributo

goals contiene su desempeño en cada logro definido. Las respuestas del estudiante son guardadas

en una estructura con dos atributos: score, que guarda el puntaje logrado en la pregunta y ans, que

contiene los elementos indicados como respuesta, cuya estructura varía de acuerdo al tipo de

pregunta. La estructura de este atributo se explica a continuación.

Tabla 33. Estructura de la respuesta del estudiante.

Tipo de pregunta Tipo de dato Descripción

Correlación Array Almacena cada categoría como un objeto, con su nombre

y los elementos que el estudiante le asignó.

Opción múltiple Array Guarda los elementos que el estudiante indicó como

respuesta.

Ordenamiento Array Almacena los elementos propuestos, en el orden que el

estudiante indicó.

Verdadero o falso Object Con los atributos true y false, que son arreglos, se

almacenan los elementos según el haya indicado.

Fuente: Autor.

Cada elemento que conforme la respuesta del estudiante tiene el atributo correct, para

indicar es correcto o no. Cuando una pregunta es de base común, en el atributo answers de la

entidad no almacena un objeto, sino un arreglo de elementos que tiene una correspondencia uno a

uno con las preguntas que la conforman.

66

8.3 REQUERIMIENTOS DEL SISTEMA

Los siguientes apartados presentan los requerimientos funcionales y no funcionales

definidos para el aplicativo, obtenidos a partir de la descripción del instrumento de evaluación y

las historias de usuario recopiladas, ver Anexo 1.

8.3.1 Requerimientos funcionales

Esta sección presenta los requerimientos funcionales definidos e implementados, descritos

en detalle en el Anexo 2. Los roles identificados para el sistema son docente, encargado de crear

el material de evaluación y estudiante, quienes usan dicho material. La siguiente tabla muestra el

listado de requerimientos, agrupados según su funcionalidad, así como su relación con los actores.

Tabla 34. Requerimientos funcionales del sistema.

ID Requerimiento Actores

Docente Estudiante

RF-01 Registro de usuarios en el sistema. X X

Módulo de gestión de multimedia

RF-02 Listado de elementos multimedia en el sistema. X

RF-03 Creación de elementos multimedia en el sistema. X

RF-04 Visualización de elementos multimedia en el sistema. X

RF-05 Modificación de elementos multimedia en el sistema. X

RF-06 Eliminación de elementos multimedia en el sistema. X

Módulo de gestión de preguntas

RF-07 Listado de preguntas presentes en el sistema. X

RF-08 Creación de preguntas en el sistema. X

RF-09 Asociación de elementos multimedia como apoyo. X

RF-10 Visualización de las preguntas presentes en el sistema. X

RF-11 Modificación de las preguntas presentes en el sistema. X

RF-12 Eliminación de las preguntas presentes en el sistema. X

Módulo de gestión de evaluaciones

RF-13 Listado de evaluaciones presentes en el sistema. X

RF-14 Creación de evaluaciones en el sistema. X

RF-15 Definición de restricciones de acceso a la evaluación. X

RF-16 Definición de modos de presentación de la evaluación. X

RF-17 Definición de restricciones para la consulta de resultados. X

RF-18 Definición de logros a medir con la evaluación. X

RF-19 Asociación de logros y puntajes a preguntas. X

RF-20 Visualización de las evaluaciones presentes en el sistema. X

RF-21 Modificación de las evaluaciones presentes en el sistema. X

RF-22 Eliminación de las evaluaciones presentes en el sistema. X

67

Módulo de presentación de evaluaciones

RF-23 Listado de evaluaciones disponibles para presentar. X

RF-24 Inicio de evaluación. X

RF-25 Navegación de la evaluación pregunta por pregunta. X

RF-26 Visualización de preguntas y modificación de respuestas. X

RF-27 Informe de estado de la evaluación previo a su finalización. X

RF-28 Finalización de evaluación. X

Módulo de resultados e informes

RF-29 Consulta de informes grupales para evaluaciones. X

RF-30 Consulta de informes individuales para evaluaciones. X X

RF-31 Contraste entre respuestas del estudiante y las esperadas. X X

RF-32 Descarga de resultados grupales para las evaluaciones. X

Fuente: Autor.

8.3.2 Requerimientos no funcionales

Este apartado presenta los requerimientos no funcionales definidos para el sistema,

descritos con mayor detalle en el Anexo 3, los cuales están relacionados con el carácter responsivo

propuesto, así como elementos técnicos que son planteados para mejorar el rendimiento del

aplicativo y por ende la experiencia del usuario.

Tabla 35. Requerimientos no funcionales.

ID Nombre

RNF-01 Compatibilidad entre navegadores

RNF-02 Apariencia visual

RNF-03 Disposición de elementos en la pantalla

RNF-04 Agrupación de contenido

RNF-05 Delegación de responsabilidades

Fuente: Autor.

8.4 DISEÑO DE BACKEND

Con base en los requerimientos formulados y su agrupamiento por su funcionalidad, se

propone la siguiente distribución de módulos en los dispositivos servidor y cliente, para delegar

responsabilidades a los segundos. Al realizar operaciones localmente, el cliente reduce la cantidad

de intercambio de información y por ende, se reduce el tráfico de datos en el servidor y las

operaciones para su procesamiento. Las siguientes secciones presentan el diagrama de despliegue,

que muestra la distribución de módulos dentro de la arquitectura cliente – servidor y algunos

diagramas de secuencia, que describen las principales operaciones del aplicativo.

68

8.4.1 Diagrama de despliegue

Figura 16. Diagrama de despliegue para el aplicativo propuesto.

Fuente: Autor.

A continuación se describen los requerimientos mínimos de software para que el despliegue

mostrado en la figura anterior funcione correctamente.

Tabla 36. Requerimientos mínimos de software para el funcionamiento del aplicativo.

Software Versión Dispositivo Descripción

Google Chrome - Cliente Navegador principal.

Mozilla Firefox - Cliente Navegador alternativo.

AngularJS 1.5.6 Servidor Framework que soporta los módulos en el cliente.

NodeJS 4.4.5 Servidor Solución que soporta los módulos en el servidor.

MongoDB 3.0.12 Servidor Motor de bases de datos para la gestión de datos.

Fuente: Autor.

El desarrollo fue realizado considerando Google Chrome como navegador principal,

teniendo en cuenta que está presente en millones de computadores y dispositivos con sistema

operativo Android. Mozilla Firefox se recomienda como navegador alterativo, pues es compatible

con el diseño frontend implementado, permitiendo el correcto funcionamiento del aplicativo.

deployment Client - Serv er

Client Application Serv er

Database Serv er

MongoDB

AngularJS

Presentation Assessment

QuestionGallery

NodeJS

Gallery Mongoose

Presentation

AssessmentQuestion

«use»HTTP

«use»

«use»

TCP/IP

«use»

«use»«use»

«use»«use»

«use»«use»

69

Para conocer los requerimientos mínimos de hardware, remítase a los apartados Sesiones

de contextualización y Sesiones de prueba específica, pues se usaron diferentes entornos de

trabajo, cambiando las características de los equipos.

8.4.2 División de responsabilidades en la arquitectura cliente – servidor

Tabla 37. Distribución de módulos y responsabilidades.

Módulo Responsabilidad Cliente Responsabilidad Servidor

Gestión de

multimedia

Gestión local de los datos de la galería

del usuario, para la reducción de

intercambio de datos con el servidor.

Almacenamiento de elementos en disco

y gestión de datos asociados a los

elementos entre el cliente y la base de

datos.

Gestión de

preguntas

Gestión local de los datos del banco de

preguntas, garantizando la integridad

de la información y la reducción de

intercambio de datos con el servidor.

Gestión de datos que representan los

diferentes tipos de preguntas entre el

cliente y la base datos.

Gestión de

evaluaciones

Gestión local de los datos del banco de

evaluaciones, que garantiza la

integridad de la información y la

reducción de intercambio de datos con

el servidor.

Gestión de datos que representan las

evaluaciones y sus componentes entre

el cliente y la base datos.

Presentación

de

evaluaciones

Presentación de la evaluación al

usuario y navegación pregunta a

pregunta, almacenando su progreso

temporalmente.

Consulta y envío de la evaluación al

cliente. Recepción de respuestas,

calificación y almacenamiento de

resultados.

Resultados e

informes

Presentación de los datos y generación

de gráficos mostrados al usuario.

Construcción de informes a partir de la

información presente en la base de

datos.

Fuente: Autor.

Dividir las responsabilidades de cada uno de los módulos en los clientes y el servidor

permite visualizar el funcionamiento del aplicativo en entornos de trabajo con bajos

requerimientos, donde no existe un equipo servidor con las características necesarias para manejar

un alto tráfico de datos y alto número de usuarios trabajando simultáneamente, así como una

infraestructura de red modesta. Las configuraciones de software y hardware de los dispositivos

convencionales y móviles actuales son adecuados para llevar parte de la lógica de negocio a los

clientes, siendo un factor no crítico que afecte drásticamente el desempeño del aplicativo, pues

están en capacidad de manejar el tipo de operaciones requeridas en este proyecto.

70

Muchas de las instituciones educativas poseen equipos con buenas configuraciones de

software y hardware, pero no con infraestructura especializada como centros de cómputo con

servidores apropiados para alojar aplicaciones como estas. Por ello, una distribución de la lógica

de negocio entre los dispositivos elimina requerimientos como infraestructura especializada,

reduciéndose considerablemente los costos de implementación. Asimismo, se crea un producto

que puede ser usado en cualquier institución que cuente con los dispositivos y la red, usando así

un equipo convencional como servidor.

8.4.3 Diagramas de secuencia para operaciones más representativas

Los siguientes apartados presentan los diagramas de secuencia que describen las acciones

más relevantes que los usuarios de tipo docente y estudiante pueden realizar en el aplicativo, para

cada uno de los módulos propuestos. En la creación del contenido de evaluación, el docente realiza

acciones como la creación de elementos multimedia, creación de preguntas y evaluaciones en sí.

A su vez, los estudiantes hacen uso del material de evaluación creado durante el proceso de

presentación o aplicación. Igualmente, docentes y estudiantes, una vez culminada la aplicación de

una evaluación, realizan las respectivas consultas de resultados.

71

8.4.3.1 Creación de elementos multimedia

Figura 17. Diagrama de secuencia para creación de elementos multimedia.

Fuente: Autor.

72

8.4.3.2 Creación de preguntas

Figura 18. Diagrama de secuencia para creación de preguntas.

Fuente: Autor.

73

8.4.3.3 Creación de evaluaciones

Figura 19. Diagrama de secuencia para creación de evaluaciones.

Fuente: Autor.

74

8.4.3.4 Presentación de evaluaciones

Figura 20. Diagrama de secuencia para presentación de evaluaciones.

Fuente: Autor.

75

8.4.3.5 Consulta de resultados para docentes

Figura 21. Diagrama de secuencia para consulta de resultados como docente.

76

8.4.3.6 Consulta de resultados para estudiantes

Figura 22. Diagrama de secuencia para consulta de resultados como estudiante.

Fuente: Autor.

8.5 DISEÑO DE FRONTEND

Los siguientes apartados describen los elementos considerados para la componente

frontend del aplicativo, al igual que los prototipos o mockups que describen las principales páginas

y funcionalidades, tanto para dispositivos de cómputo como computadores de escritorio y

portátiles como para dispositivos móviles con pantallas iguales o superiores a 7 pulgadas.

8.5.1 Usabilidad

La usabilidad de un aplicativo está dada por atributos de usabilidad, que son características

obtenidas del tipo de sistema a construir. Asimismo, está ligada al entorno donde el aplicativo

funcionará y los usuarios que lo utilizarán. De acuerdo al estándar ISO/IEC 9126, la usabilidad

está dada por las siguientes componentes (Perunena & Moráguez, 2013).

77

Tabla 38. Componentes del estándar ISO/IEC 9126 para el análisis de la usabilidad.

Componente Descripción

Comprensibilidad El usuario encuentra que el producto es adecuado y comprende cómo

usarlo para realizar sus labores cotidianas.

Aprendizaje El usuario aprende a usar el producto.

Operabilidad El usuario usa y controla el producto.

Atractividad El producto resulta atractivo al usuario.

Conformidad a

estándares y pautas El producto adopta estándares, regulaciones y recomendaciones.

Fuente: Autor. Basado en (Perunena & Moráguez, 2013).

8.5.2 Patrones y recomendaciones para diseños responsivos

La construcción de aplicaciones web responsivas existen cinco patrones de diseño (LePage,

2016), los cuales describen la forma en que los diferentes bloques de información que conforman

una página web son redistribuidos para adaptarse al tamaño de la pantalla. Estos patrones son

descritos en la siguiente tabla.

Tabla 39. Patrones de diseño para la web responsiva.

Patrón Descripción

Mostly fluid

Los contenedores de información se mueven en una rejilla fluida, que permite

que contenedor que no puede ocupar su espacio inicial reajuste su tamaño

junto a otros contenedores, de forma equitativa.

Column drop

Los contenedores de información poseen un ancho completo. De acuerdo al

tamaño de pantalla, un contenedor que no pueda ocupar su espacio pasa a la

parte inferior de los contenedores que se mantienen, ocupando el ancho de la

pantalla.

Layout shifter

Posicionamiento de contenedores de información desde varios puntos de

rompimiento, generando una transformación visual significativa de la página

web.

Tiny tweaks Cambio de atributos de los elementos que conforman la página web, como lo

son el espaciado entre elementos, tamaños de fuentes, entre otros.

Off canvas

Ocultamiento de contenedores de información para pantallas pequeñas, los

cuales tienen asociado algún gesto o elemento que presenta el contenedor al

usuario. Estos contenedores se muestran en las pantallas grandes.

Fuente: Autor. Basado en (LePage, 2016).

La distribución y uso de elementos en una página web existen algunas recomendaciones y

buenas prácticas, que son implementadas por muchos de los sitios web existentes en el mercado.

La siguiente tabla presenta algunos de estos elementos (Veloz, 2016).

78

Tabla 40. Recomendaciones y buenas prácticas en sitios web del mercado.

Elemento Descripción

Menú Fijo para orientar al usuario permanentemente en el sitio web.

Oculto para la navegación en dispositivos con pantalla pequeña.

Íconos Facilitan la interacción con toques o clics.

Orientan al usuario sobre la temática de secciones y accesos rápidos.

Fuentes Aportan identidad, estilo y elegancia al sitio web.

Un tamaño adecuado no requiere que el usuario haga zoom.

Imágenes Las imágenes se adaptan al ancho de la pantalla.

Las imágenes y videos grandes invitan al usuario a conocer el sitio.

Secciones Los acordeones ahorran espacio y permiten una navegación sencilla.

Scroll Optimiza la cantidad de clics o toques realizados para visitar una página.

One page Con pocos clics o toques, se puede ver la información en una única página.

Formularios Formularios sencillos.

Notificaciones Eliminación de alertas, notificaciones y popups innecesarios.

Fuente: Autor. Basado en (Veloz, 2016).

8.5.3 Mockups

Los siguientes mockups muestran la estructura base del aplicativo en dispositivos de

cómputo convencionales y dispositivos móviles. Una página contiene tres elementos: una barra de

menú con enlaces a las acciones que un usuario puede realizar, un área de trabajo que muestra la

información de cada acción y un botón de ayuda para obtener consejos sobre el uso de cada acción.

Figura 23. Estructura base del aplicativo para computadores y laptops.

Fuente: Autor.

79

Figura 24. Estructura base del aplicativo para dispositivos móviles

Fuente: Autor.

La estructura base en dispositivos con pantallas pequeñas experimenta cambios con

respecto a los dispositivos convencionales, como el ocultamiento de las acciones de la barra de

menú, reemplazadas por un botón ubicado en la parte izquierda de la barra y que despliega una

barra lateral con los elementos que fueron ocultados en la barra de menú. El área de trabajo se

redistribuye, tal como se explica a continuación.

8.5.3.1 Redistribución de elementos en la pantalla

La estructura del área de trabajo, para algunas acciones, puede contener dos columnas, las

cuales requieren una adecuada reubicación en pantallas pequeñas. Como se manejan únicamente

dos columnas, la aplicación del patrón Column drop es pertinente para dicha redistribución. La

Figura 25 y la Figura 26 muestran la implementación de este patrón en el aplicativo, cuando el

área de trabajo posee dos columnas. Si el área posee únicamente una columna, esta es

redimensionada y preserva su posición, tal como en la Figura 24.

La orientación en la que se trabaje el dispositivo, sea landscape (horizontal) o portrait

(vertical), puede influir en la estructura que se muestra. Algunos dispositivos que están en un punto

intermedio de tamaños, puede tomar la configuración para computadores en modo horizontal y la

de dispositivos móviles en modo vertical.

80

Figura 25. Distribución de columnas para computadores y laptops.

Fuente: Autor.

Figura 26. Distribución de columnas para dispositivos móviles

Fuente: Autor

81

8.5.3.2 Agrupación de información en bloques

Algunas de las acciones realizadas por los usuarios en el aplicativo requieren el manejo de

una gran cantidad de información en una misma página, como lo son la creación de preguntas y

evaluaciones, así como la aplicación o presentación de las mismas. Manejar una gran cantidad de

información en pantalla implicaría realizar grandes desplazamientos, que a su vez generaría perder

de vista alguna porción de esta en un momento determinado. Un usuario puede necesitar ver al

mismo tiempo información no continua en la página, requiriendo un constante movimiento de la

página, que lo puede confundir e inducir al error.

El acordeón es un elemento gráfico que permite agrupar información en bloques, siendo el

criterio más usado la afinidad o relación entre esta. Por lo general, un acordeón posee varias

secciones o bloques de información, los cuales pueden ser plegados o desplegados, según el deseo

del usuario. Por defecto, este elemento permite tener desplegada únicamente una sección a la vez,

pero al aplicar algunas configuraciones pueden desplegarse varias secciones simultáneamente.

Incorporar el acordeón a una página, configurado para visualizar varias secciones a la vez, permite

a los usuarios reducir los desplazamientos que realiza en la página. Las siguientes figuras presentan

el uso del acordeón en dispositivos de cómputo convencionales como en dispositivos móviles.

Figura 27. Uso de acordeón en computadores y laptops.

Fuente: Autor.

82

Figura 28. Uso de acordeón en dispositivos móviles.

Fuente: Autor.

8.5.3.3 Visualización de información adicional

En algunas de las acciones realizadas por los usuarios dentro del aplicativo requieren

manejar información proveniente de otros módulos, como por ejemplo la incorporación de

elementos multimedia a las preguntas o la asociación de preguntas a una evaluación. Asimismo,

algunas acciones dentro del aplicativo requieren manejar gran cantidad de información, que aun

usando el acordeón requiere de gran espacio en la página, necesitándose hacer grandes

desplazamientos en la pantalla, llegando nuevamente a la misma problemática. Las ventanas

emergentes son una solución para este cuestionamiento.

Los modals son ventanas emergentes que muestran información al usuario en una misma

página, al ejecutar algún evento sobre un elemento. Una ventaja de usarlos es que no se requiere

recargar la página que la contiene para mostrarse, preservando así la información que posee al

momento de su llamado. Asimismo, facilita la extensión de la página y la reutilización de

funcionalidades, como editores de texto, selectores de elementos, ayudas al usuario, entre otros.

Las siguientes figuras muestran la disposición de modals en dispositivos convencionales y

dispositivos móviles, los cuales ocupan una gran porción de la pantalla para maximizar la cantidad

de información que un usuario puede ver sin realizar algún desplazamiento.

83

Figura 29. Uso de ventanas emergentes en computadores y laptops.

Fuente: Autor.

Figura 30. Uso de ventanas emergentes en dispositivos móviles.

Fuente: Autor.

8.5.3.4 Uso de iconografía

Los íconos son elementos gráficos que se incorporan en una página web y se asocian a los

otros componentes de la página como ayudas visuales, permitiendo a los usuarios identificar

rápidamente funcionalidades y hacer su uso intuitivo. Dentro del diseño propuesto e

implementado, usar íconos permite:

84

1. Reemplazar el texto de los botones por representaciones gráficas que ocupan menos

espacio, sin modificar drásticamente su intención, como lo presentan las siguientes figuras,

donde las acciones ver, editar y eliminar son reemplazadas por los íconos ojo, lápiz y bote

de basura, respectivamente. Igual sucede con el botón de ayuda (signo de interrogación) y

de inicio (casa).

Figura 31. Cambio de texto en los botones por íconos en computadores y laptops.

Fuente: Autor.

Figura 32. Cambio de texto en los botones por íconos en dispositivos móviles.

Fuente: Autor.

85

2. Acompañar a diferentes elementos y secciones definidas para una página, que comuniquen

al usuario su contenido y permitan su fácil ubicación y manipulación. En las siguientes

figuras se muestra el uso de íconos para acompañar los accesos directos presentes en la

página de inicio de los usuarios, tanto para computadores como dispositivos móviles.

Figura 33. Uso de íconos para acompañar elementos de una página en computadores y laptops.

Fuente: Autor.

Figura 34. Uso de íconos para acompañar elementos de una página en dispositivos móviles.

Fuente: Autor.

86

3. Informar al usuario sobre los resultados de acciones realizadas. Los íconos pueden incluirse

en una página y mostrarse dinámicamente, de acuerdo a algún evento. En el diseño

propuesto se incorporan para notificar respuestas de operaciones, así como estados de los

bloques de información, los cuales informan al usuario si está incompleto (signo de

admiración) o está completo (signo de aprobación). Las siguientes figuras ejemplifican el

uso de íconos en los formularios como mecanismo de notificación de estados y resultados.

Figura 35. Incorporación de íconos para indicar resultados en computadores y laptops.

Fuente: Autor.

Figura 36. Incorporación de íconos para indicar resultados en dispositivos móviles.

Fuente: Autor.

87

8.6 PRODUCTO GENERADO

En esta sección se realiza un recorrido general por el aplicativo construido, mostrando y

describiendo los aspectos más relevantes. Para mayor detalle, consulte el manual de usuario del

aplicativo, disponible en el aplicativo o en el adjunto que acompaña a este documento.

8.6.1 Página principal del aplicativo

Figura 37. Página principal del aplicativo

Fuente: Autor.

Al ingresar al aplicativo en el navegador, el usuario es posicionado en la página principal,

la cual le presenta una descripción general del producto y las opciones para ingresar, registrarse o

acceder al manual de usuario.

88

8.6.2 Perfiles de usuario

Toda acción o procedimiento que puede realizarse por los usuarios, docentes y estudiantes,

requiere que tengan una cuenta en el aplicativo y que inicien sesión. El único procedimiento que

no requiere iniciar sesión en el aplicativo es la descarga del manual de usuario, en formato PDF.

A continuación se presentan los perfiles de usuario para docentes y estudiantes.

8.6.2.1 Perfil docente

Un usuario tipo docente, al iniciar sesión en el aplicativo, es posicionado en la página de

inicio, que tiene la estructura presentada a continuación.

Figura 38. Página de inicio para usuarios de tipo docente.

Fuente: Autor.

Un docente tiene acceso a los siguientes módulos:

1. Gestión de multimedia, a través del enlace Galería.

2. Gestión de preguntas, a través del enlace Preguntas.

3. Gestión de evaluaciones, a través del enlace Evaluaciones.

4. Resultados e informes, a través del enlace Calificaciones.

Los usuarios de tipo estudiante no tienen acceso a estos módulos, pues no les proporcionan

los enlaces para ello y se deniega su acceso al intentar acceder por la dirección URL de cada uno.

89

8.6.2.2 Perfil estudiante

Un usuario tipo estudiante, al iniciar sesión en el aplicativo, es posicionado en la página de

inicio, que tiene la estructura presentada a continuación.

Figura 39. Página de inicio para usuarios de tipo docente.

Un estudiante tiene acceso a los siguientes módulos:

1. Presentación de evaluaciones, a través del enlace Iniciar evaluación.

2. Resultados e informes, a través del enlace Calificaciones.

8.6.3 Módulo de gestión de multimedia

Este módulo permite a los docentes gestionar los elementos multimedia que usará en sus

preguntas. Las acciones que puede realizar son:

1. Creación de elementos de tipo audio, imagen y video.

2. Creación de elementos de tipo texto.

3. Visualización de elementos multimedia.

4. Modificación de elementos multimedia.

5. Eliminación de elementos multimedia.

Las siguientes figuras muestran la galería multimedia de un docente y los mecanismos para

la creación de elementos multimedia en el aplicativo.

90

Figura 40. Ejemplo de galería de usuario con elementos.

Fuente: Autor.

Figura 41. Ejemplo de formulario para creación de textos.

Fuente: Autor.

91

Figura 42. Ejemplo de gestor de carga de archivos.

Fuente: Autor.

8.6.4 Módulo de gestión de preguntas

Este módulo permite a los docentes gestionar las preguntas que incorporará en sus

evaluaciones. Las acciones que puede realizar son:

1. Creación de elementos de tipo base común, correlación, opción múltiple, ordenamiento

y verdadero o falso.

2. Visualización de preguntas.

3. Modificación de preguntas.

4. Eliminación de preguntas.

Las siguientes figuras los formularios diligenciados para la creación de las preguntas en el

aplicativo.

92

Figura 43. Ejemplo de formulario para creación de preguntas de base común.

Fuente: Autor.

93

Figura 44. Ejemplo de formulario para creación de preguntas de correlación

Fuente: Autor.

Figura 45. Ventana emergente para manejo de categorías en preguntas de correlación.

Fuente: Autor.

94

Figura 46. Ejemplo de formulario para creación de preguntas de opción múltiple.

Fuente: Autor.

Figura 47. Ejemplo de formulario para creación de preguntas de ordenamiento.

Fuente: Autor.

95

Figura 48. Ejemplo de formulario para creación de preguntas de verdadero o falso.

Fuente: Autor.

8.6.5 Módulo de gestión de evaluaciones

Este módulo permite a los docentes gestionar las evaluaciones que aplicará a sus

estudiantes. Las acciones que puede realizar son:

1. Creación de evaluaciones.

2. Visualización de evaluaciones.

3. Modificación de evaluaciones.

4. Eliminación de evaluaciones.

La siguiente figura muestra el formulario diligenciado, para la creación de una evaluación

en el aplicativo.

96

Figura 49. Ejemplo de formulario para creación de evaluaciones.

Fuente: Autor.

97

8.6.6 Módulo de presentación de evaluaciones

Este módulo permite a los estudiantes presentar evaluaciones disponibles en el aplicativo.

Las siguientes figuras ejemplifican la forma en que se presentan las preguntas mostradas

anteriormente a los estudiantes.

Figura 50. Ejemplo de pregunta de base común vista por un estudiante.

Fuente: Autor.

98

Figura 51. Ejemplo de pregunta de correlación vista por un estudiante.

Fuente: Autor.

Figura 52. Ventana emergente para indicar respuesta en preguntas de correlación.

Fuente: Autor.

99

Figura 53. Ejemplo de pregunta de opción múltiple vista por un estudiante.

Fuente: Autor.

Figura 54. Ejemplo de pregunta de ordenamiento vista por un estudiante.

Fuente: Autor.

100

Figura 55. Ejemplo de pregunta de verdadero o falso vista por un estudiante.

Fuente: Autor.

8.6.7 Módulo de resultados e informes

Este módulo permite a los docentes y estudiantes consultar los resultados de una

evaluación. Las acciones que pueden realizar son:

1. Consulta individual de resultados (Docentes y estudiantes).

2. Consulta grupal de resultados (Docentes).

Las siguientes figuras muestran los informes grupales e individuales de una evaluación.

101

Figura 56. Ejemplo de informe individual de resultados.

Fuente: Autor.

102

Figura 57. Ejemplo de informe grupal de resultados.

Fuente: Autor.

103

9. PRUEBA EN INSTITUCIÓN EDUCATIVA

En este proyecto se propuso la validación del prototipo generado mediante la realización

de una prueba en una institución educativa, con un grupo de docentes y estudiantes. La institución

en la que se llevó a cabo dicha experiencia fue el Colegio San Francisco de Asís I.E.D., institución

educativa oficial del distrito. En los siguientes apartados se describen las actividades realizadas

para llevar a buen término la prueba del prototipo en la institución.

9.1 TRÁMITES ANTE LA INSTITUCIÓN

La profesora Ana Cecilia Beltrán, miembro del cuerpo de docentes del Colegio San

Francisco de Asís, quien asesoró la generación del prototipo, realizó las gestiones iniciales

necesarias ante la institución educativa para:

1. Disponer de un espacio físico adecuado.

2. Disponer de los dispositivos a usar.

3. Disponer de un grupo de alumnos para aplicar el material de evaluación.

4. Permitir el acceso a la institución educativa.

La principal cuestión a resolver, antes de solicitar formalmente el ingreso a la institución,

fue la disposición de espacios físicos, dispositivos a usar y grupo de estudiantes para trabajar. Para

ello, se dialogó con el profesor Juan Carlos Muñoz, del área de tecnología, quien al conocer sobre

el proyecto manifestó su interés en participar de la prueba del proyecto y permitió el uso del aula

de informática que tiene asignada. Los dos profesores definieron los grupos de alumnos que iban

a participar en la prueba, teniendo en cuenta aspectos como horarios, número de estudiantes, etc.

Al haber garantizado los factores necesarios para llevar a cabo la experiencia, se hizo la

solicitud formal correspondiente a la institución, en cabeza del Dr. Dumer Antonio Pedraza, rector

de la institución. Como requisitos para dar el aval a la solicitud, se requirió la presentación de una

carta expedida por la Universidad Distrital Francisco José de Caldas, una carta a título personal

junto al cronograma de actividades a realizar, informar a los padres de familia y pedir su

autorización para la participación de sus hijos en las actividades, así como un informe final, que

resalte qué beneficios obtuvo la institución al realizar dichas pruebas. A continuación se describe

cómo se cumplieron las solicitudes.

104

Tabla 41. Trámites y documentos realizados a la institución educativa.

Trámite Descripción Soporte

Carta institucional

Se entregó carta expedida por la Universidad Distrital

Francisco José de Caldas, que fue solicitada por el profesor

Julio Barón al Centro de Relaciones Interinstitucionales de

la Universidad Distrital Francisco José de Caldas – CERI.

Anexo 5

Carta personal

Se entregó carta a título personal, que expresa los

compromisos asumidos con la institución y la exonera de

cualquier responsabilidad ante eventos relacionados con

bienestar, integridad, seguridad, etc. Asimismo, se entregó el

cronograma de actividades solicitado.

Anexo 6

Autorización a

padres de familia

Los profesores Ana Cecilia Beltrán y Juan Carlos Muñoz

realizaron la creación, envío y recepción de la autorización a

cada uno de los padres de familia y/o acudientes de los

estudiantes que participaron en las pruebas.

Anexo 7

Informe final

Se entregó el informe final a la institución, una vez

realizados los análisis correspondientes a los resultados

obtenidos en la experiencia. Anexo 8

Fuente: Autor.

9.2 CRONOGRAMA DE ACTIVIDADES

Inicialmente la prueba fue concebida como una experiencia de dos etapas: la primera,

donde el docente crearía la evaluación; la segunda, donde se aplicaría a los estudiantes. Por

petición de los profesores, se diseñó una sesión de contextualización con estudiantes, donde se

presentó el aplicativo. Con los docentes se trabajó de forma personalizada, de acuerdo a su

disponibilidad horaria. El cronograma presentado a la institución, ver Anexo 6, fue diseñado con

los profesores. No obstante, las sesiones para aplicar sus evaluaciones coincidieron con la semana

de receso escolar, por lo que fueron pospuestas 8 días, realizándose los días 20 y 21 de octubre.

9.3 SESIONES DE CONTEXTUALIZACIÓN

Estas sesiones fueron espacios donde se presentó a docentes y estudiantes el aplicativo, que

permitieron conocer el entorno de trabajo y determinar el número de usuarios, detectar fallos y/o

aspectos a mejorar en el aplicativo. Asimismo, fueron sesiones que permitieron recopilar las

primeras impresiones de estudiantes y docentes. Los siguientes apartados describen el entorno de

trabajo en el que se llevó a cabo esta experiencia, así como las particularidades de cada una de las

sesiones.

105

9.3.1 Entorno de trabajo

El siguiente es el entorno de trabajo usado en la sesión de contextualización.

Figura 58. Entorno de trabajo para la sesión de contextualización.

Fuente: Autor.

En el entorno se tenía un computador portátil, que actuó como servidor, que contaba con

NodeJS (versión 4.4.5) y MongoDB (versión 3.0.12), ejecutándose en un sistema operativo

Windows 8.1. El otro equipo portátil fue usado por el profesor, usando como navegador Google

Chrome, con sistema operativo Windows 7. Los estudiantes realizaron la experiencia con tabletas,

que contaban con sistema operativo Windows 8.1, usando Google Chrome como navegador. Las

características de hardware son presentadas a continuación.

Tabla 42. Características técnicas de servidor y clientes en entorno local.

Elemento Portátil (Servidor) Tabletas (Clientes)

Procesador Inter Core i5, 1.6GHz – 2.3Ghz Intel Atom, 1.33 GHz

Memoria RAM 6 GB 1 GB

Sistema operativo Windows 8.1 Single Language Windows 8.1 con Bing

Conectividad Cable Inalámbrica

Fuente: Autor.

106

9.3.2 Contextualización con docentes

Esta sesión de contextualización se llevó a cabo con cada uno de los profesores, sin la

presencia de estudiantes, realizando las siguientes actividades:

1. Socialización del proyecto.

2. Registro en el sistema.

3. Gestión de elementos multimedia.

4. Gestión de preguntas.

5. Gestión de evaluaciones.

6. Presentación de evaluaciones por parte de los estudiantes.

7. Gestión de calificaciones.

El trabajo realizado con los docentes se llevó a cabo en el computador cliente y en el

servidor. Los docentes operaron el equipo en todo momento, excepto para la presentación de la

evaluación, donde se contó con una tableta y se les mostró cómo era el procedimiento para

presentar evaluaciones y consultar resultados por parte de los estudiantes. Al culminar las

actividades, los docentes plantearon algunas inquietudes.

Tabla 43. Inquietudes de los docentes respecto al aplicativo.

Inquietud Respuesta

¿Se posee algún mecanismo que restrinja

la navegación libre de la evaluación, para

evitar fraude?

Se estudió el requerimiento y las sugerencias de

los docentes, implementándose el requerimiento

para la sesión de contextualización con

estudiantes.

¿Se permite exportar el listado de las

notas a hojas de cálculo?

Se estudió el requerimiento solicitado y se

implementó para la sesión de prueba específica.

¿Existe un mecanismo de ayuda a los

usuarios para ser accedido en el

momento de usar el aplicativo?

Se estudió el requerimiento y se implementó

para la sesión de prueba específica.

Fuente: Autor.

9.3.3 Contextualización con estudiantes

La sesión de contextualización con estudiantes fue realizada en cada uno de los cursos a

trabajar. El primer curso con el que se realizó la sesión fue 604, con 19 estudiantes; el segundo fue

704, que contó con 24 estudiantes. Con cada curso se realizaron las siguientes actividades:

107

1. Socialización del proyecto.

2. Registro en el sistema.

3. Presentación de prueba tutorial.

4. Consulta de resultados para prueba tutorial.

5. Presentación de evaluación ¿Qué conozco de Bogotá?

6. Consulta de resultados para la evaluación ¿Qué conozco de Bogotá?

7. Encuesta sobre el aplicativo, hecha en el software.

Para el trabajo realizado en estas sesiones, cada estudiante contó con una tableta,

permitiéndoles tener una experiencia personal y continua. Asimismo, se hizo uso de video beam,

como apoyo visual para el trabajo con los estudiantes durante las cuatro primeras actividades

realizadas. Las siguientes secciones describen las particularidades de las sesiones realizadas con

cada uno de los cursos.

9.3.3.1 Sesión con curso 604

Esta sesión fue la primera vez que se usó el aplicativo en un entorno escolar y un número

significativo de usuarios (19 estudiantes, 1 profesor). Las actividades propuestas para esta sesión

fueron desarrolladas, según lo previsto. En el transcurso de la experiencia existieron dudas con

respecto al número de usuarios y el acceso a los elementos multimedia de las evaluaciones (audio

e imágenes), pero no se experimentaron fallas en esos aspectos, estableciendo una referencia del

funcionamiento del aplicativo.

Se detectó una falencia técnica, relacionada con la navegación de la evaluación, donde los

botones anterior y siguiente, cuya función es cambiar de pregunta, no fueron ligados a las

funcionalidades de retroceder y avanzar del navegador. Algunos estudiantes, de forma intuitiva

hicieron uso del botón retroceder del navegador, lo que generó algunos errores en la visualización

de la evaluación en sus tabletas, que fueron resueltos oportunamente.

Al culminar las actividades de evaluación propuestas, se aplicó a los estudiantes la

Encuesta # 1 para estudiantes, ver Anexo 11, obteniendo los siguientes resultados.

108

Tabla 44. Resultados de encuesta # 1 para estudiantes.

No. Preguntas Si % No % NR %

Sobre la presentación de evaluaciones

1 ¿Tuvo inconvenientes para iniciar la evaluación? 31,58 57,89 10,53

2 ¿Tuvo inconvenientes para navegar por la evaluación? 21,05 68,42 10,53

3 ¿Tuvo inconvenientes para resolver preguntas de correlación? 42,11 47,37 10,53

4 ¿Tuvo inconvenientes para resolver preguntas de opción

múltiple? 15,79 73,68 10,53

5 ¿Tuvo inconvenientes para resolver preguntas de ordenamiento? 36,84 52,63 10,53

6 ¿Tuvo inconvenientes para resolver preguntas de verdadero o

falso? 26,32 63,16 10,53

7 ¿Tuvo inconvenientes para finalizar la evaluación? 15,79 73,68 10,53

Sobre la consulta de resultados

8 ¿Tuvo inconvenientes para interpretar los resultados generales de

la evaluación? 15,79 73,68 10,53

9 ¿Tuvo inconvenientes para interpretar los resultados detallados de

cada pregunta? 26,32 63,16 10,53

Sobre la experiencia

10 ¿Tuvo dificultades para manipular el dispositivo usado en la

prueba? 26,32 63,16 10,53

11 Antes de esta experiencia, ¿Había sido evaluado usando algún

aplicativo (software)? 21,05 68,42 10,53

12 ¿La explicación proporcionada fue suficiente para comprender el

funcionamiento del aplicativo y poder usarlo? 47,37 42,11 10,53

Fuente: Autor.

De acuerdo a los resultados de la encuesta, así como algunas impresiones de los estudiantes,

la sesión se catalogada como positiva, teniendo en cuenta que el producto probado es nuevo y que

la mayoría de los estudiantes no habían sido evaluados de esta forma, siendo una experiencia

innovadora. Los estudiantes en términos generales comprendieron el propósito del software y la

aplicación de los eventos de arrastrar y soltar para resolver las evaluaciones, al igual que la consulta

de resultados y su retroalimentación.

Analizar la pertinencia de los eventos de arrastrar y soltar fue uno de los principales

objetivos de la sesión. Las preguntas de verdadero o falso y opción múltiple fueron comprendidas

por la mayoría de los estudiantes, mientras que las de ordenamiento y correlación les representaron

un mayor desafío. Una explicación para estos resultados es el amplio uso de las preguntas de

verdadero o falso y opción múltiple en la prueba escrita tradicional, así como la forma en que se

presentan las preguntas de ordenamiento y correlación en el software.

109

9.3.3.2 Sesión con curso 704

La sesión con el curso 604 sentó un precedente de las capacidades de funcionamiento del

aplicativo, por lo que existía un ambiente de confianza para la segunda sesión de contextualización,

caracterizada por un número mayor de usuarios (24 estudiantes, 1 docente). La experiencia

comenzó sin contratiempos, se realizó la prueba tutorial sin presentarse inconveniente alguno.

Seguidamente, se inició la prueba ¿Qué tanto conozco Bogotá?, donde los estudiantes iniciaron su

trabajo autónomo con el aplicativo.

Esta sesión inició a las 4:30 p.m., cuando se puso en funcionamiento el servidor, y se tenía

prevista su finalización hacia las 6:00 p.m. La última prueba empezó hacia las 5:20 p.m. Sobre las

5:50 p.m. los estudiantes manifestaron inconvenientes para navegar por la evaluación, demoras en

el cargue de páginas, la no reproducción del audio propuesto y problemas para finalizar la

evaluación. Estas dificultades continuaron hasta el punto que el servidor se saturó y dejó de recibir

y responder peticiones.

Se dio por concluida la experiencia en ese punto, por finalización de jornada escolar.

Mientras se guardaban los equipos, se realizó la encuesta verbalmente, interrogando a los

estudiantes sobre las dificultades para responder cada uno de los tipos de preguntas, que era uno

de los aspectos más relevantes para validar el aplicativo. El número de estudiantes que

manifestaron dificultades para comprender los mecanismos oscila entre 3 y 4 por pregunta, es

decir, el 16% del curso aproximadamente.

Luego de realizar el análisis de los hechos ocurridos en la sesión, se identificaron algunas

posibles causas que influyeron, en mayor o menor medida, al colapso del aplicativo. Algunas de

ellas son:

1. El número de usuarios que trabajaron simultáneamente en el aplicativo. Se tenía una

referencia de 20 usuarios, la prueba tuvo 25 usuarios.

2. El aplicativo estaba ejecutándose en un equipo portátil, que si bien es cierto tiene

buenas características de hardware, es un equipo personal, no un servidor.

3. Las tabletas estaban conectadas a la red de forma inalámbrica, factor que puede influir

en las velocidades de envío y recepción de información.

110

4. La red del colegio está compuesta por otras salas de sistemas, que cuentan con un

número significativo de equipos, y pudieron estar en uso durante la experiencia.

Igualmente, está el área administrativa de la institución.

5. Una falencia detectada en la finalización de la evaluación, donde no se deshabilitaba el

botón de finalizar la evaluación, una vez enviada la petición al servidor. Al demorarse

el servidor en responder la petición, los estudiantes enviaron más peticiones al servidor,

creando tráfico innecesario.

En las causas anteriormente listadas no se evidencia ningún error relacionado a la

codificación del mismo. Se revisó la bitácora de peticiones y respuestas, que se va alimentando

durante la ejecución del aplicativo, y no se detectó error alguno que detuviese la ejecución del

servidor. Por ello, se asegura que el error está relacionado al número de usuarios y otros factores,

como pueden serlo en la infraestructura o la falencia expuesta en el numeral 5, que si bien es cierto

no genera errores en el aplicativo, produce consecuencias no deseadas como el tráfico innecesario

en la red.

9.4 SESIONES DE PRUEBA ESPECÍFICA

Finalizadas las sesiones de contextualización, inició la semana de receso escolar. Este

tiempo fue aprovechado para estudiar las dificultades evidenciadas y tomar las medidas pertinentes

para ofrecer, a docentes y estudiantes, un aplicativo estable y funcional, en el que pudiesen llevar

a cabo las evaluaciones propuestas, sin inconvenientes técnicos. Los siguientes apartados

describen los cambios realizados al entorno de trabajo, así como la experiencia de la prueba

específica en cada uno de los cursos.

9.4.1 Entorno de trabajo

Luego de las sesiones de contextualización se hizo evidente realizar un cambio en el

entorno de trabajo propuesto, que permitiera contrarrestar las posibles limitantes del servidor en

cuanto a número de usuarios respecta. Por ello, aunque en los alcances del trabajo no se contempló

hacer el despliegue en la nube, se decidió buscar una alternativa para delegar la responsabilidad

de ejecución del aplicativo a un dispositivo que tenga las características adecuadas para ello, sin

incurrir en costos.

111

Dos alternativas para poner en funcionamiento el proyecto en la nube fueron Heroku

(Heroku, n.d.) y OpenShift (OpenShift, n.d.), sitios que ofrecen planes gratuitos para el despliegue

de aplicaciones construidos con varias tecnologías, entre ellas NodeJS. Adicional, se requería el

almacenamiento persistente de elementos multimedia, factor decisivo para descartar Heroku y

elegir OpenShift, ya que este último permite almacenar archivos en los servidores, que se

mantienen sin importar que se reinicie el servidor.

Otra cuestión a resolver, para desplegar el aplicativo en la nube, fue el manejo de bases de

datos MongoDB. Dentro de su portafolio de cartridges oficiales, OpenShift ofrece la

incorporación de MongoDB en su versión 2.4, la cual genera algunos inconvenientes en las

operaciones de actualización de información en el aplicativo desarrollado. Por ello se optó por el

servicio de mLab (mLab, n.d.), sitio que permite la creación y acceso en línea a bases de datos

MongoDB, en su versión 3.2.

La siguiente es la representación del entorno de trabajo para las siguientes sesiones.

Figura 59. Entorno de trabajo para la prueba específica.

Fuente: Autor.

Las características de hardware para el entorno de trabajo de la figura anterior se presentan

en la siguiente tabla. Las características del equipo servidor son las ofrecidas en el plan gratuito

del proveedor OpenShift.

112

Tabla 45. Características técnicas de servidor y clientes en el entorno de la nube.

Elemento OpenShift (Servidor) Tabletas (Clientes)

Procesador Intel Xeon E5-2670v2, 2.50GHz Intel Atom, 1.33 GHz

Memoria RAM 512 MB 1 GB

Sistema operativo Red Hat Linux Windows 8.1 con Bing

Conectividad Desconocido Inalámbrica

Fuente: Autor.

A continuación se muestra la consola de administración del aplicativo ofrecida por

OpenShift, resaltando el uso de NodeJS (versión 6.5.0), la dirección URL para acceder al

aplicativo (dp-danielfranco.rhcloud.com), entre otros.

Figura 60. Información consola OpenShift.

Fuente: Consola web de administración de aplicaciones (OpenShift, 2016a).

La siguiente figura muestra la consola de administración de bases de datos ofrecida por

mLab, encontrando información como la versión usada de MongoDB (versión 3.2.10).

Figura 61. Información consola mLab.

Fuente: Consola web de administración de bases de datos (mLab, 2016a).

113

9.4.2 Prueba específica con curso 604

Esta sesión se caracterizó por poner a prueba el aplicativo en un nuevo entorno de trabajo,

así como ser la primera vez que se aplicaba una evaluación diseñada por un docente, cuyos

resultados serían tenidos en cuenta dentro de un proceso de enseñanza – aprendizaje. Además, los

estudiantes tuvieron la semana de receso escolar, que afectó la continuidad de las actividades de

las pruebas realizadas en la institución, pudiendo no recordar lo aprendido en la sesión de

contextualización.

En la siguiente figura puede observarse a la profesora Ana Cecilia Beltrán en compañía de

los estudiantes del curso 604 (19 estudiantes), fotografía que fue tomada al culminar la sesión.

Figura 62. Participantes en primera sesión de prueba específica.

Fuente: Autor.

La evaluación aplicada consta de 7 preguntas, divididas en dos partes: una de 5 preguntas

basadas en un texto y otra de dos preguntas, basadas en un video, ver Anexo 14. Una actividad

realizada en todas las evaluaciones de la profesora es la lectura colectiva de los textos base, donde

ella lee en voz alta el texto, mientras los estudiantes siguen la lectura en sus hojas. En la siguiente

114

figura se aprecia a la profesora realizando la lectura en un computador portátil y a los estudiantes

siguiéndola, cada uno en sus tabletas.

Figura 63. Lectura colectiva de texto en la prueba específica con curso 604.

Fuente: Autor.

En la siguiente figura se aprecia al curso 604 realizando la evaluación, bajo la dirección de

la profesora, quien se encuentra brindando asesoría a uno de los estudiantes.

Figura 64. Vista panorámica de la prueba específica con curso 604.

Fuente: Autor.

115

Una vez finalizada la evaluación se generó el informe grupal de la evaluación, que puede

consultarse en el Anexo 15. A medida que los estudiantes iban finalizando la evaluación, tomaron

la Encuesta # 2 para estudiantes, ver Anexo 12.

9.4.2.1 Impresiones de los estudiantes respecto a la experiencia

Tabla 46. Resultados de encuesta # 2 para estudiantes.

No. Preguntas Si % No % NR %

Sobre la presentación de evaluaciones

1 ¿Tuvo inconvenientes para iniciar la evaluación? 21,05 73,68 5,26

2 ¿Tuvo inconvenientes para navegar por la evaluación? 5,26 89,47 5,26

3 ¿Tuvo inconvenientes para resolver preguntas de correlación? 0 0 0

4 ¿Tuvo inconvenientes para resolver preguntas de opción

múltiple? 21,05 73,68 5,26

5 ¿Tuvo inconvenientes para resolver preguntas de ordenamiento? 31,58 63,16 5,26

6 ¿Tuvo inconvenientes para resolver preguntas de verdadero o

falso? 21,05 73,68 5,26

7 ¿Tuvo inconvenientes para finalizar la evaluación? 5,26 89,47 5,26

Sobre la consulta de resultados

8 ¿Tuvo inconvenientes para interpretar los resultados generales de

la evaluación? 15,79 78,95 5,26

9 ¿Tuvo inconvenientes para interpretar los resultados detallados

de cada pregunta? 10,53 84,21 5,26

Sobre la experiencia

10 ¿Tuvo dificultades para manipular el dispositivo usado en la

prueba? 10,53 84,21 5,26

11 ¿Tuvo dificultades para recordar cómo usar el aplicativo? 5,26 89,47 5,26

12 ¿Le gustaría que el aplicativo se usara para realizar evaluaciones

en diferentes asignaturas? 84,21 10,53 5,26

13

¿Le gustaría que el aplicativo se usara para realizar evaluaciones

en espacios físicos diferentes al aula de clase (por ejemplo,

realizar una evaluación desde su casa, un día no escolar)?

84,21 10,53 5,26

Fuente: Autor.

Los datos anteriores, contrastados con la primera encuesta, evidencian en los estudiantes

recordación y dominio en el uso del aplicativo. Las dificultades manifestadas por los estudiantes

están más orientadas al aspecto pedagógico que al técnico, pues muchos tuvieron dudas sobre el

contenido de la evaluación. Asimismo, se observa el impacto positivo que tuvo el aplicativo en los

estudiantes, quienes mostraron interés en darle continuidad a esta experiencia y hacer uso del

aplicativo en otras asignaturas y en espacios diferentes al aula de clase.

116

Se realizaron algunas entrevistas a un grupo de estudiantes, indagando sobre los aspectos

positivos y negativos de la experiencia realizada, obteniendo así las siguientes impresiones.

Tabla 47. Impresiones de los estudiantes de 604 sobre la experiencia.

Estudiante Elementos positivos Elementos negativos

Frank Salazar Los eventos de arrastrar y soltar

como mecanismo de respuesta.

Tiempos de respuesta de las

tabletas a los eventos de arrastrar

y soltar

Gerson Gómez

Los eventos de arrastrar y soltar

como mecanismo innovador para

indicar las respuestas, observando

la evaluación de forma diferente.

Inconvenientes con la navegación

de la evaluación y tiempos de

respuesta de la tableta para cargar

la información.

María Paula Gómez

Los eventos de arrastrar y soltar

como mecanismo para indicar la

respuesta. La incorporación del

aplicativo en las evaluaciones de

otras asignaturas.

Ninguno.

Alejandra Conde

La experiencia permite vivir una

evaluación diferente, fuera de los

parámetros comunes. Además,

fue la primera experiencia de ese

tipo realizada.

En algunas ocasiones es

demorado comprender lo que hay

que hacer.

Alison Ramírez

La evaluación en el aplicativo es

innovadora y es mucho más

rápido el proceso que en papel, sin

tantos inconvenientes.

En algunas ocasiones hay

confusiones en lo que debe

hacerse y se requiere asesoría.

Andrés Vega

El trabajo en las tabletas es más

interactivo que el ejercicio de

escribir, con los eventos de

arrastrar y soltar.

Dificultades en la manipulación

del dispositivo a causa del modo

de interacción, por sudoración en

las manos.

Santiago Maldonado

El trabajo en las tabletas permite

aprender más que por medio del

cuaderno, y si existen dudas es

más fácil resolverlas en la tableta

que en el cuaderno, porque es un

ambiente más familiar.

Algunas demoras en los tiempos

de cargue de información en la

pantalla.

Angie Jiménez

La experiencia es algo diferente,

se aprendieron cosas como el

manejo de las tabletas, usar un

nuevo aplicativo para realizar

evaluaciones, y elementos que

sirven para toda situación en

general.

Dificultades para la navegación de

la evaluación. Confusión en las

indicaciones brindadas por el

aplicativo, que pudieron influir en

el desempeño de la evaluación.

Manuela García La experiencia es una forma

diferente de vivir la evaluación,

Algunas personas se cierran a la

oportunidad de una experiencia

117

además de ser una solución

amigable con el medio ambiente,

al evitar el uso de papel.

diferente a lo tradicional,

encasillando la actividad como

algo difícil o desagradable,

cuando en realidad no lo es.

Alexandra Villada

El aplicativo es una forma

diferente de realizar evaluaciones

y una experiencia innovadora,

amigable con el medio ambiente.

Algunas personas no observan lo

valioso e innovador del aplicativo

y la experiencia en general,

realizando el ejercicio sin

intención de participar.

Fuente: Autor.

En los testimonios anteriores puede verse el impacto positivo que generó la experiencia

realizada, tanto por el aplicativo usado como por el uso de las tabletas, que según manifiestan los

estudiantes no es muy frecuente. Los estudiantes conocieron perspectiva diferente del proceso de

evaluación, así como una forma innovadora de usar los recursos disponibles en su casa o la

institución, como apoyo en la realización de actividades de sus procesos de enseñanza –

aprendizaje. Los aspectos negativos mencionados permiten detectar falencias a nivel técnico y

pedagógico, abordados en las conclusiones.

9.4.2.2 Impresiones de la profesora respecto a la experiencia

Una vez culminada la experiencia, se solicitó a la profesora tomar la encuesta diseñada para

los docentes, ver Anexo 13, así como algunas impresiones, compartidas por medio escrito, sobre

la sesión realizada y el proyecto en general, obteniendo los siguientes resultados.

Tabla 48. Resultados encuesta aplicada a docente Ana Cecilia Beltrán.

No. Pregunta Si No

Sobre la galería

1 ¿Tuvo inconvenientes para gestionar elementos multimedia? X

2 ¿Es comprensible el mecanismo para gestionar elementos multimedia? X

Sobre las preguntas

3 ¿La información solicitada para las preguntas define adecuadamente su

intención? X

4 ¿El editor de texto incorporado es adecuado para dar formato a los diferentes

componentes las preguntas? X

5 ¿Tuvo inconvenientes para incorporar elementos multimedia en las

preguntas? X

6 ¿Tuvo inconvenientes para gestionar preguntas de base común? X

7 ¿Tuvo inconvenientes para gestionar preguntas de correlación? X

8 ¿Tuvo inconvenientes para gestionar preguntas de opción múltiple? X

118

9 ¿Tuvo inconvenientes para gestionar preguntas de ordenamiento? X

10 ¿Tuvo inconvenientes para gestionar preguntas de verdadero o falso? X

Sobre la evaluación

11 ¿La información solicitada define adecuadamente el instrumento de

evaluación? X

12 ¿Es adecuada la protección por código de las evaluaciones, como mecanismo

para restringir el acceso a cualquier estudiante? X

13 ¿Es adecuada la restricción para la consulta de resultados, como mecanismo

para evitar copia o fraude? X

14 ¿Es adecuada la restricción para la navegación de la evaluación, como

mecanismo para evitar copia o fraude? X

15 ¿Es apropiada la definición de logros y su asociación a las preguntas que

componen la evaluación? X

16 ¿Es apropiada la reutilización de preguntas, conformando así un banco o

colección de éstas? X

17 ¿Tuvo inconvenientes para gestionar logros dentro de las evaluaciones? X

18 ¿Tuvo inconvenientes para gestionar preguntas dentro de las evaluaciones? X

Sobre la calificación e informes

19 ¿Es adecuado el modelo de calificación (valoración) por número de

coincidencias? X

20 ¿Es comprensible el análisis grupal e individual de cada evaluación? X

21 ¿El análisis grupal e individual es significativo para su labor cotidiana? X

22 ¿Es adecuado el análisis por logros presentado, de acuerdo a enfoques como

la formación por competencias? X

23 ¿Es adecuada la comparación entre la respuesta del estudiante y la esperada,

como mecanismo de retroalimentación? X

Sobre la experiencia

24 Antes de esta experiencia ¿Había evaluado a sus estudiantes usando algún

aplicativo (software)? X

25 ¿Usaría este aplicativo, en futuras ocasiones, para llevar a cabo procesos de

evaluación? X

26 ¿Usaría este aplicativo para evaluar a sus estudiantes fuera del aula de clase

(por ejemplo, una evaluación desde casa, un día no escolar? X

Fuente: Autor.

De acuerdo a los resultados anteriores, se encuentra que la profesora tiene una percepción

positiva del aplicativo, considerándolo ayuda para su labor cotidiana, y se evidencia comprensión

y dominio en su manejo. De igual manera, manifiesta su interés en darle continuidad al uso del

mismo en sus procesos de evaluación, ya sea dentro o fuera del aula. Sobre la experiencia y el

proyecto en general, la profesora Ana Cecilia Beltrán dice:

Reconozco que en mi larga trayectoria como Docente de Básica secundaria he realizado

las evaluaciones escritas, generalmente las que corresponden al bimestre (obligatorias

119

según el Sistema Institucional de Evaluación Escolar SIEE), de una manera tradicional: en

papel y partir de un texto que guía al estudiante a comprender una lectura y con base en

ella responder unas preguntas, generalmente tipo ICFES: un enunciado para analizar y

cuatro opciones de respuesta, donde una es la correcta.

Por lo anterior, con relación a este aplicativo para hacer la evaluación, inicialmente, hubo

expectativa con relación a la forma en que podría funcionar el ejercicio de hacer una

evaluación utilizando la tecnología y en la manera en que se comportarían los estudiantes.

Recibir la orientación acerca de su funcionamiento, llamó mi atención al proponerme un

espacio que facilitaría el hacer y obtener los resultados de una pruebas, optimizando sobre

todo el tiempo y permitiéndome de manera inmediata tener un panorama sobre el estado

de aprobación de los estudiantes.

Utilizar este aplicativo y hacer el paso a paso de crear el contenido de la evaluación, fue un

ejercicio relativamente sencillo y me llevaba paralelamente a pensar en el estudiante, pues

así se le facilitaría mover respuestas y corregir las que fueran necesarias. Sería un momento

de comodidad para la mayoría, pues en su cotidianidad manejan o tiene cierto contacto con

celulares con pantalla táctil.

Con relación a la presentación de la prueba como tal, desde su inicio el estudiante se

concentró y, contadas excepciones, fueron desarrollando normalmente los puntos

propuestos. Tuvieron tiempo de hacer consideraciones con relación a sus respuestas. Como

era un ejercicio alrededor de la comprensión de lectura, hubo las normales dificultades que

suscitaron inquietudes en los estudiantes, las cuales se resolvieron en el momento,

permitiéndoles continuar en la actividad.

Relativamente, fue una actividad sencilla, en contenido y en el manejo de la tableta. En

general, se optimizó el tiempo. Lo mejor, que el aplicativo dio los resultados finales y en

seguida, se puede proceder a hacer la correspondiente retroalimentación.

9.4.2.3 Resultados de la experiencia desde el aspecto técnico

Desde el punto de vista técnico la experiencia fue positiva, no se presentaron errores que

impidieran la culminación de la evaluación a ningún estudiante. Se detectó un fallo, experimentado

por un único estudiante, donde el navegador se bloqueaba al momento de poner en pantalla

120

completa un video, cuando este está dentro de un modal o ventana emergente. Se prestó la

asistencia oportuna al estudiante para que continuara con su evaluación. Asimismo, se tomó nota

del evento como elemento a tratar.

El aplicativo tuvo un comportamiento estable, ligeramente mejor que el evidenciado en la

sesión de contextualización. Este caso de éxito fijó un referente en el funcionamiento del

aplicativo, donde 20 usuarios (19 estudiantes, 1 docente) trabajaron sin contratiempos y

consumieron un video de manera simultánea, sin presentar problemas en el cargue y reproducción

del mismo. Esto se atribuye a la conexión a internet de la institución, así como a la infraestructura

adecuada que posee OpenShift para desplegar los aplicativos alojados.

9.4.3 Primera sesión para prueba específica con curso 704

En consenso con el profesor Juan Carlos Muñoz, se decidió aplicar nuevamente la prueba

tutorial, ver Anexo 9, para recordar con los estudiantes las instrucciones dadas en la sesión de

contextualización, pues no hubo una buena experiencia en la sesión de contextualización.

Posteriormente se aplicaría su evaluación, que constaba de 13 preguntas y hacía uso de varias

imágenes, ver Anexo 16. La calificación obtenida por los estudiantes iba a tenerse en cuenta.

La sesión contó con 27 usuarios (26 estudiantes, 1 docente), dos estudiantes más que en la

sesión de contextualización, pero se tenía altas expectativas en el nuevo entorno de trabajo, que

poseía la capacidad para manejar un alto volumen de usuarios. Los estudiantes crearon sus usuarios

en el sistema y se dio inicio a la prueba tutorial, para explicar cada uno de los tipos de pregunta y

la manera en que se especificaba la respuesta. En el transcurso del tutorial los estudiantes

empezaron a manifestar la aparición de un error, como el mostrado en la siguiente figura.

Figura 65. Error obtenido durante en la sesión de prueba específica con curso 704.

Fuente: Autor.

121

Pese a existir un antecedente de fallo asociado al número de usuarios trabajando

simultáneamente en el aplicativo, existía un ambiente de incertidumbre en el funcionamiento del

aplicativo, pues se tenía conocimiento de un ataque cibernético en Estados Unidos (país donde fue

desplegado el aplicativo y la base de datos), que afectó el servicio de grandes compañías como

Twitter, Spotify y Netflix, ocurrido en horas de la mañana de ese día, 21 de octubre de 2016. Se

intentó acceder al servidor a través del protocolo SSH para verificar los logs, pero no fue posible.

Como primer plan de contingencia, se tenía previsto realizar la experiencia en el ambiente

de trabajo local, probado en las sesiones de contextualización. Con las fallas asociadas al número

de usuarios, se tenía planeado dividir el grupo en dos, para que 13 usuarios pudiesen trabajar

simultáneamente, número inferior al referente fijado con el curso 604. Un segundo plan de

contingencia consistía en la creación de una red local independiente, usando un router inalámbrico,

permitiendo así garantizar la conexión entre los clientes y el servidor.

Al implementar el primer plan de contingencia, se conectó el servidor a la red cableada y

los estudiantes ingresaron al aplicativo, pero ninguno reportó poder ingresar al mismo. Al ver esa

situación, se inició el diagnóstico del entorno local, se comprobó conectividad entre los

dispositivos clientes y servidor, sin obtener respuesta alguna. Por ello se decidió, como medida

alternativa, cambiar la conexión cableada por la inalámbrica, sin resultado alguno. El profesor

indagó en otras dependencias en la institución y constató que existían usuarios conectados a la red

local y experimentaron problemas.

Se implementó el segundo plan de contingencia, se puso en funcionamiento el router, que

tenía la configuración de fábrica, la cual permite conectar dispositivos de forma cableada e

inalámbrica y tener comunicación entre ellos sin restricciones. El servidor obtuvo su configuración

dinámica, al igual que un celular conectado inalámbricamente. Se puso en marcha el servidor y se

intentó acceder desde el celular, sin obtener respuesta alguna. Como alternativa se asignó una

dirección IP manual al servidor, se deshabilitó el firewall del sistema operativo, se conectó una

tableta a la red y se realizó pruebas de conectividad, sin obtener respuesta.

La configuración de red en el servidor informaba que la red era pública, configuración que

impide a los dispositivos conectados a una red local acceder a los aplicativos que corren con

NodeJS. Se intentó cambiar dicha configuración pero el sistema operativo ofrecía la opción

122

dispuesta para tal fin. Se cambió la conexión del servidor de cableada a inalámbrica, se intentó

realizar dicho cambio pero tampoco fue posible.

Agotadas las alternativas, la jornada escolar estaba próxima a culminar, por lo que se

decidió dar por terminada la experiencia y procedes a recoger las tabletas. De acuerdo con el

cronograma presentado al colegio, se había terminado el tiempo que fue autorizado para realizar

pruebas en la institución.

9.4.3.1 Análisis del problema técnico presentado con OpenShift

El 21 de octubre de 2016, Internet sufrió varios ataques de denegación de servicios

distribuidos (DDOS), que ocasionaron interrupciones en los servicios ofrecidos por un gran

número de compañías. Según lo reportado por agencias de noticias como CNN (CNN, 2016) y

(Reuters, 2016), la compañía Dyn fue el blanco de los ataques, cuyos servicios DNS son de gran

relevancia para direccionar el tráfico en internet. Asimismo, se reporta que Dyn se localiza en New

Hampshire, al este de los Estados Unidos, zona donde comenzaron a sentirse los efectos del ataque.

Dyn y OpenShift crearon una alianza desde el año 2011, que permite a usuarios de

OpenShift desplegar aplicaciones rápidamente y hacerlas accesibles desde cualquier parte del

mundo inmediatamente, gracias a los servicios DNS de alto nivel de Dyn (Dyn, 2011). De acuerdo

con un reporte publicado días después del ataque por Dyn (Hilton, 2016), fueron dos ataques “de

gran complejidad y magnitud” que sucedieron entre las 6 a.m. y 5 p.m. del 21 de octubre de 2016.

Esta es la primera evidencia que se tiene de la relación de los ataques cibernéticos y el fallo del

aplicativo durante la sesión con el curso 704.

De acuerdo con el sitio de internet SearchDataCenter.com (TechTarget, 2016), algunas

compañías y/o servicios que se vieron afectados con el ataque a Dyn fueron Twitter, Spotify,

Netflix, Heroku, Amazon Web Services, entre otros. Entre este listado se encuentra el servicio

Amazon Web Services, donde estaba alojado tanto el aplicativo como la base de datos MongoDB,

ver Figura 60 y Figura 61 respectivamente. En estas figuras puede constatarse que el aplicativo y

la base de datos estaban alojados en la infraestructura de la zona este de Amazon Web Services.

Esta es una segunda evidencia para relacionar los ataques y el fallo del aplicativo en la sesión

realizada.

123

En la siguiente figura puede observarse el reporte del estado del servicio de la plataforma

OpenShift (OpenShift, 2016b), que informa sobre los dos ataques, las acciones tomadas y el tiempo

en el que fueron mitigados. El segundo ataque registrado fue resuelto hacia las 6:30 p.m., lo que

evidencia que las sesión con el curso 704 trascurrió en condiciones anormales de funcionamiento.

Figura 66. Reporte de estado del servicio de OpenShift.

Fuente: Informe de estado del sistema (OpenShift, 2016b).

En la siguiente figura se muestra el reporte del estado de la plataforma mLab (mLab,

2016b), donde se informa de problemas en servicios como Amazon Web Services, que acceden a

las bases de datos que alojan, pero no presentan problemas en las bases de datos como tal.

Figura 67. Reporte de estado del servicio de mLab.

Fuente: Informe de estado del sistema (mLab, 2016b).

124

9.4.4 Segunda sesión para prueba específica con curso 704

Esta sesión adicional fue posible gracias al profesor Juan Carlos Muñoz, quien proporcionó

un espacio en su clase con el curso 704, el día 24 de octubre de 2016, luego de lo ocurrido en la

sesión del 21 de octubre. De acuerdo al análisis realizado de los sucesos que llevaron al fallo del

aplicativo, se decidió únicamente probar el aplicativo desplegado en la plataforma OpenShift. Esta

nueva sesión contó con 26 usuarios (25 estudiantes, 1 docente).

Se solicitó a los estudiantes ingresar al aplicativo e iniciar la evaluación diseñada por el

docente, pero de inmediato se reportaron errores en las tabletas como el mostrado en la Figura 65.

Se iniciaron los diagnósticos respectivos para determinar las causales de este fallo, se verificó la

conexión con la base de datos y el acceso al servidor, procedimientos exitosos. Por ello, se retomó

la teoría de un alto número de usuarios, por lo que se decidió realizar la evaluación en varias etapas.

Se reinició el servidor por medio de la consola web de OpenShift y se solicitó a un grupo

de 10 estudiantes iniciar la evaluación. Se empezó a hacer seguimiento a este grupo de estudiantes,

consultándoles cada cierto tiempo si tenían dificultades con el aplicativo desde el punto de vista

técnico. Al constatar que no había ocurrido error alguno, se solicitó a un grupo de 3 estudiantes

iniciar la evaluación, continuando con el seguimiento que se estaba realizando. Al poco tiempo,

dos estudiantes finalizaron la evaluación, se les solicitó salir del aplicativo para que otros

estudiantes tomaran la evaluación.

A ese instante se tenían usuarios trabajando y se había tenido un comportamiento estable

con 13 usuarios, por lo que se solicitó a otros dos estudiantes iniciar la prueba, pero transcurrido

cierto tiempo, empezaron a reportar el mismo error en sus tabletas. Se decidió reiniciar el servidor

desde la consola web, e iniciar el trabajo nuevamente con esos 13 estudiantes, quienes retomaron

la evaluación en el punto que ocurrió el fallo. No obstante, se presentó el mismo error en repetidas

ocasiones.

Una estudiante, de los 13 que estaban presentando la prueba en ese instante, indicó que ya

había contestado todas las preguntas y que lo único que le faltaba era finalizar la evaluación, por

lo que se inició un diagnóstico con la estudiante, solicitando a los otros 12 no volver a ingresar al

aplicativo hasta nuevo aviso. Se reinició el servidor por segunda vez, para luego solicitarle a la

estudiante entrar al aplicativo, iniciar la evaluación y finalizarla, pero se presentó nuevamente el

125

error. Se realizó este procedimiento en varias ocasiones y al ver esta constante, se decidió reiniciar

el servidor nuevamente, borrar los datos del progreso de la estudiante, quien debió iniciar su

evaluación de ceros. Asimismo, se solicitó a los otros 12 estudiantes retomar su evaluación en el

punto que la dejaron y a otros tres estudiantes, iniciar por primera vez la evaluación.

A ese punto, la sesión estaba próxima a terminar, por lo que se decidió dar por finalizada

la evaluación, permitiendo a los estudiantes que iniciaron la evaluación continuar hasta el último

momento, para que finalizaran la evaluación y poder así observar si se presentaba algún fallo. Si

bien es cierto que el entorno no falló más, si se evidenció gran demora en el cargue de la

información de la evaluación. Únicamente 7 estudiantes de los 16 que tomaron la evaluación

lograron finalizarla. El informe de resultados a nivel grupal puede observarse en el Anexo 17.

9.4.4.1 Impresiones de los estudiantes respecto a la experiencia

Debido a las problemáticas presentadas en las diferentes sesiones realizadas, no hubo lugar

para aplicar las encuestas diseñadas, ni para realizar entrevistas y recopilar evidencia fotográfica

y fílmica. La experiencia no permitió analizar el impacto del aplicativo en los estudiantes, pues se

trabajó bajo constantes fallos técnicos, dejándoles un sinsabor respecto al aplicativo. No obstante,

los estudiantes siempre estuvieron atentos a las indicaciones dadas, así como a participar en las

pruebas, mostrando cierto dominio en el manejo del dispositivo y del aplicativo, pues no

manifestaron mayores dudas en los instantes en que pudo usarse el aplicativo.

9.4.4.2 Impresiones del profesor respecto a la experiencia

A pesar de las dificultades e inconvenientes que tuvieron lugar en las experiencias

realizadas con el curso 704, bajo la dirección del profesor Juan Carlos Muñoz, era importante

poder contar con sus impresiones sobre las sesiones realizadas, así como del proyecto en general.

Para ello, se le solicitó amablemente tomar la encuesta diseñada para los docentes, ver Anexo 13,

así como algunos comentarios respecto al trabajo realizado. A continuación se presentan los

resultados de la encuesta y sus impresiones, que fueron compartidas por medio escrito.

Tabla 49. Resultados encuesta aplicada a docente Juan Carlos Muñoz.

No. Pregunta Si No

Sobre la galería

1 ¿Tuvo inconvenientes para gestionar elementos multimedia? X

126

2 ¿Es comprensible el mecanismo para gestionar elementos multimedia? X

Sobre las preguntas

3 ¿La información solicitada para las preguntas define adecuadamente su

intención? X

4 ¿El editor de texto incorporado es adecuado para dar formato a los diferentes

componentes las preguntas? X

5 ¿Tuvo inconvenientes para incorporar elementos multimedia en las

preguntas? X

6 ¿Tuvo inconvenientes para gestionar preguntas de base común? X

7 ¿Tuvo inconvenientes para gestionar preguntas de correlación? X

8 ¿Tuvo inconvenientes para gestionar preguntas de opción múltiple? X

9 ¿Tuvo inconvenientes para gestionar preguntas de ordenamiento? X

10 ¿Tuvo inconvenientes para gestionar preguntas de verdadero o falso? X

Sobre la evaluación

11 ¿La información solicitada define adecuadamente el instrumento de

evaluación? X

12 ¿Es adecuada la protección por código de las evaluaciones, como mecanismo

para restringir el acceso a cualquier estudiante? X

13 ¿Es adecuada la restricción para la consulta de resultados, como mecanismo

para evitar copia o fraude? X

14 ¿Es adecuada la restricción para la navegación de la evaluación, como

mecanismo para evitar copia o fraude? X

15 ¿Es apropiada la definición de logros y su asociación a las preguntas que

componen la evaluación? X

16 ¿Es apropiada la reutilización de preguntas, conformando así un banco o

colección de éstas? X

17 ¿Tuvo inconvenientes para gestionar logros dentro de las evaluaciones? X

18 ¿Tuvo inconvenientes para gestionar preguntas dentro de las evaluaciones? X

Sobre la calificación e informes

19 ¿Es adecuado el modelo de calificación (valoración) por número de

coincidencias? X

20 ¿Es comprensible el análisis grupal e individual de cada evaluación? X

21 ¿El análisis grupal e individual es significativo para su labor cotidiana? X

22 ¿Es adecuado el análisis por logros presentado, de acuerdo a enfoques como

la formación por competencias? X

23 ¿Es adecuada la comparación entre la respuesta del estudiante y la esperada,

como mecanismo de retroalimentación? X

Sobre la experiencia

24 Antes de esta experiencia ¿Había evaluado a sus estudiantes usando algún

aplicativo (software)? X

25 ¿Usaría este aplicativo, en futuras ocasiones, para llevar a cabo procesos de

evaluación? X

26 ¿Usaría este aplicativo para evaluar a sus estudiantes fuera del aula de clase

(por ejemplo, una evaluación desde casa, un día no escolar? X

Fuente: Autor.

127

Los resultados anteriores permiten concluir que el profesor tiene una buena percepción

sobre el aplicativo. Aunque tuvo ciertas dudas y dificultades sobre algunas funcionalidades, él

encuentra el apoyo que la herramienta puede darle en su labor cotidiana. Asimismo, manifiesta

interés en darle continuidad al uso del aplicativo en sus procesos de evaluación, ya sea dentro o

fuera del aula. Sobre la experiencia y el proyecto en general, el profesor Juan Carlos Muñoz

expresa:

Bogotá Octubre 30 de 2016

Buenas noches Daniel, en primer lugar felicitarle por el propósito del software creado. En

segundo lugar, la evaluación, y en particular la creación de pruebas y su posterior revisión,

exige gran cantidad de tiempo en nuestra labor, por eso considero que una gran ventaja del

uso del software radica justamente en el ahorro de tiempo, que podrá traducirse en mayor

atención a la retroalimentación de aquellos estudiantes con debilidades.

En adición a lo anterior, sugiero crear un manual de usuario en PDF, que pueda ser

consultado a través del mismo aplicativo, con ejemplos (¿podrían servir las preguntas de

las dos pruebas realizadas en el colegio?)

¿Qué posibilidad existe de crear un banco de preguntas y que al momento de aplicar la

prueba (decidiendo previamente el número de preguntas), las que salgan a cada estudiante

salgan de manera aleatoria?

Finalmente quiero desear éxitos en su labor profesional y agradecer el aporte a mi trabajo.

Con aprecio Juan Carlos.

Como respuesta a la sugerencia manifestada por el profesor, el manual de usuario fue

creado y puesto a disposición de los usuarios dentro del aplicativo. Dicho manual no fue

puesto a disposición, ya que uno de los objetivos de este proyecto era determinar la

facilidad que presentaba a los usuarios los mecanismos propuestos para usar y dominar el

aplicativo, sin necesidad de ayudas. Con respecto al mecanismo para la presentación de las

evaluaciones, se aborda este tema en la sección de trabajos futuros.

128

9.4.4.3 Resultados de la experiencia desde el aspecto técnico

Para determinar las causas de lo sucedido en la esta sesión, se revisó el log de eventos del

servidor, encontrando un error que detuvo, en repetidas ocasiones, la ejecución del aplicativo. La

siguiente figura muestra la traza de este error.

Figura 68. Error detectado en la segunda sesión de prueba específica con curso 704.

Fuente: Autor.

Las tres primeras líneas del error, resaltadas en color rojo, permiten determinar que ocurrió

en la ejecución de los procedimientos definidos para la calificación de la evaluación. Asimismo,

puede decirse que el error ocurrió en los intentos realizados para finalizar la evaluación de una

estudiante, pues el aplicativo se detuvo la misma cantidad de veces que se intentó finalizarla. En

la primera línea se indica que el error ocurrió al comparar la respuesta del estudiante con la definida

para la evaluación, en una de las preguntas de ordenamiento. No obstante, debe determinarse con

exactitud la causa de este error.

Las líneas siguientes a las resaltadas indican las librerías usadas para la recuperación de

información de la base de datos, sugiriendo una inconsistencia en la información de la evaluación

consultada. No obstante, al borrar el progreso de la estudiante, se permitió continuar con la

experiencia y el aplicativo no generó este problema al ejecutar los procedimientos para calificar la

evaluación de otros estudiantes. Por esto último, el error puede ser asociado a problemas en la

integridad de la estructura en la respuesta de la estudiante a una de las preguntas de ordenamiento,

que no puede ser estudiado más a fondo, pues con la información recopilada no puede determinarse

la causa exacta que ocasionó la alteración a dicha estructura.

129

10. CONCLUSIONES

El aplicativo generado permite realizar actividades de evaluación usando un instrumento

de propósito general, que estructura su contenido para interrogar al estudiante y obtener su

respuesta con la construcción de relaciones jerárquicas y asociativas, así como validaciones

y selecciones. Sin embargo, esta evaluación está dirigida a la obtención de resultados y no

al análisis del proceso realizado, restringiéndola a los niveles inferiores de los modelos

como la Taxonomía de Bloom y Pirámide de Miller, donde su ubicación exacta está

determinada por la forma en que el docente plantee los interrogantes.

El sistema de coincidencias es un mecanismo pertinente para automatizar la calificación

del instrumento de evaluación, ya que genera puntuaciones para cada una de las preguntas,

con base en el número de elementos correctos e incorrectos de las respuestas del estudiante.

El contraste realizado entre las respuestas correctas y las proporcionadas es un aspecto

importante para la retroalimentación de resultados, que da a conocer a los estudiantes sus

aciertos y fallos, mientras que para los docentes es una base para inferir información

relacionada con el proceso del estudiante.

La definición de logros para una evaluación, así como su asociación con las preguntas que

la conforman, es una estrategia implementada para la retroalimentación de resultados, que

cuantifica y categoriza el desempeño de los estudiantes en áreas o componentes que el

docente requiere analizar, basada en propuestas como la Taxonomía de Bloom o la

Pirámide de Miller. Esta información ayuda a determinar el grado en que el estudiante

domina los conceptos evaluados, así como dar indicios a los docentes para la toma de

decisiones respecto a los procesos de enseñanza – aprendizaje.

El carácter responsivo del aplicativo generado es adecuado para la presentación de los

contenidos al usuario, sin importar el tipo de dispositivo que use. Sin embargo, el

framework de maquetación elegido hace una clasificación de tamaños de pantalla

elemental, lo que ocasiona afectaciones en la disposición de elementos en algunos

dispositivos, como tabletas con pantallas son cuadradas. Desde el punto de vista técnico,

la experiencia del usuario puede verse afectada. Pedagógicamente, la disposición

incorrecta de elementos puede alterar el escenario de evaluación, confundir al usuario e

inducirlo al error.

130

Las experiencias llevadas a cabo en la institución permiten determinar que el uso de eventos

de arrastrar y soltar, como mecanismos de interacción con el instrumento de evaluación, es

el factor diferenciador del producto generado. Estos eventos son de mayor significancia

para los estudiantes, pues manifestaron preferencias por la construcción de respuestas con

el movimiento de elementos a través de la pantalla, a realizar procesos de escritura en papel.

Para los docentes, estos eventos juegan un papel secundario en el uso del aplicativo, pues

predominan las interacciones sencillas con el teclado y el ratón.

La construcción del aplicativo propuesto en un ambiente web responsivo permitió realizar

las experiencias en el Colegio San Francisco de Asís IED, cuyos dispositivos cuentan con

sistemas operativos Windows. Si este proyecto se hubiera desarrollado como aplicativo

nativo para Android, sistema operativo de mayor presencia en el mercado, se hubiese

excluido no solo a esta institución, sino a once colegios de la localidad Los Mártires, que

cuentan con recursos similares1 y posiblemente a las instituciones educativas distritales. Se

presume que muchas de las instituciones educativas públicas del país cuentan con

dispositivos de características similares, teniendo en cuenta los procesos licitatorios y

convenios interinstitucionales que les suministran estos recursos.

El despliegue de los aplicativos web en la nube es una solución oportuna para ambientes

escolares cuya infraestructura es administrada por terceros, pues la instalación y puesta en

marcha de software requiere la realización de toda una serie de trámites, que pueden tomar

un tiempo considerable, además de estar sujeta a factores como el licenciamiento de

software, dependencias de hardware y software, entre otros. No obstante, un requerimiento

necesario para su uso es tener una conexión a Internet adecuada, que garantice el trabajo

simultáneo de un alto número de usuarios.

1 PROYECTO ‘USO PEDAGÓGICO DE TABLETS’ EN LOS MÁRTIRES ES TODO UN ÉXITO.

Tomado de http://www.educacionbogota.edu.co/es/sitios-de-interes/nuestros-sitios/agencia-de-medios/noticias-

institucionales/con-exito-fueron-presentados-primeros-resultados-del-proyecto-uso-pedagogico-de-las-tablets

131

11. TRABAJOS FUTUROS

El producto generado incorpora un instrumento de evaluación genérico para realizar

actividades de evaluación en cualquier dominio de conocimiento. Sin embargo, su aplicación se

restringe por su incapacidad para describir temáticas específicas de áreas como matemáticas,

química, música, geografía, entre otras. Se plantea la posibilidad de incorporar nuevos tipos de

preguntas, cuya estructura especifique elementos concretos como ecuaciones y operaciones

matemáticas, ecuaciones químicas, composiciones musicales, mapas geográficos, entre otros. Esto

permite aplicar evaluaciones en niveles superiores del conocimiento, según las propuestas de los

modelos como Taxonomía de Bloom y Pirámide de Miller.

El uso de multimedia como apoyo a las actividades de evaluación es incorporado en el

aplicativo generado. Elementos de tipo Audio, Texto y Video fueron pertinentes y su manipulación

no representó dificultades a los usuarios. Por otro lado, el uso de imágenes se vio afectado con

respecto al tamaño de pantalla, generándose dificultades en su visualización y comprensión. Se

hace necesario la implementación de mecanismos que muestren al estudiante adecuadamente las

imágenes, según el dispositivo que use. Una alternativa es el uso de imágenes responsivas, que

permite asociar una imagen a un tamaño de pantalla. Otra, es la incorporación de imágenes

vectorizadas, ya que no pierden su calidad a pesar del tamaño.

Con respecto a la solicitud realizada por el profesor Juan Carlos Muñoz, se plantea como

trabajo futuro la incorporar nuevos modos de presentar la evaluación a los estudiantes, como por

ejemplo la selección aleatoria de un subconjunto de preguntas, del conjunto total de preguntas que

el docente proponga para una evaluación. De igual forma, se planeta la presentación en desorden

de las preguntas a cada uno de estudiantes, como mecanismo para diversificar la evaluación y

evitar asuntos relacionados con fraude o copia.

132

12. BIBLIOGRAFÍA

Anderson, L. W., Krathwohl, D. R., Airasian, P. W., Cruikshank, K. A., Mayer, R. E., Pintrich, P.

R., … Wittrock, M. C. (2001). A Taxonomy for Learning, Teaching, and Assessing: A revision

of Bloom’s Taxonomy of Educational Objectives.

Ausubel, D. P. (1980). Psicología Educativa - Un punto de vista cognoscitivo.

Belloch, C. (2012). Las Tecnologías de la Información y Comunicación en el Aprendizaje. Unidad

de Tecnología Educativa (UTE) de La Universidad de Valencia. Retrieved from

http://www.uv.es/bellochc/pedagogia/EVA1.pdf

Belloch, C. (2013). Teleformación. Unidad de Tecnología Educativa (UTE) de La Universidad de

Valencia. Retrieved from http://www.uv.es/bellochc/pedagogia/EVA2.pdf

Blackboard. (n.d.). Question Types - Blackboard Help. Retrieved March 14, 2016, from https://en-

us.help.blackboard.com/Learn/9.1_2014_04/Instructor/110_Tests_Surveys_Pools/100_Ques

tion_Types

Bloom, B. S., Engelhart, M. D., Furst, E. J., Hill, W. H., & Krathwohl, D. R. (1956). Taxonomy of

educational objectives. HandBook 1: The Cognitive Domain. New York, NY: Longman.

Bootstrap. (n.d.). Bootstrap. Retrieved March 24, 2016, from http://getbootstrap.com/

Boronczyk, T., Naramore, E., Gerner, J., Scouarnec, Y. Le, Stolz, J., & Glass, M. K. (2009).

Beginning PHP6, Apache, MySQL Development. Indianapolis, IN: Wiley Publishing Inc.

BSON. (n.d.). BSON - Binary JSON. Retrieved October 31, 2016, from http://bsonspec.org/

Carballo, S. (1978). Fases del Proceso Enseñanza - Aprendizaje. Revista Educación, 2(2), 8.

Retrieved from http://www.revistas.ucr.ac.cr/index.php/educacion/issue/view/1841

Chodorow, K. (2013). MongoDB. The Definitive Guide. (A. Spencer, Ed.) (2nd ed.). Sebastopol

CA: O’Reilly Media Inc. http://doi.org/10.1017/CBO9781107415324.004

CNN. (2016). Un ciberataque tumba sitios populares de internet como Reddit, Twitter y Netflix |

CNNEspañol.com. Retrieved October 21, 2016, from

http://cnnespanol.cnn.com/2016/10/21/esta-seria-la-razon-por-la-que-twitter-reddit-y-

133

netflix-estan-caidos/#0

Cuevas, L., Rocha, V., Casco, R., & Martínez, M. (2011). Punto de encuentro entre

constructivismo y competencias. Medigraphic, 5–8. Retrieved from

http://medigraphic.com/pdfs/aapaunam/pa-2011/pa111b.pdf

Dockeos. (2014). Produce tests: 29 types of questions possible with Dokeos. Retrieved from

http://www.dokeos.com/produce-tests-29-types-questions-possible-dokeos/

Durante, E. (2006). Algunos métodos de evaluación de las competencias: Escalando la pirámide

de Miller. Educación Medica, 26(2), 55–61. Retrieved from

http://www.aspefam.org.pe/intranet/CEDOSA/metodo de evaluacion minicex.pdf

Dyn. (2011). Tipping The Cap: Why Dyn Helps Power Red Hat’s OpenShift. Retrieved from

http://dyn.com/wp-content/uploads/2011/07/CS034_Red-Hat.pdf

Garrido, A. (n.d.). Crear cuestionarios | Edmodo. Redes sociales para el aula. Retrieved April 1,

2016, from http://edmodo.antoniogarrido.es/crear_cuestionarios.html

Google. (n.d.-a). AngularJS. Retrieved March 26, 2016, from https://angularjs.org/

Google. (n.d.-b). Introduction - Material design - Material design guidelines. Retrieved November

2, 2016, from https://material.google.com/#

Gracia, H., & Yanes, O. (2012). Bases de datos NoSQL. Revista Telem@tica, 11(3), 21–33.

Retrieved from http://revistatelematica.cujae.edu.cu/index.php/tele

Heroku. (n.d.). Cloud Application Platform | Heroku. Retrieved October 29, 2016, from

https://www.heroku.com/

Hilton, S. (2016). Dyn Analysis Summary Of Friday October 21 Attack | Dyn Blog. Retrieved

October 26, 2016, from http://dyn.com/blog/dyn-analysis-summary-of-friday-october-21-

attack/

Johnson, M. (n.d.). Testmoz - The Test Generator. Retrieved from https://testmoz.com/

jQuery Foundation. (n.d.). jQuery. Retrieved November 2, 2016, from https://jquery.com/

JSON. (n.d.-a). JSON. Retrieved March 26, 2016, from http://www.json.org/

134

JSON. (n.d.-b). JSON: The Fat-Free Alternative to XML. Retrieved November 2, 2016, from

http://www.json.org/xml.html

LePage, P. (2016). Responsive Web Design Patterns. Retrieved December 5, 2016, from

https://developers.google.com/web/fundamentals/design-and-ui/responsive/patterns?hl=en-

419#layout_shifter

Lionbridge. (2012). Mobile Web Apps vs. Mobile Native Apps : How to Make the Right Choice,

13. Retrieved from http://www.lionbridge.com/files/2012/11/Lionbridge-

WP_MobileApps2.pdf

López, J. C. (2008). La Taxonomía de Bloom y sus dos Actualizaciones. Retrieved February 26,

2016, from http://www.eduteka.org/articulos/TaxonomiaBloomCuadro

López, J. C. (2015). SAMR, modelo para integrar las TIC en procesos educativos. Retrieved

January 20, 2016, from http://www.eduteka.org/samr.php

Manríquez, L. (2012). ¿Evaluación en competencias? Estudios Pedagógicos XXXVIII, No, 1, 353–

366. http://doi.org/10.4067/S0718-07052012000100022

Marcotte, E. (2011). Responsive Web Design. (M. Brown, Ed.), Internetdocument. New York, NY:

Jeffrey Zeldman. http://doi.org/10.11635/2319-9954/1/1/18

Materialize. (n.d.). About - Materialize. Retrieved November 2, 2016, from

http://materializecss.com/about.html

Mejía, A., Cruz, J., & Osmán, E. (2014). La computadora como medio de enseñanza en las escuelas

multigrado. Innovación Tecnológica, 20(3), 1–11. Retrieved from

http://innovaciontec.idict.cu/innovacion/article/download/379/381

MEN. (2007). Plan Nacional Decenal de Educación. Retrieved from

http://www.plandecenal.edu.co/html/1726/w3-article-166057.html

Miller, G. E. (1990). The assessment of Clinical Skills/Competence/Performance. Academic

Medicine, 9(65), 63–67.

mLab. (n.d.). MongoDB Hosting: Database-as-a-Service by mLab. Retrieved October 29, 2016,

from https://mlab.com/

135

mLab. (2016a). mLab: Cloud-hosted MongoDB. Retrieved October 28, 2016, from

https://mlab.com/home?newLogin=1

mLab. (2016b). MongoLab Status. Retrieved October 28, 2016, from

http://status.mlab.com/archive/

MongoDB. (n.d.). MongoDB. Retrieved March 26, 2016, from https://www.mongodb.org/

Moodle. (n.d.-a). Mount Orange School: Choose a role. Retrieved from

http://school.demo.moodle.net/mod/page/view.php?id=44

Moodle. (n.d.-b). Question types - MoodleDocs. Retrieved March 14, 2016, from

https://docs.moodle.org/30/en/Question_types

Moreno, P. M. (2002). Diseño y Planificación del Aprendizaje. Curso de Formación de

formadores, 59. Retrieved from http://biblio.colmex.mx/curso_formacion_formadores/NdC

de Fdf.pdf

Mozilla Developer Network. (n.d.). JavaScript | MDN. Retrieved from

https://developer.mozilla.org/en-US/docs/Web/JavaScript

MSCHE. (2007). Student Learning Assessment. Options and Resources. Learning. Middle States

Commission on Higher Education. Retrieved from http://depts.washington.edu/learning/

Muñoz, A. (2013). Introducción a NodeJS a través de Koans. Retrieved from

http://nodejskoans.com/

Node.js Foundation. (n.d.). Node.js. Retrieved March 26, 2016, from https://nodejs.org/en/

OpenShift. (n.d.). OpenShift: PaaS by Red Hat, Built on Docker and Kubernetes. Retrieved

October 29, 2016, from https://www.openshift.com/

OpenShift. (2016a). dp | OpenShift Online by Red Hat. Retrieved October 21, 2016, from

https://openshift.redhat.com/app/console/application/58005b337628e10b8c0000b6-dp

OpenShift. (2016b). OpenShift Online Status. Retrieved October 22, 2016, from

http://status.openshift.com/

Perunena, L., & Moráguez, M. (2013). Perurena Cancio. Revista Cubana de Información En

136

Ciencias de La Salud, 24. Retrieved from

http://www.acimed.sld.cu/index.php/acimed/rt/printerFriendly/405/306

Piedrahita, F., & López, J. C. (2003). MITICA: Modelo para Integrar las TIC al Currículo Escolar.

Retrieved January 12, 2016, from http://www.eduteka.org/modulos/8/234/132/1

ProProfs. (n.d.). ProProfs - Knowledge Management Software. Retrieved from

http://www.proprofs.com/

Puentedura, R. (2006). Transformation, Technology, and Education. Retrieved January 20, 2016,

from http://hippasus.com/resources/tte/

QuestBase. (n.d.). QuestBase. Retrieved from http://www.questbase.com/

Reuters. (2016). Cyber attacks disrupt PayPal, Twitter, other sites | Reuters. Retrieved October 21,

2016, from http://www.reuters.com/article/us-usa-cyber-idUSKCN12L1ME

Rosales, M. M. (2014). Proceso evaluativo: evaluación sumativa, evaluación formativa y

Assesment su impacto en la educación actual. In Congreso Iberoamericano de Ciencia,

Tecnología, Innovación y Educación (pp. 1–13). Retrieved from

http://www.oei.es/congreso2014/memoriactei/662.pdf

Sakai. (n.d.-a). How do I submit an assessment (i.e. test or quiz)? Retrieved from

http://sakai.screenstepslive.com/s/sakai_help/m/50750/l/510318-how-do-students-submit-

an-assessment-i-e-test-or-quiz?id=510318-how-do-students-submit-an-assessment-i-e-test-

or-quiz

Sakai. (n.d.-b). Tests & Quizzes. Retrieved March 14, 2016, from

https://sakai.rutgers.edu/helpdocs/tests.html

Salinas, M. I. (2011). Entornos virtuales de aprendizaje en la escuela: tipos, modelo didáctico y

rol del docente. Retrieved from

http://www.uca.edu.ar/uca/common/grupo82/files/educacion-EVA-en-la-escuela_web-

Depto.pdf

Sanchez, J. (2004). Bases constructivistas para la itegración de TICs. Revista Enfoques

Educacionales, 6(1), 75–89. Retrieved from

137

http://www.facso.uchile.cl/publicaciones/enfoques/08/Sanchez_Ilabaca.pdf

Schoology. (n.d.). Test/Quiz Question Types – Schoology Support. Retrieved March 14, 2016,

from https://support.schoology.com/hc/en-us/articles/205271688-Test-Quiz-Question-Types

Schwaber, K., & Sutherland, J. (2013). La Guía de Scrum. Retrieved from

http://www.scrumguides.org/docs/scrumguide/v1/Scrum-Guide-ES.pdf#zoom=100

SEP. (2012). Las estrategias y los instrumentos de evaluación desde el enfoque formativo.

Herramientas para la evaluación en educación básica (Vol. 4). México.

http://doi.org/10.1017/CBO9781107415324.004

Shepherd, E., & Godwin, J. (2004). Assessments Through the Learning Process. Retrieved from

http://niu.edu/testing/_pdf/assessments_through_the_learning_process.pdf

Silberschatz, A., Korth, H. F., & Sudarshan, S. (2011). Database System Concepts - 6th. ed.

Database (6th ed., Vol. 4). New York, NY: McGraw-Hill.

http://doi.org/10.1145/253671.253760

Solis, C. (2015). Manual del Guerrero ANGULARJS. Retrieved from

http://manualdelguerrero.com/

TechTarget. (2016). Ataques a la corporación Dyn destacan la vulnerabilidad de la infraestructura

mundial de internet. Retrieved October 24, 2016, from

http://searchdatacenter.techtarget.com/es/cronica/Los-ataques-a-la-corporacion-Dyn-

destacan-la-vulnerabilidad-de-la-infraestructura-mundial-de-interne

Tobón, S. (2006). Aspectos basicos de la formacion basada en competencias. Talca: Proyecto

Mesesup, 1–16. Retrieved from

http://www.urosario.edu.co/CGTIC/Documentos/aspectos_basicos_formacion_basada_com

petencias.pdf

Veloz, A. E. (2016). De la interfaz del usuario al responsive web design. Revista AUC, 0(37), 59–

66. Retrieved from http://www.auc-ucsg.com/index.php/auc/article/view/18

W3C. (n.d.-a). Extensible Markup Language (XML). http://doi.org/2016-11-02

W3C. (n.d.-b). W3C HTML. Retrieved from https://www.w3.org/html/

138

13. ANEXOS

Anexo 1. Historias de usuario para el proyecto.

No. Nombre Responsable Sprint Rol Descripción

1 Uso de

multimedia

Daniel

Franco 1 Docente

Se requiere manejar elementos

multimedia como soporte para

formular interrogantes/preguntas

en las evaluaciones.

2

Combinación

de elementos

multimedia

Daniel

Franco 1 Docente

Se requiere manejar texto e

imágenes en conjunto, para dar

dinamismo a las evaluaciones.

3 Formato de

texto

Daniel

Franco 1 Docente

Se desea tener un mecanismo que

permita la inserción de texto con

formato al aplicativo.

4 Navegación de

la evaluación

Daniel

Franco 2 Estudiante

Se desea visualizar la evaluación

pregunta a pregunta, para facilitar

el trabajo a los estudiantes.

5

Consulta de

preguntas y

modificación

de respuestas.

Daniel

Franco 2 Estudiante

Se debe presentar a los estudiantes

un mecanismo para visualizar las

preguntas que requiera y modificar

su respuesta, en el transcurso de la

evaluación.

6 Estado de las

preguntas

Daniel

Franco 2 Estudiante

Se requiere un mecanismo que

informe antes de finalizar la

evaluación sobre las preguntas que

están incompletas o sin resolver.

7 Informes

grupales

Daniel

Franco 3 Docente

Se requiere la información sobre

los estudiantes que aprobaron y

reprobaron la evaluación, así como

el resultado detallado de cada uno.

8 Informes

individuales

Daniel

Franco 3 Estudiante

Se requiere visualizar la

calificación lograda, así como los

aciertos y fallos obtenidos en cada

una de las preguntas.

9 Reutilización

de preguntas

Daniel

Franco 3 Docente

Para reutilizar de forma adecuada

las preguntas debe asignarse el

puntaje en cada evaluación, pues al

estar en la pregunta condiciona su

uso.

139

10 Análisis de

logros

Daniel

Franco 3 Docente

Se requiere realizar un análisis

grupal por dimensiones, para

estudiar el rendimiento del curso

en las dimensiones definidas para

la evaluación.

11 Escala de

notas

Daniel

Franco 3 Docente

Se requiere fijar una escala de

calificación, para estandarizar las

evaluaciones a los parámetros de

las instituciones.

12 Protección de

la evaluación

Daniel

Franco 4 Docente

Se requiere restringir el acceso de

estudiantes no autorizados a las

evaluaciones creadas.

13

Restricción en

la navegación

de la

evaluación

Daniel

Franco 4 Docente

Se requiere restringir la navegación

de la evaluación a los estudiantes,

como mecanismo para evitar

fraude en la evaluación.

14

Asignación de

logros a

preguntas

Daniel

Franco 4 Docente

Se requiere un mecanismo sencillo

para asignar un mismo logro a más

de una pregunta, facilitando la

creación de la evaluación.

15 Descarga de

resultados

Daniel

Franco 4 Docente

Se requiere extraer del aplicativo

los resultados de los estudiantes,

para ser incorporados a las

planillas institucionales.

140

Anexo 2. Descripción de requerimientos funcionales

RF-01 Registro de usuarios en el sistema

Versión 1.0

Autor Daniel Franco

Descripción

El sistema debe manejar cuentas de usuario para docentes y estudiantes,

ofreciendo a cada usuario un espacio personalizado para el uso de

funcionalidades, propias de su rol.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Alta

Comentarios Todas las funcionalidades del sistema requieren la autenticación de usuarios.

RF-02 Listado de elementos multimedia en el sistema

Versión 1.0

Autor Daniel Franco

Descripción

El sistema debe presentar a cada docente un listado de los elementos

multimedia que ha creado, así como las acciones correspondientes para su

gestión (visualización, edición y eliminación).

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios Ninguno.

RF-03 Creación de elementos multimedia en el sistema

Versión 1.0

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción

El sistema debe ofrecer mecanismos adecuados para incorporar elementos

multimedia (audio, imagen, texto y video). Se requiere personalizar los

elementos de tipo texto, en aspectos como tamaño, estilo, alineación, entre

otros. Igualmente debe permitirse insertar imágenes al texto.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios Los elementos de tipo audio, imagen y video se proporcionan al sistema de

forma local, para asegurar la disponibilidad del recurso en todo momento.

141

RF-04 Visualización de elementos multimedia en el sistema

Versión 1.0

Autor Daniel Franco

Descripción El sistema debe ofrecer un mecanismo para visualizar los elementos que

conforman la galería de usuario.

Importancia Alta

Urgencia Media

Estado Implementado

Estabilidad Alta

Comentarios Ninguno.

RF-05 Modificación de elementos multimedia en el sistema

Versión 1.0

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción El sistema debe ofrecer un mecanismo para la modificación de los elementos

que conforman la galería del usuario.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Alta

Comentarios

La modificación de elementos de tipo audio, imagen y video es actualizar el

nombre que los identifica, pues la modificación de los elementos como tal no

cubren el alcance de este proyecto.

RF-06 Eliminación de elementos multimedia en el sistema

Versión 1.0

Autor Daniel Franco

Descripción El sistema debe ofrecer un mecanismo para remover los elementos multimedia

que se desee de la galería del usuario.

Importancia Media

Urgencia Media

Estado Implementado

Estabilidad Media

Comentarios

La eliminación de elementos hace referencia a remover los elementos de la

galería multimedia. Sin embargo, el elemento no será removido de las

preguntas en las que se encuentre asociado, pues debe asegurarse la

consistencia de las preguntas y respuestas.

142

RF-07 Listado de preguntas presentes en el sistema

Versión 1.0

Autor Daniel Franco

Descripción El sistema debe presentar a cada docente un listado de las preguntas que

conforman su banco de preguntas, así como las acciones correspondientes para

su gestión (visualización, edición y eliminación).

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios Ninguno.

RF-08 Creación de preguntas en el sistema

Versión 1.1

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción

El sistema debe incorporar los mecanismos adecuados para la creación de

preguntas de tipo base común, correlación, opción múltiple, ordenamiento y

verdadero o falso, pues permiten automatizar su calificación y

retroalimentación y son las de mayor uso en las pruebas escritas de la

educación básica, según (SEP, 2012).

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Alta

Comentarios

Los mecanismos de creación de preguntas deben incorporar eventos de

arrastrar y soltar, pues se identifica el potencial de este tipo de interacciones

en la relación de elementos a conjuntos.

RF-09 Asociación de elementos multimedia como apoyo

Versión 1.1

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción

El sistema debe permitir la incorporación a las preguntas de los elementos

multimedia, previamente creados. Estos pueden ser incorporados ya sea como

elemento de apoyo a la pregunta o como parte de los elementos que conforman

la estructura de la pregunta.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios

Los elementos son incorporados a través de un selector de elementos, que no

aplica los eventos de arrastrar y soltar. El elemento es incorporado y puede

visualizarse al instante, lo que permite al docente ver el contenido que está

creando y presentará a sus estudiantes.

143

RF-10 Visualización de las preguntas presentes en el sistema

Versión 1.0

Autor Daniel Franco

Descripción El sistema debe facilitar la visualización de las preguntas creadas, permitiendo

al docente observar la estructura de la pregunta con su respuesta.

Importancia Alta

Urgencia Media

Estado Implementado

Estabilidad Media

Comentarios

Al visualizar una pregunta, el docente observa la estructura de la pregunta tal

como la creó, lo que le permite conocer la respuesta correcta que definió. El

docente no puede ver la pregunta desde la perspectiva del estudiante.

RF-11 Modificación de las preguntas presentes en el sistema

Versión 1.1

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción El sistema debe permitir la modificación de las preguntas presentes en el banco

de preguntas.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Baja

Comentarios

Para la modificación de preguntas se hace uso de los mismos mecanismos que

se definen para la creación, lo que permite al docente usar, aprender y dominar

un mismo procedimiento. La modificación de preguntas puede alterar la

retroalimentación de resultados, de las evaluaciones que la contienen y ya

fueron aplicadas. Por ello se aconseja hacer uso de este procedimiento si es

estrictamente necesario.

RF-12 Eliminación de las preguntas presentes en el sistema

Versión 1.0

Autor Daniel Franco

Descripción El sistema debe ofrecer un mecanismo para remover las preguntas que se desee

del banco de preguntas.

Importancia Media

Urgencia Media

Estado Implementado

Estabilidad Media

Comentarios

La eliminación de preguntas es el procedimiento que permite remover

preguntas del banco de preguntas. Sin embargo, el procedimiento no removerá

las preguntas de las evaluaciones a las que están asociadas, pues debe

asegurarse la estructura de una evaluación y de sus resultados, de haber sido

aplicada.

144

RF-13 Listado de evaluaciones presentes en el sistema

Versión 1.0

Autor Daniel Franco

Descripción

El sistema debe presentar a los docentes las diferentes evaluaciones que ha

creado, así como el acceso a los mecanismos para su gestión (visualización,

edición y eliminación).

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios Ninguno.

RF-14 Creación de evaluaciones en el sistema

Versión 1.1

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción

El sistema debe proveer un mecanismo para la definición de evaluaciones, que

hagan uso de las preguntas creadas por el docente previamente. El instrumento

de evaluación a implementar se basa en la prueba escrita, ya que es el más

usado para evaluar en la educación básica y facilita la evaluación de saberes

en diferentes dominios del conocimiento, definidos por la Taxonomía de

Bloom (SEP, 2012).

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios

Se propone un selector de preguntas, que permite incorporar las preguntas

deseadas a la evaluación. Se incorporan los eventos de arrastrar y soltar para

la definición del orden de las preguntas en el instrumento de evaluación.

RF-15 Definición de restricciones de acceso a la evaluación

Versión 1.0

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción El sistema debe proporcionar un mecanismo para restringir el acceso a la

evaluación por parte de los usuarios estudiantes.

Importancia Alta

Urgencia Media

Estado Implementado

Estabilidad Media

Comentarios

Asignar una clave o código a las evaluaciones es una forma de fácil uso para

este cometido. El docente asigna dicha clave y la divulga a sus estudiantes en

el momento que lo requiera, lo que garantiza la protección de la evaluación y

la obtención de resultados válidos, pues no se conoce previamente el contenido

del instrumento de evaluación.

145

RF-16 Definición de modos de presentación de la evaluación

Versión 1.2

Autor Daniel Franco, Ana Cecilia Beltrán, Juan Carlos Muñoz

Descripción El sistema debe ofrecer la posibilidad al docente de configurar la forma en que

el estudiante puede navegar y responder la evaluación.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios

Se proponen los modos de navegación libre y restringida para la presentación

de las evaluaciones a los estudiantes. El modo restringido busca inhabilitar la

posibilidad de regresar a una pregunta ya contestada, como mecanismo para

evitar copia o fraude en el instante de aplicar la evaluación, pues la disposición

del espacio físico donde se usan los equipos, puede contribuir a este hecho.

RF-17 Definición de restricciones para la consulta de resultados

Versión 1.0

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción El sistema debe proveer la opción de habilitar o deshabilitar la consulta de los

resultados a los estudiantes, una vez finalizada la evaluación.

Importancia Alta

Urgencia Media

Estado Implementado

Estabilidad Media

Comentarios

Se propone esta opción como mecanismo para evitar copia o fraude en el

instante de aplicar la evaluación, teniendo en cuenta que el aplicativo propone

la posibilidad de realizar evaluaciones en espacios diferentes al aula de clase,

donde el docente no puede controlar este tipo de hechos.

RF-18 Definición de logros a medir con la evaluación

Versión 1.0

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción El sistema debe proveer un mecanismo para definir componentes o elementos

que se desean analizar en el estudiante al aplicar la evaluación.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios

Se propone la implementación de un sistema de logros, los cuales expresan los

diferentes elementos que desean estudiarse, cuantificando y catalogando los

resultados del estudiante en estas componentes. Esta propuesta se basa en los

modelos de Taxonomía de Bloom (Bloom et al., 1956) y Pirámide de Miller

(Miller, 1990).

146

RF-19 Asociación de logros y puntajes a preguntas

Versión 1.1

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción

El sistema debe proveer un mecanismo para la asociación de logros y puntajes

a las evaluaciones, que realmente permita la reutilización de preguntas para la

construcción de varias evaluaciones.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios

Se propone la escala de evaluación 0 – 50 para la calificación del instrumento

de evaluación. Se incorporan los eventos de arrastrar y soltar para la asociación

de logros a las preguntas y la definición del orden de las preguntas al momento

de aplicar la evaluación.

RF-20 Visualización de las evaluaciones presentes en el sistema

Versión 1.0

Autor Daniel Franco

Descripción

El sistema debe facilitar la visualización de las evaluaciones creadas,

permitiendo al docente observar la estructura y configuraciones de cada una

de ellas.

Importancia Alta

Urgencia Media

Estado Implementado

Estabilidad Media

Comentarios

Al visualizar una evaluación, el docente encuentra las configuraciones que le

asignó, los logros definidos, las preguntas incorporadas y la asociación de

logros y puntajes. No se ofrece la visualización de cada una de las preguntas.

RF-21 Modificación de las evaluaciones presentes en el sistema

Versión 1.1

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción El sistema debe permitir la modificación de las evaluaciones presentes en el

banco de evaluaciones.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Baja

Comentarios

Para la modificación de evaluaciones se hace uso de los mismos mecanismos

definidos para la creación, permitiendo al docente usar, aprender y dominar

un mismo procedimiento. Modificar la estructura de una evaluación puede

alterar la retroalimentación de resultados, si la evaluación ya fue aplicada. Por

ello, se recomienda hacer uso de esta operación si es estrictamente necesario.

147

RF-22 Eliminación de evaluaciones presentes en el sistema

Versión 1.0

Autor Daniel Franco

Descripción El sistema debe ofrecer un mecanismo para remover las evaluaciones que se

desee del banco de evaluaciones.

Importancia Media

Urgencia Media

Estado Implementado

Estabilidad Media

Comentarios

La eliminación de evaluaciones consiste en remover la evaluación deseada del

banco de evaluaciones y se removerá del historial de evaluaciones presentadas

de los estudiantes, si esta fue aplicada. No obstante, este procedimiento no

eliminará la evaluación del sistema ni los resultados de los estudiantes.

RF-23 Listado de evaluaciones disponibles para presentar

Versión 1.1

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción

El sistema debe presentar a los estudiantes el listado de las evaluaciones que

se encuentran disponibles para su presentación, así como la opción para

iniciarla.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios Ninguno.

RF-24 Inicio de evaluación

Versión 1.0

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción

El sistema debe permitir seleccionar una evaluación para su presentación,

validar que el estudiante esté autorizado por parte del docente para tomarla y

presentarle la evaluación, si es el caso.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios

La autorización del estudiante para presentar la evaluación es dada por el

docente cuando proporciona el código o clave asignada. Además de verificar

esta autorización, se comprueba que el estudiante no haya tomado previamente

la evaluación, evitando que presente más de una vez la misma evaluación.

148

RF-25 Navegación de la evaluación pregunta por pregunta

Versión 1.2

Autor Daniel Franco, Ana Cecilia Beltrán, Juan Carlos Muñoz

Descripción El sistema debe presentar al estudiante la evaluación pregunta por pregunta,

teniendo en cuenta aspectos técnicos y pedagógicos.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Alta

Comentarios

La presentación de la evaluación al estudiante pregunta por pregunta tiene

como propósito ofrecer una experiencia de uso apropiada, teniendo en cuenta

la variedad de dispositivos con los que se desea usar el aplicativo. Asimismo,

se permite al estudiante enfocar su concentración en un interrogante

específico, evitando posibles distracciones y confusiones durante la aplicación

de la evaluación.

RF-26 Visualización de preguntas y modificación de respuestas

Versión 1.0

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción

El sistema debe presentar un mecanismo que le permita al estudiante consultar

cualquier pregunta que haga parte de la evaluación para revisar y/o modificar

su respuesta.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Alta

Comentarios

En la definición del modo de navegación libre de la evaluación se propone el

acceso a una sección de resumen, la cual presenta al estudiante el listado de

preguntas y la opción de posicionarse en la pregunta deseada, permitiendo la

modificación de la respuesta que se ha proporcionado.

RF-27 Informe del estado de la evaluación previo a su finalización

Versión 1.1

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción El sistema debe presentar al estudiante un informe general de la evaluación,

antes de finalizar la evaluación, que le permita conocer si ha completado todas

las preguntas o le hace falta alguna por responder.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Alta

Comentarios Se propone una sección de resumen que indique a los estudiantes para cada

pregunta el estado se su respuesta, permitiendo conocer cuáles de ellas ha

149

completado y cuáles hacen falta por contestar o completar. De acuerdo al

modo de navegación, se habilita o deshabilita la opción para trabajar

nuevamente en una pregunta.

RF-28 Finalización de evaluación

Versión 1.1

Autor Daniel Franco

Descripción

El sistema debe proporcionar un mecanismo para que el estudiante finalice su

evaluación, es decir, envíe sus respuestas para que el aplicativo realice el

proceso de calificación y determine la nota obtenida.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios El proceso de calificación se efectúa siguiendo el sistema de coincidencias

propuesto y se realiza una única vez.

RF-29 Consulta de informes grupales para evaluaciones

Versión 1.1

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción

El sistema debe presentar al docente una visión grupal de los resultados, que

le permita analizar elementos propios del instrumento de evaluación y de sus

procesos de enseñanza – aprendizaje.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Alta

Comentarios

Se propone un informe que brinde al docente una perspectiva general de la

evaluación, indicando la cantidad de estudiantes que aprobaron y reprobaron,

así como los resultados individuales de cada estudiante que tomó la evaluación

y la opción de consulta. Se incorpora el resultado promedio para cada una de

las preguntas y su contraste con la nota esperada, permitiendo identificar

preguntas y temáticas fuertes o que requieren atención. Se hace uso de los

logros definidos y su asociación con las preguntas para promediar y cuantificar

el desempeño del curso, para cada una de las componentes que el instrumento

de evaluación buscaba analizar, de acuerdo a las propuestas como la

Taxonomía de Bloom (Bloom et al., 1956) y Pirámide de Miller (Miller,

1990), que proponen clasificar el conocimiento en categorías y dominios.

150

RF-30 Consulta de informes individuales para evaluaciones

Versión 1.0

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción El sistema debe presentar a docentes y estudiantes los resultados obtenidos,

que les permita analizar elementos propios del instrumento de evaluación y de

sus procesos de enseñanza – aprendizaje.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Alta

Comentarios Se propone un informe que brinde a docentes y estudiantes una perspectiva

general de los resultados, contrastando la nota obtenida con la esperada y la

mínima para aprobar. Se incorpora una división de los resultados pregunta por

pregunta, contrastando el resultado obtenido con el esperado y la opción de

consultar el proceso realizado. Se hace uso de los logros definidos y su

asociación con las preguntas para cuantificar el desempeño del estudiante en

cada una de las componentes que el instrumento de evaluación buscaba

analizar, de acuerdo a las propuestas como la Taxonomía de Bloom (Bloom et

al., 1956) y Pirámide de Miller (Miller, 1990), que proponen clasificar el

conocimiento en categorías y dominios.

RF-31 Contraste entre respuestas del estudiante y las esperadas

Versión 1.0

Autor Daniel Franco, Ana Cecilia Beltrán

Descripción

El sistema debe implementar un mecanismo que permita analizar el trabajo

del estudiante, por medio de las respuestas que proporcionó, permitiendo

encontrar fortalezas y puntos a reforzar.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios

Se propone el contraste entre la respuesta esperada y la proporcionada por el

estudiante como mecanismo de retroalimentación, pues permite a docentes y

estudiantes realizar un análisis, ya sea individual o en conjunto, que justifique

el resultado obtenido y las acciones a seguir, como lo son reforzar una

temática.

151

RF-32 Descarga de resultados grupales para las evaluaciones

Versión 1.0

Autor Daniel Franco, Ana Cecilia Beltrán, Juan Carlos Muñoz

Descripción El sistema debe proveer un mecanismo que le permita al docente exportar los

resultados obtenidos por los estudiantes.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios

Se propone la generación de un archivo de hoja de cálculo, el cual contiene

los apellidos, nombres y nota obtenida por cada estudiante, en la evaluación

que se esté visualizando. Las hojas de cálculo son un tipo de archivo conocido

y de fácil manipulación para el docente, pues muchos de ellos llevan sus notas

a través de estas.

152

Anexo 3. Descripción de requerimientos no funcionales

RNF-01 Compatibilidad entre navegadores

Versión 1.0

Autor Daniel Franco

Descripción Mantener la funcionalidad del aplicativo web con los navegadores Google

Chrome y Mozilla Firefox.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Alta

Comentarios Se consideran los navegadores web Google Chrome y Mozilla Firefox, los

cuales son los de mayor uso.

RNF-02 Apariencia visual

Versión 1.0

Autor Daniel Franco

Descripción Ofrecer una apariencia visual agradable al usuario en los diferentes tipos de

dispositivos.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Alta

Comentarios Ninguno.

RNF-03 Distribución de elementos en la pantalla

Versión 1.0

Autor Daniel Franco

Descripción Proponer una disposición adecuada de elementos en las diferentes secciones

del aplicativo, que permitan a estudiantes y docentes su uso intuitivo.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios Ninguno.

153

RNF-04 Agrupación de contenido

Versión 1.0

Autor Daniel Franco

Descripción Agrupar el contenido en contenedores que puedan contraerse, buscando

facilitar al su visualización en diferentes tipos de dispositivos.

Importancia Alta

Urgencia Alta

Estado Implementado

Estabilidad Media

Comentarios Ninguno.

RNF-05 Delegación de responsabilidades

Versión 1.0

Autor Daniel Franco

Descripción

Aprovechar las configuraciones hardware de los dispositivos actuales para

delegarles algunas tareas y/o responsabilidades, reduciendo el intercambio de

datos entre el servidor y los clientes, buscando un mejor rendimiento del

aplicativo.

Importancia Media

Urgencia Media

Estado Implementado

Estabilidad Media

Comentarios Ninguno.

154

Anexo 4. Plan de pruebas realizadas al prototipo.

Estos fueron los casos usados para probar los módulos y su funcionamiento en conjunto.

Módulo de Gestión de multimedia

Para probar el funcionamiento de este módulo se realizaron estos procedimientos:

1. Creación de un texto de prueba y carga de archivos tipo audio, imagen y video.

2. Visualización de cada elemento cargado.

3. Modificación de la información asociada a cada uno de los elementos cargados.

4. Eliminación de los elementos cargados.

Módulo de Gestión de preguntas

Para probar el funcionamiento de este módulo realizaron los siguientes procedimientos:

1. Creación de preguntas de cada uno de los tipos propuestos, incorporando elementos

multimedia de todos los tipos.

2. Visualización de las preguntas creadas.

3. Modificación de los elementos que componen la estructura de las preguntas creadas.

4. Eliminación de las preguntas creadas.

Módulo de Gestión de evaluaciones

Para probar el funcionamiento de este módulo realizaron los siguientes procedimientos:

1. Creación de una evaluación, asociando todos los tipos de preguntas disponibles en el

sistema y sus puntajes.

2. Definición de un logro asociado a todas las preguntas y uno asociado a un grupo selecto

de preguntas.

3. Visualización de la evaluación creada.

4. Modificación de cada uno de los elementos que componen la estructura de la

evaluación.

5. Eliminación de la evaluación creada.

155

Módulo de Presentación de evaluaciones

Para probar el funcionamiento de este módulo se realizaron estos procedimientos:

1. Inicio de la evaluación creada anteriormente.

2. Navegación de la evaluación en orden.

3. Selección y visita de todas las preguntas, al azar, para la modificación de su respuesta.

4. Finalización de la evaluación.

Módulo de Resultados e Informes

1. Consulta de resultados individuales desde el perfil del estudiante que presentó la

evaluación.

2. Consulta de resultados grupales desde el perfil del docente que formuló la evaluación.

3. Consulta de resultados individuales desde el perfil del docente que formuló la

evaluación.

156

Anexo 5. Carta de solicitud institucional emitida por el CERI.

157

Anexo 6. Carta de solicitud a título personal.

Bogotá D.C., Octubre 7 de 2016 Doctor DUMER ANTONIO PEDRAZA Rector Colegio San Francisco de Asís IED Ciudad Cordial saludo, Por medio de la presente yo, Daniel Fernando Franco Beltrán, identificado con C.C. 1018437999 de Bogotá, estudiante de Ingeniería de Sistemas de la Universidad Distrital Francisco José de Caldas, agradezco a usted y a la institución por la oportunidad brindada para aplicar el producto obtenido de mi proyecto de grado. Manifiesto a usted y a la institución, que me comprometo a:

1. Asumir por mi cuenta los aspectos relacionados a desplazamientos, bienestar e integridad, seguridad, entre otros, durante los días que esté en la institución realizando las pruebas, exonerando a la institución de cualquier responsabilidad.

2. Mantener un trato cordial y respetuoso con la institución y el personal que la

conforma, en especial con los docentes y estudiantes que participarán en la prueba. Asimismo, a cuidar y dar buen uso de los elementos que me son facilitados para realizar las pruebas.

3. Entregar a la institución, una vez finalizada la experiencia, el informe

correspondiente.

Atentamente, Daniel Fernando Franco Beltrán Estudiante Ingeniería de Sistemas Universidad Distrital Francisco José de Caldas Anexo: Cronograma de actividades a realizar.

158

CRONOGRAMA DE ACTIVIDADES

Datos generales

Proyecto Prototipo web responsivo para la aplicación de actividades de evaluación en los procesos de enseñanza – aprendizaje de la educación básica y media.

Responsable Daniel Fernando Franco Beltrán

Cargo Estudiante de Ingeniería de Sistemas

Institución Universidad Distrital Francisco José de Caldas

Acompañamiento Ana Cecilia Beltrán

Juan Carlos Muñoz

Recursos

Locación Sala de Sistemas

Equipos Tabletas

Conexión Red Inalámbrica, usada para acceso local (no se requiere internet).

Proyección Video Beam

Actividades

Fecha Acompañamiento Curso Descripción

7 Octubre, 2016 Juan Carlos Muñoz

604 Prueba de contextualización. Ana Cecilia Beltrán

7 Octubre, 2016 Juan Carlos Muñoz 704 Prueba de contextualización.

13 Octubre, 2016 Ana Cecilia Beltrán 604 Prueba específica de área.

14 Octubre, 2016 Juan Carlos Muñoz 704 Prueba específica de área.

Consideraciones Se considera la realización de una jornada de socialización del proyecto en general, con los docentes y estudiantes participantes, una vez sustentado el proyecto de grado. Sin embargo, depende de los tiempos de finalización, aprobación y sustentación del proyecto, dictaminados por el autor y la Universidad Distrital Francisco José de Caldas.

159

Anexo 7. Autorización de padres de familia.

La siguiente es la autorización enviada a los padres de familia de los estudiantes que

participaron en la prueba.

El siguiente es el listado de estudiantes que entregaron firmada la autorización.

160

Anexo 8. Informe final presentado a la institución educativa.

Bogotá D.C., Noviembre 16 de 2016

Doctor DUMER ANTONIO PEDRAZA Rector Colegio San Francisco de Asís IED Ciudad

Asunto: Informe final de experiencias realizadas en las instalaciones de la institución.

Cordial saludo.

En primer lugar quiero expresar mi inmenso agradecimiento a la institución, en especial a usted, a los profesores Ana Cecilia Beltrán y Juan Carlos Muñoz, así como a los estudiantes de los cursos 604 y 704 de la jornada tarde, por brindarme la oportunidad de aplicar los resultados de mi trabajo de grado, titulado “Prototipo web responsivo para la aplicación de actividades de evaluación en los procesos de enseñanza – aprendizaje de la educación básica y media”, pues al probar esta propuesta en un entorno pedagógico real, me permitió evidenciar su valor y aporte a los actores de los procesos de formación.

De acuerdo con su requerimiento, presento a la institución este informe que resalta los beneficios que conllevan la realización de estas experiencias, listados a continuación:

1. Nuestras instituciones, el Colegio San Francisco de Asís IED y la Universidad Distrital

Francisco José de Caldas, son entidades de educación públicas del Distrito Capital, que tienen como misión la formación de los individuos de la ciudad. Entablar una relación entre las instituciones permite proyectar a futuro nuevos escenarios para el enriquecimiento de la labor pedagógica realizada por ustedes y el desarrollo de nuevos conocimientos que propende la universidad.

2. En el tiempo que cursé mis estudios de educación básica y media, el acceso a

recursos tecnológicos era limitado, teniendo que compartir dispositivos de cómputo con varios compañeros de clase. Al conocer la infraestructura de su institución, quedé gratamente sorprendido al ver la cantidad de recursos con que cuentan, donde los estudiantes pueden trabajar cada uno con un dispositivo, bajo las mismas condiciones. Realizar este tipo de experiencias permite a los estudiantes usar la infraestructura tecnológica que tienen a su disposición, en espacios académicos diferentes a las clases del área de Tecnología, incorporando las TIC en sus procesos.

161

3. Las experiencias realizadas generaron impresiones positivas en la comunidad franciscana, pues fueron una manera novedosa de realizar actividades de evaluación, ya que evaluar es un momento de los procesos de enseñanza – aprendizaje al que estudiante reacciona con apatía y poco interés. Para los estudiantes, el aspecto positivo más relevante es el uso de tecnología para hacer evaluaciones, pues les pareció más atractivo y sencillo el uso de tabletas para hacer sus evaluaciones, donde arrastran y sueltan elementos en la pantalla, en vez de los métodos tradicionales, donde el proceso de escritura es la constante. Asimismo, manifestaron su interés en hacer uso frecuente de esta solución en otras asignaturas.

4. Los docentes participantes encuentran la pertinencia de usar este tipo de aplicativos

en sus labores cotidianas, pues les permite brindar experiencias diferentes a sus estudiantes, así como trasladar los procesos de evaluación a un entorno tecnológico que le apoya en labores como la revisión y valoración del material aplicado. Asimismo, encuentran que el análisis de la información que este tipo de aplicativos permite inferir, en forma grupal e individual, elementos propios del proceso de los estudiantes, su progreso, sus fortalezas y oportunidades de mejora, soportando así la toma de decisiones en los procesos de enseñanza – aprendizaje.

Nuevamente, manifiesto mi agradecimiento con la institución y todas las personas que hicieron posible la realización de estas experiencias, haciendo votos para que la relación establecida entre las instituciones perdure y las beneficie mutuamente.

Cordialmente,

Daniel Fernando Franco Beltrán Estudiante Ingeniería de Sistemas

Universidad Distrital Francisco José de Caldas

162

Anexo 9. Evaluación para tutorial guiado.

163

164

Anexo 10. Evaluación para familiarización del aplicativo.

165

166

167

168

169

170

Anexo 11. Encuesta # 1 para estudiantes.

Elemento Descripción

Código E-E1

Título Encuesta de estudiantes para sesión de contextualización

Población Estudiantes

Preguntas 12

Respuesta Si – No

Objetivo Recolectar información sobre las primeras reacciones de los

encuestados con respecto al prototipo y a la experiencia en general.

PREGUNTAS

Sobre la presentación de evaluaciones

1. ¿Tuvo inconvenientes para iniciar la evaluación?

2. ¿Tuvo inconvenientes para navegar por la evaluación?

3. ¿Tuvo inconvenientes para resolver preguntas de correlación?

4. ¿Tuvo inconvenientes para resolver preguntas de opción múltiple?

5. ¿Tuvo inconvenientes para resolver preguntas de ordenamiento?

6. ¿Tuvo inconvenientes para resolver preguntas de verdadero o falso?

7. ¿Tuvo inconvenientes para finalizar la evaluación?

Sobre la consulta de resultados

1. ¿Tuvo inconvenientes para interpretar los resultados generales de la evaluación?

2. ¿Tuvo inconvenientes para interpretar los resultados detallados de cada pregunta?

Sobre la experiencia

1. ¿Tuvo dificultades para manipular el dispositivo usado en la prueba?

2. Antes de esta experiencia, ¿Había sido evaluado usando algún aplicativo (software)?

3. ¿La explicación proporcionada fue suficiente para comprender el funcionamiento del

aplicativo y poder usarlo?

171

Anexo 12. Encuesta # 2 para estudiantes.

Elemento Descripción

Código E-E2

Título Encuesta de estudiantes para sesión de prueba específica

Población Estudiantes

Preguntas 13

Respuesta Si – No

Objetivo Recolectar información de impresiones de los encuestados con

respecto al prototipo y a la experiencia en general.

PREGUNTAS

Sobre la presentación de evaluaciones

1. ¿Tuvo inconvenientes para iniciar la evaluación?

2. ¿Tuvo inconvenientes para navegar por la evaluación?

3. ¿Tuvo inconvenientes para resolver preguntas de correlación?

4. ¿Tuvo inconvenientes para resolver preguntas de opción múltiple?

5. ¿Tuvo inconvenientes para resolver preguntas de ordenamiento?

6. ¿Tuvo inconvenientes para resolver preguntas de verdadero o falso?

7. ¿Tuvo inconvenientes para finalizar la evaluación?

Sobre la consulta de resultados

1. ¿Tuvo inconvenientes para interpretar los resultados generales de la evaluación?

2. ¿Tuvo inconvenientes para interpretar los resultados detallados de cada pregunta?

Impresiones de la experiencia

1. ¿Tuvo dificultades para manipular el dispositivo usado en la prueba?

2. ¿Tuvo dificultades para recordar cómo usar el aplicativo?

3. ¿Le gustaría que el aplicativo se usara para realizar evaluaciones en diferentes

asignaturas?

4. ¿Le gustaría que el aplicativo se usara para realizar evaluaciones en espacios físicos

diferentes al aula de clase (por ejemplo, realizar una evaluación desde su casa, un día

no escolar)?

172

Anexo 13. Encuesta # 1 para docentes.

Elemento Descripción

Código E-D1

Título Encuesta para experiencia docente

Población Docentes

Preguntas 26

Respuesta Si – No

Objetivo Recolectar información de impresiones de los encuestados con

respecto al prototipo y a la experiencia en general.

PREGUNTAS

Sobre la galería

1. ¿Tuvo inconvenientes para gestionar elementos multimedia?

2. ¿Es comprensible el mecanismo para gestionar elementos multimedia?

Sobre las preguntas

1. ¿La información solicitada para las preguntas define adecuadamente su intención?

2. ¿El editor de texto incorporado es adecuado para dar formato a los diferentes

componentes las preguntas?

3. ¿Tuvo inconvenientes para incorporar elementos multimedia en las preguntas?

4. ¿Tuvo inconvenientes para gestionar preguntas de base común?

5. ¿Tuvo inconvenientes para gestionar preguntas de correlación?

6. ¿Tuvo inconvenientes para gestionar preguntas de opción múltiple?

7. ¿Tuvo inconvenientes para gestionar preguntas de ordenamiento?

8. ¿Tuvo inconvenientes para gestionar preguntas de verdadero o falso?

Sobre las evaluaciones

1. ¿La información solicitada define adecuadamente el instrumento de evaluación?

2. ¿Es adecuada la protección por código de las evaluaciones, como mecanismo para

restringir el acceso a cualquier estudiante?

3. ¿Es adecuada la restricción para la consulta de resultados, como mecanismo para evitar

copia o fraude?

173

4. ¿Es adecuada la restricción para la navegación de la evaluación, como mecanismo para

evitar copia o fraude?

5. ¿Es apropiada la definición de logros y su asociación a las preguntas que componen la

evaluación?

6. ¿Es apropiada la reutilización de preguntas, conformando así un banco o colección de

éstas?

7. ¿Tuvo inconvenientes para gestionar logros dentro de las evaluaciones?

8. ¿Tuvo inconvenientes para gestionar preguntas dentro de las evaluaciones?

Sobre la calificación e informes

1. ¿Es adecuado el modelo de calificación (valoración) por número de coincidencias?

2. ¿Es comprensible el análisis grupal e individual de cada evaluación?

3. ¿El análisis grupal e individual es significativo para su labor cotidiana?

4. ¿Es adecuado el análisis por logros presentado, de acuerdo a enfoques como la

formación por competencias?

5. ¿Es adecuada la comparación entre la respuesta del estudiante y la esperada, como

mecanismo de retroalimentación?

Sobre la experiencia

1. Antes de esta experiencia ¿Había evaluado a sus estudiantes usando algún aplicativo

(software)?

2. ¿Usaría este aplicativo, en futuras ocasiones, para llevar a cabo procesos de evaluación?

3. ¿Usaría este aplicativo para evaluar a sus estudiantes fuera del aula de clase (por

ejemplo, una evaluación desde casa, un día no escolar?

174

Anexo 14. Evaluación de Español para prueba específica con curso 604.

175

176

177

178

179

Anexo 15. Resultados de evaluación de Español aplicada al curso 604.

Resultados generales de la evaluación

Resultados del curso por logro

180

Resultados del curso por pregunta

181

Resultados por estudiante

182

Anexo 16. Evaluación de Tecnología para prueba específica con curso 704.

183

184

185

186

187

188

189

Anexo 17. Resultados de evaluación de Tecnología aplicada al curso 704.

Resultados generales de la evaluación

Resultados del curso por logro

190

Resultados del curso por pregunta

Resultados por estudiante