SciELO - Scientific Electronic Library Online

 
vol.46 issue2Teaching innovation as a result of the COVID-19 pandemic: The case of the introduction to computing and informatics courseUpdate of the postgraduate teaching evaluation in a multicampus University: Experience from the Santo Tomás University (Colombia) author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


Revista Educación

On-line version ISSN 2215-2644Print version ISSN 0379-7082

Educación vol.46 n.2 San José, San Pedro, Montes de Oca Jul./Dec. 2022

http://dx.doi.org/10.15517/revedu.v46i2.47800 

Artículos científicos, experiencia de acción social o didáctica

Mejora de la calidad de los cuestionarios de Moodle para evaluar al estudiantado en entornos virtuales a través de un conjunto de indicadores

Improvement of moodle questionnaires' to evaluate students in virtual environments through a set of indicators

1Universidad Nacional de Córdoba y Centro de Investigaciones en Ciencias Económicas (CIECS UNC-CONICET), Córdoba, Argentina. pacaro@unc.edu.ar https://orcid.org/0000-0002-6271-870X

2Universidad Nacional de Córdoba, Córdoba, Argentina. ines.ahumada@unc.edu.ar https://orcid.org/0000-0003-3600-4655

3Universidad Nacional de Córdoba, Córdoba, Argentina. veronica.arias@unc.edu.ar https://orcid.org/0000-0003-2837-3549

Resumen

La evaluación es un tema sensible en los procesos de enseñanza y aprendizaje e influye en los indicadores de rendimiento, por lo que cobra importancia la aplicación de procedimientos idóneos en la elaboración de instrumentos para lograr una evaluación formativa de calidad. En el presente trabajo se realiza una investigación cuantitativa aplicada, en la que se elaboran y validan cuestionarios dentro de la plataforma Moodle con el objetivo de evaluar de manera virtual a estudiantes de Estadística de la Facultad de Ciencias Económicas (FCE) de la Universidad Nacional de Córdoba (UNC), Argentina. Adicionalmente, Moodle reporta un conjunto de indicadores, luego de la implementación del cuestionario, que permiten, mediante su análisis, identificar mejoras potenciales de estos instrumentos y en consecuencia optimizarlos para impactar positivamente en los procesos de evaluación. Asimismo, se realizó un análisis cualitativo en el que se indaga sobre la valoración del estudiantado respecto a la evaluación a través de tales instrumentos. La experiencia consistió en elaborar una primera prueba y aplicarla a una muestra de estudiantes, luego del análisis del cuestionario de manera global y de cada ítem/pregunta a la luz de los indicadores reportados por Moodle, se realizaron las modificaciones y ajustes necesarios para aplicar la prueba mejorada en otra muestra de estudiantes. Los principales resultados de la experiencia demuestran que los cuestionarios deben ser probados previamente y validados para evitar evaluaciones mal confeccionadas o poco claras. De esta manera, con criterios objetivos se conforma un banco de preguntas en Moodle que permite elaborar evaluaciones validadas con medios digitales y de alta calidad. Las evaluaciones mediadas por instrumentos que poseen fiabilidad y validez logran, en consecuencia, el propósito de mejorar la labor docente.

Palabras clave Cuestionario; Validación; Evaluación formativa; Moodle; Indicadores psicométricos; Entornos virtuales

Abstract

Evaluation is a sensitive topic in the teaching and learning processes and influences performance indicators, so it is important to apply suitable procedures in the development of instruments to achieve high-quality formative evaluation. In the present work, is carried out, in which questionnaires are elaborated and validated within the Moodle platform to virtually evaluate Statistics students of the Faculty of Economic Sciences (FCE) of the National University of Córdoba (UNC), Argentina. After the implementation of the questionnaire, Moodle reports a set of indicators that allow, through its analysis, the identification of potential improvements for those instruments and, in consequence, to optimize them to positively impact the evaluation processes. A qualitative analysis was also carried out in order to inquire students' perceptions on the evaluation through these instruments. The experiment entailed creating two tests, the first test was applied to a sample of students; then, after a general analysis of the questionnaire and of each item/question in light of the reported indicators, the necessary modifications and improvements were made to apply the improved test to another sample of students. The main results of the experiment show that the questionnaires must be previously tested and validated to avoid poorly prepared or unclear evaluations. In this way, a bank of questions is built and allows permanent high-quality evaluation through digital means. Evaluation mediated by instruments that have reliability and validity achieves the purpose of improving the teaching process.

Keywords Questionnaire; Validation; Formative Evaluation; Moodle; Psychometric Indicators; Virtual Environments

Introducción

La evaluación del alumnado es un tema sensible e influye en los indicadores de rendimiento, por lo que es importante contar con procedimientos adecuados a la hora de pensar el proceso de evaluación (Caro y Ahumada, 2018a).

Con el propósito de aportar a la mejora de la evaluación del estudiantado en un contexto de virtualidad, se presenta en este trabajo un proceso de validación de cuestionarios, en el que se utilizaron las funcionalidades disponibles en la herramienta cuestionario de Moodle [1], que le permitan al equipo docente evaluar con instrumentos de calidad.

La necesidad de generar dispositivos de evaluación confiables constituye una ventaja estratégica para la institución universitaria, ya que incentiva una mayor incorporación de las tecnologías de la información y la comunicación (Caro y Ahumada, 2018a).

Ante una adecuada elección y aplicación de las tecnologías en entornos virtuales, donde la masividad propone pensar la evaluación como un proceso que mejora la enseñanza y el aprendizaje, las aulas virtuales ofrecen una serie de recursos que facilitan estos procesos. Entre estos recursos se encuentran las evaluaciones que pueden gestionarse en tiempo real en la plataforma Moodle. Es una buena estrategia utilizar una plataforma en donde, además de organizar los contenidos y utilizar recursos en diferentes formatos, se ofrezcan oportunidades de autoevaluación.

El uso de cuestionarios a través de Moodle permite elaborar instrumentos que requieren ser evaluados de manera continua, con lo que se logra su fiabilidad y validez. Esto es posible a través de un conjunto de indicadores que permiten, luego de la implementación del cuestionario, ser analizados para optimizarlos y lograr la mejora de estos instrumentos en los procesos de evaluación.

En 2016 se incorporaron cambios importantes en las técnicas de evaluación en un curso de Estadística I de la FCE de la UNC, ''sostenidos en el enfoque de una apropiada evaluación formativa, acorde al contexto institucional en el que se desarrolla la asignatura y con el objetivo de generar una mejora del aprendizaje que pudiera ser significativamente tangible” (Caro y Ahumada, 2018a, p. 2). Medina-Rebollo et al. (2019), respecto a los instrumentos de evaluación, plantean que:

Se hace necesario el análisis y la reflexión, que nos permitan conocer los puntos fuertes para reforzarlos y mantenerlos; y determinar los puntos débiles que nos permitan plantear propuestas y alternativas de mejora, haciendo un esfuerzo por mejorar la calidad de nuestra enseñanza. (p.3)

Este trabajo contribuye en la validación de cuestionarios con la finalidad de lograr evaluar con calidad al estudiantado, ya que se ha comprobado que el equipo de educadores plantea sus evaluaciones sin realizar un análisis exhaustivo de sus resultados. Motivado en esto, se analiza un conjunto de indicadores reportados por la herramienta que dan cuenta de qué preguntas deben ser revisadas, corregidas o modificadas, a fin de obtener instrumentos idóneos para evaluar. De esta manera se construyen bancos de preguntas que permiten una evaluación permanente, con medios digitales y de calidad.

Ante el problema planteado de la falta de medición de la fiabilidad y validez del instrumento de evaluación, se establecen los siguientes objetivos:

Objetivo general:

Analizar la implementación de evaluaciones formativas mediante herramientas digitales en grupos masivos de la materia Estadística I.

Objetivos específicos:

Identificar las posibilidades de la herramienta cuestionarios de la plataforma Moodle en el diseño de instrumentos de evaluación.

Validar los cuestionarios a los fines de generar confiabilidad en los resultados obtenidos por el estudiantado.

Examinar la valoración del estudiantado respecto a la evaluación a través de estos instrumentos.

Este artículo presenta, a continuación, una descripción del marco teórico, luego la metodología llevada a cabo en la que se describe el tipo de investigación, la muestra, lo concerniente a la elaboración del cuestionario y sus indicadores de validación. A continuación, se presentan los resultados obtenidos a la luz de los objetivos propuestos y, por último, las conclusiones.

Marco teórico

La propuesta de enseñanza y aprendizaje debe abordar el contenido curricular que se propone transmitir en entornos cada vez más complejos, donde la evaluación tiene un interés especial y debe ser abordada con un análisis crítico completo e integral a través de instrumentos que permitan generar información sobre la calidad de la propuesta. Como aporta De Camilloni et al. (1998), ''la evaluación es parte del proceso didáctico e implica para los estudiantes una toma de conciencia de los aprendizajes adquiridos y, para los docentes, una interpretación de las implicancias de la enseñanza en esos aprendizajes” (p.16).

En la actualidad, y sumado a los requerimientos de los organismos de evaluación, ofrecer una enseñanza de calidad se ha tornado en preocupación, donde una de las posibilidades es el uso de las plataformas como recurso educativo que abarca los procesos de enseñanza y aprendizaje (Tirado-Morueta y Hernando-Gómez, 2011).

Caro y Ahumada (2018a, 2018b), citando a Blanco y Ginovart (2012), exponen que varios estudios han puesto de relieve el papel cada vez más importante de las tecnologías de la información y la comunicación en el campo de la evaluación (Delgado-García y Oliver-Cuello, 2006; Graff, 2003, Steegmann et al., 2008), hasta el punto de poner a la evaluación virtual como un elemento importante en el ámbito educativo (Brink y Lautenbach, 2011; Crews y Curtis, 2011; Daly et al., 2010; Ferrão, 2010).

Villamizar-Rodríguez (2005) conceptualiza a la evaluación como un conjunto de procesos sistemáticos que, comparados con situaciones de referencia o con criterios establecidos, permite la toma de decisiones a fin de favorecer la mejora del proceso de evaluación en sí mismo.

Ryan et al. (2013) plantean, también, la evaluación de los aprendizajes como un proceso, en el que el estudiantado manifiesta sus competencias y progresos.

La evaluación de los aprendizajes arroja juicios de valor sobre las actuaciones y producciones del estudiantado que procuran la mejora de la educación; por lo que puede tener diversas finalidades, evaluación diagnóstica, formativa y sumativa, entre otras.

Por otra parte, referente a los entornos más complejos en lo que la evaluación tiene lugar, Raichman et al. (2011) expresan que ''la generación de nuevos entornos de aprendizaje está íntimamente asociado a las vinculaciones interactivas y asociativas que se tenga capacidad de lograr con la utilización de los recursos tecnológicos disponibles para el desarrollo de prácticas educativas innovadoras” (p.24).

En ese marco, al identificar la disponibilidad real de recursos tecnológicos y siempre en busca de garantizar la accesibilidad del estudiantado, es que las virtudes de la plataforma educativa Moodle se tornaron una herramienta atractiva para indagar en el diseño de intervenciones durante el proceso de enseñanza, especialmente vinculadas a diferentes instancias de evaluación apropiadas al estudiantado.

Caro y Ahumada, (2018a) indican que:

La evaluación como tema crítico puede ser abordado de distintas maneras, pudiendo clasificar a los cuestionarios en dos grupos: formativos y evaluativos.

∙ Cuestionarios Formativos: El objetivo es aprender. El estudiantado tiene la oportunidad de intentar varias veces resolver el mismo examen o la misma pregunta, pues el objetivo es, que si identifica que ignora algo, lo aprende al resolver el examen.

∙ Cuestionarios Evaluativos o Sumativos: El objetivo es valorar si se otorgan o no los créditos del tema/curso.

Los cuestionarios en Moodle no sólo han demostrado ser útiles para llevar a cabo evaluaciones, sino que pueden ser modificados y adaptados según las necesidades de los procesos de enseñanza y de aprendizaje. Tales ajustes pueden ser propuestos con fundamentos basados en el análisis de los índices psicométricos que se obtienen a partir de la misma plataforma Moodle (p.2).

Segura-Castillo (2018) manifiesta que la evaluación formativa considera tanto el desempeño individual como grupal del estudiantado. A través de diferentes instrumentos de evaluación, entre ellos los que pueden elaborarse en Moodle, se puede recopilar información al observar dicho desempeño, lo que permite retroalimentar el proceso de evaluación. A través de autoevaluaciones, el estudiantado aprende, se autocorrige y se prepara para otras instancias en su proceso de aprendizaje.

Los cuestionarios del entorno Moodle no solo han demostrado ser útiles para llevar a cabo dichas actividades evaluativas, sino que además pueden modificarse y adaptarse según las necesidades del alumnado (Blanco y Ginovart (2012).

Calvo-Iglesias (2017) exhibe experiencias interesantes en la que se aprovechan las amplias posibilidades didácticas que tiene la plataforma Moodle, con el objetivo de fomentar la participación del estudiantado en el proceso de evaluación y, por lo tanto, en su aprendizaje. En sus prácticas como docente combina varias estrategias en torno a la evaluación, las cuales aplica a los cuestionarios de Moodle, como evaluaciones iniciales, autoevaluaciones y otra técnica de evaluación por pares. El autor arriba a conclusiones sobre la participación de sus estudiantes en estas actividades y manifiesta la importancia de mejorar el diseño de los instrumentos. Es por ello que agudizar la mirada en la calidad de los cuestionarios, debe ser parte de la tarea de evaluar, sin importar el modo o tipo de evaluación que se practique.

Distintas experiencias han sido desarrolladas en torno a la plataforma Moodle con resultados muy satisfactorios. Cejudo (2007) presenta a la plataforma Moodle como una herramienta con mucha potencialidad en un entorno de software libre; Galán y Mateos (2012) hacen hincapié en que recoger toda la información generada en Moodle, a través de sus indicadores, es de utilidad para el proceso de evaluación en educación superior.

El recurso Cuestionario de Moodle está especialmente dotado de herramientas que, a través de un análisis psicométrico, permiten explorar otros modos de evaluar (Blanco y Ginovart, 2012) que representen una alternativa novedosa en comparación con las tradicionales metodologías. A través de este análisis de ítems (preguntas) del cuestionario se generan informes que, luego de una lectura detallada, contribuyen a la mejora del cuestionario para una instancia posterior y procura obtener instrumentos de evaluación de calidad. Díaz y Gonzales (2021) presentan una guía detallada para crear, editar, calificar y descargar cuestionarios en Moodle.

Metodología

El presente trabajo se basa en un estudio de tipo cuantitativo, aplicado, en el que se trabajó con datos primarios, es no experimental y de corte transversal con el objetivo de explorar las habilidades adquiridas por el estudiantado y determinar la fiabilidad del cuestionario. Inicialmente se aplicó el instrumento de evaluación a una muestra de estudiantes, quienes realizaron de manera optativa una autoevaluación; luego del análisis y mejora del instrumento, este se aplicó a otro grupo de estudiantes. Se aplicaron métodos de estadística descriptiva, ya que se analizaron los indicadores que reporta Moodle y que permitieron validar el cuestionario y volver a aplicarlo en otros grupos con la intención de mejorar la evaluación. Se realizaron pruebas de inferencia, test t, para comparar los resultados en función de la participación de los diferentes grupos de estudiantes.

Por último, se utilizaron herramientas cualitativas de análisis textual a fin de recoger las valoraciones del estudiantado sobre diversos aspectos de la evaluación. El instrumento de recolección de datos es el cuestionario de evaluación con preguntas y ejercicios cuyo resultado es dicotómico: correcto / incorrecto.

Muestra:

Se trabajó con una muestra de entrenamiento formada por 63 estudiantes que se evaluaron a través de un cuestionario en 2016. Luego de la validación del instrumento, a través del análisis de indicadores, se modificó el cuestionario y se le aplicó en otra muestra de 29 estudiantes en 2017. Se trata de muestras no probabilísticas, formadas por estudiantes que optaron por realizar cada una de las evaluaciones.

Elaboración del instrumento:

Para la elaboración del instrumento de evaluación se cumplieron etapas sucesivas, en vistas al objetivo último que es evaluar al estudiantado en Estadística.

En primer lugar, la etapa de diseño plasmó una serie de decisiones que iban desde evaluar, desde la virtualidad, qué recursos eran requeridos, cómo evaluar, qué tipo de preguntas, entre otras cuestiones. Se diseñaron categorías en función de las unidades temáticas del curso y subcategorías dentro de ellas.

La etapa de preparación implicó construir un Banco de Preguntas, organizadas por contenidos de la asignatura, lo que permitió el agrupamiento de consignas en diferentes categorías. Caro y Ahumada (2018a) consideran que:

La importancia que tiene darle una estructura al banco de preguntas es permitir la reutilización de las mismas, ya que el banco de preguntas es escalable, año a año se pueden sumar preguntas a las categorías de preguntas creadas, o crear nuevas categorías y también modificar las preguntas para mejorarlas, ampliarlas, etc. (p.3).

La etapa de aplicación requiere la organización de aspectos operativos, tales como el espacio para la evaluación, el tiempo disponible y que se trata de una preparación para evaluaciones futuras. Dado el carácter evaluativo, el alumnado realizó la actividad evaluativa de manera individual en aulas de la FCE con las medidas de seguridad correspondientes. En estas condiciones, el estudiantado demostró sus habilidades y competencias que permitieron validar el instrumento de evaluación (Caro y Ahumada, 2018a).

Las etapas de valoración y devolución aplicables en los cuestionarios de Moodle, incluyen la ponderación o peso de cada pregunta y también incluir la respuesta correcta como retroalimentación a cada pregunta (correcto o incorrecto) o a todo el instrumento. El hecho de realizar una devolución de manera clara le permite al estudiantado comprender cuáles fueron los errores cometidos. (Caro y Ahumada, 2018a).

Estos cuestionarios fueron administrados durante el dictado del curso (proceso), a medida que se desarrollaron los temas del programa. La propuesta fue optativa y permitió comparar a quienes hicieron las evaluaciones versus quienes no las realizaron.

En 2016 se realizaron cuatro evaluaciones. Se formaron dos grupos, en uno de ellos se incluyó a quienes realizaron tres o más cuestionarios (alta participación), y en el otro grupo quienes realizaron dos o menos cuestionarios (baja participación). También se comparó a quienes no realizaron autoevaluaciones versus quienes sí realizaron. Ambas comparaciones se probaron a través de test t de hipótesis (Caro y Ahumada, 2018b).

Indicadores de validación del instrumento:

Para poder validar el cuestionario se utilizaron indicadores generados de manera automática y reportados por Moodle, calculados con base a las respuestas obtenidas del estudiantado que permiten evaluar el instrumento en forma global y a cada una de las preguntas o ítems.

Los indicadores globales se conceptualizan en la Tabla 1 y pueden ser clasificados en:

  • a) descriptivos (promedio, calificación mediana, asimetría y curtosis)

  • b) de fiabilidad (consistencia interna, ratio de error y error estándar)según lo presentado por Caro y Ahumada (2018a).

Tabla 1 Estadísticas globales del cuestionario. 

Indicador Significado Valor teórico
Promedio de los intentos Promedio de las calificaciones obtenidas por el estudiantado que finalizó el cuestionario 50 % a 75 %
Calificación mediana Mediana de las calificaciones -.-
Desviación estándar Promedio de diferencias en las calificaciones alrededor del promedio 12% a 18%
Asimetría de la distribución de puntuaciones Discrimina entre las calificaciones. Valores positivos indican la presencia de unos pocos valores de calificaciones altas y valores negativos indican presencia de pocos valores bajos -1 a 1
Curtosis de la distribución de puntuaciones También es una medida que discrimina entre el alumnado. Una alta curtosis puede indicar que el cuestionario no está discriminando muy bien, comparando los extremos con el estudiantado promedio. 0 a 1
Coeficiente de consistencia interna (para todos los intentos) Estimación de la fiabilidad de una prueba psicométrica. Un bajo valor indica, o bien que algunas de las preguntas no son muy buenas para discriminar el nivel de conocimiento del estudiantado o bien puede revelar que algunas de las preguntas están funcionando con una calidad diferente al resto, lo que provoca que el examen en su conjunto no sea homogéneo Más de 70 %
Ratio de error (para todos los intentos) La tasa de error estima el porcentaje de la desviación estándar que se debe a efectos aleatorios en lugar de diferencias auténticas en la habilidad entre estudiantes Menos de 50 %
Error estándar (para todos los intentos) Es una medida de la incertidumbre en la calificación de cualquier estudiante dado (es la desviación estándar multiplicada por la tasa de error y dividida por 100). Menos del 8 %

Fuente: elaboración propia con base en Caro y Ahumada (2018a)

A continuación, se puede analizar de manera detallada cada una de las preguntas del cuestionario, ya que Moodle calcula y reporta una serie de indicadores, que se presentan en la Tabla 2. A su vez, individualmente se puede profundizar el análisis pregunta por pregunta, así los indicadores que se obtienen permiten analizar el aporte de cada pregunta a la prueba global.

Tabla 2 Estadísticas de las preguntas o ítems. 

Indicador Significado Valor teórico
Índice de facilidad / Nivel de dificultad Es la puntuación promedio del estudiantado en la pregunta (porcentaje de aprobación de las preguntas sobre el total de intentos para responderla) Hasta 5: extremadamente difícil. 6 - 10: muy difícil 11 - 20: difícil 21 - 34: moderadamente difícil 35 - 64: correcta para el estudiantado promedio 65 - 80: bastante fácil 81 - 89: fácil 90 - 94: muy fácil 95 -100: extremadamente fácil
Desviación estándar Es una medida de la dispersión de las calificaciones respecto a la media; mide la magnitud de cuánto puede discriminar cada pregunta -.-
Puntaje esperado aleatoriamente Promedio de calificación que se esperaría que el estudiantado obtuviera si respondiera al azar Debajo del 40 %
Ponderación deseada y efectiva La ponderación deseada o peso de la pregunta respecto del total y la ponderación efectiva es una estimación de la ponderación o peso que realmente tiene la pregunta para contribuir a la dispersión total de las calificaciones -.-
Índice de discriminación Es la correlación entre las calificaciones ponderadas en la pregunta y las del resto de la prueba Valores negativos: ítem invalido 0 - 19: discriminación muy débil 20 - 29: discriminación débil 30 - 50: discriminación adecuada 50 o más: discriminación muy buena
Eficiencia de discriminación Qué tan bueno es el índice de discriminación en relación con la dificultad de la pregunta Superior al 50 %

Fuente: elaboración propia con base en Caro y Ahumada (2018a)

También se aplicaron herramientas cualitativas de análisis textual sobre la valoración que el estudiantado hizo de diversos aspectos relacionados a la evaluación a través de estos instrumentos.

El uso de herramientas estadísticas cuantitativas y cualitativas constituyen una triangulación metodológica, que se refiere al uso de dos o más métodos de investigación sobre un mismo objeto de estudio. Se trata de reunir y cruzar la información disponible y pertinente a un objeto de estudio (Cabrera, 2005), como es en este caso la validación de instrumentos de evaluación.

Resultados y discusión

En relación con el objetivo general (analizar la implementación de evaluaciones formativas mediante herramientas digitales en grupos masivos de la materia Estadística I), se realizaron comparaciones de los resultados obtenidos en el examen final de la materia entre quienes hicieron las evaluaciones formativas propuestas versus quienes no las realizaron (o tuvieron baja participación).

De las pruebas realizadas (test t) se obtuvieron diferencias significativas en las notas promedio al comparar el grupo que realizó tres o más autoevaluaciones (más participativo) versus el grupo que realizó dos o menos (menos participativo), por un lado y luego al comparar el grupo más participativo con el grupo que no realizó estas evaluaciones (no participativo). La Tabla 3 presenta estas pruebas donde los valores de probabilidad (p-value) y los intervalos de confianza confirman las diferencias significativas encontradas.

El grupo de estudiantes más participativos presenta una nota promedio en sus exámenes, mayor a la nota promedio de los restantes grupos.

Si bien pueden existir otras variables que afectan los buenos resultados que obtiene el estudiantado, estas autoevaluaciones constituyen una preparación para instancias superiores de evaluación.

Tabla 3 Diferencia de medias 

Variable Grupo 1 Grupo 2 Diferencia de medias LI (95%) LS (95%) p-value
Nota del examen 3 o más autoevaluaciones 2 o menos autoevaluaciones 1,21 0,56 1,86 0,0003
Nota del examen 3 o más autoevaluaciones Ninguna autoevaluación 1,08 0,29 1,86 0,0076

Fuente: elaboración propia.

Dentro del primer objetivo específico (identificar las posibilidades de la herramienta cuestionarios de la plataforma Moodle para mejorar la calidad del instrumento de evaluación) se presentan, a continuación, los indicadores de los cuestionarios administrados.

Para el cuestionario administrado en 2016 (Tabla 4), los indicadores globales arrojaron algunas medidas inadecuadas:

- promedio de todos los intentos menor al 50 % (42,86%), lo que significa que las calificaciones en promedio, obtenidas por el estudiantado que finalizó el cuestionario, es baja,

- coeficiente de consistencia interna, menor al 70 % (56,10%), por lo que la fiabilidad de la prueba no es buena,

- ratio de error mayor al 50 % (66,26%), lo que significa la existencia de causas aleatorias que afectan a la prueba,

- error estándar para todos los intentos mayor al 8 % (12,96%), lo que indica la incertidumbre en la calificación.

De esta primera exploración se concluye que el cuestionario no es adecuado para cumplir con el objetivo propuesto y es necesario realizar cambios. ¿Qué cambios son los que se pueden hacer y que se traduzcan en una mejora en los instrumentos?

Para ello, se analizan las estadísticas de cada pregunta (Tabla 5) para el año 2016. Respecto al índice de dificultad, cuatro preguntas resultan ser muy fáciles (menor al 30%), siete no discriminan; es decir, presentan baja correlación entre las calificaciones ponderadas en la pregunta con las del resto del examen y, por último, la eficiencia discriminativa de seis preguntas resultó ser menor al 50 %. Con ello se concluye que el cuestionario no discrimina adecuadamente.

En una segunda etapa de esta investigación se modifican las preguntas que resultaron inadecuadas y que no permitieron lograr una buena evaluación, lo que dio lugar a un cuestionario modificado que fue aplicado en 2017. La Tabla 4 muestra mejores estadísticas globales, en el que se mantiene un poco elevado, respecto a los valores de referencia, el error estándar.

A través del análisis de los restantes indicadores se evidencia:

- promedio de todos los intentos mayor al 50 % (54%), lo que significa que las calificaciones en promedio, obtenidas por el estudiantado que finalizó el cuestionario, es adecuada,

- coeficiente de consistencia interna mayor al 70 % (92%), por lo que la fiabilidad de la prueba es muy buena,

- ratio de error menor al 50 % (29%), lo que significa que la existencia de causas aleatorias que afectan a la prueba es baja respecto a las diferencias auténticas en la habilidad entre el estudiantado,

- error estándar para todos los intentos mayor al 8 % (11%); aunque sigue siendo inadecuado, es menor que el obtenido en el primer cuestionario.

Por lo anterior, el cuestionario es confiable, tiene una baja tasa de error y el promedio de los intentos ha mejorado.

Respecto a las estadísticas de cada pregunta, solo una resultó ser muy fácil (menor al 30 %) (Tabla 6).

De esta manera, se logra el segundo objetivo específico, (validar los cuestionarios a los fines de generar confiabilidad en los resultados obtenidos por el estudiantado), ya que luego de la evaluación del cuestionario, a través del cálculo de los indicadores presentados, se proponen ajustes y cambios al instrumento de manera justificada.

Tabla 4 Información general sobre el cuestionario - Años 2016 y 2017. 

Cuestionario Año 2016 Año 2017 Indicador de referencia
Número de primeros intentos 63 29
Número total de intentos 63 29
Promedio de todos los intentos 42,86% 54,00% 50% - 75%
Calificación mediana 45,45% 70,00%
Desviación estándar 19,55% 36,00%
Asimetría -0,24 -0,56
Curtosis -0,93 -1,36
Coeficiente de consistencia interna 56,10% 92,00% >70%
Ratio de error 66,26% 29,00% < 50%
Error estándar 12,96% 11,00% 5% - 8%

Fuente: elaboración propia en base a Caro y Ahumada (2018a)

Tabla 5 Comportamiento individual de cada ítem. Año 2016 

Ítem/pregunta Índice de dificultad (30% - 70%) Índice de discriminación (más del 30 %) Eficiencia discriminativa (más del 50 %)
01 25,40 13,71 20,29
02 28,57 16,20 21,96
03 7,94 7,92 16,79
04 84,13 41,60 60,95
05 47,62 49,83 60,30
06 44,44 15,07 18,36
07 52,38 15,45 17,75
08 71,43 32,54 40,91
09 26,98 2,49 3,57
10 42,86 43,32 54,63
11 39,68 24,95 32,01

Fuente: elaboración propia en base a Caro et al. (2019)

Tabla 6 Comportamiento individual de cada ítem. Año 2017 

Ítem/pregunta Índice de dificultad (30 % - 70 %) Índice de discriminación (más del 30 %) Eficiencia discriminativa (más del 50 %)
01 65,63 63,83 67,86
02 53,13 57,34 69,24
03 59,38 77,49 88,61
04 62,5 82,82 91,06
05 40,63 51,96 69,84
06 46,88 58,81 74,83
07 66,67 91,75 96,99
08 15,63 35,01 73,70
09 59,38 81,98 93,16
10 65,63 88,91 95,52

Fuente: elaboración propia en base a Caro et al. (2019)

En forma comparativa, en la Tabla 4 y la Tabla 5 se presentan los resultados globales de ambos cuestionarios y los resultados de cada pregunta; se resaltan los valores no adecuados en cada una. Caro et al. (2019) indican que ''Luego, analizando la valoración de comportamiento del ítem, es posible identificar una posible acción a realizar en cada pregunta con el objetivo de mejorar la calidad del cuestionario” (p. 189).

Por último, en relación al tercer objetivo planteado, al finalizar el curso se realizó una valoración de los cuestionarios por parte del estudiantado con aspectos positivos y negativos de los cuestionarios a través de una encuesta, cuyos resultados fueron presentados en Caro et al. (2019) y se transcribieron algunos comentarios relevantes (Figura 1 y Figura 2).

Fuente: elaboración propia en base a Caro et al. (2019)

Figura 1. Aspectos positivos. 

Del análisis textual realizado se observan que como aspectos positivos surgen principalmente las siguientes palabras:

Parcial: debido a que es considerado como herramienta de preparación para las evaluaciones parciales que son las que permiten que el estudiantado regularice la materia y lo consideran de ayuda para esa instancia.

Ayuda: el rol que cumplen estas evaluaciones previas al parcial.

Temas: fueron valorados positivamente los temas que se evaluaron.

Conocimientos: les permitió aprender o bien afianzar los conocimientos recibidos en las clases previas.

Fuente: elaboración propia en base a Caro et al. (2019)

Figura 2 Palabras representativas de aspectos negativos y principales frases. 

Como aspectos negativos surgen principalmente las siguientes palabras:

Preguntas: el estudiantado esperaba preguntas similares a las que se hacen en las clases, por lo que ante preguntas más complejas, que requieren determinados niveles de razonamiento, se vio amenazado y por ello las consideraron confusas o difíciles.

Parcial: destacaron que había diferencias con lo evaluado en el parcial, lo que está relacionado con la palabra anterior debido a que no hubo cuestionamientos idénticos en cuanto a forma, aunque sí se evaluaron los mismos contenidos.

Conclusiones

Es de destacar la importancia de la evaluación en entornos virtuales con instrumentos idóneos. Si a la evaluación en estos entornos se le agrega la masividad de los cursos que se tienen en la FCE- UNC, se torna imprescindible la realización de un adecuado análisis de datos de los resultados de los cuestionarios que actúan como mediadores pedagógicos en los procesos de enseñanza y de aprendizaje, dado el propósito formativo de la evaluación.

Evaluar virtualmente grupos masivos es un desafío y Moodle ofrece una serie de características que al ser estudiadas permiten un análisis completo de los instrumentos aplicados. Las funcionalidades de estos cuestionarios proveen de información que retroalimenta la evaluación hacia una mejora de la calidad.

El primer cuestionario aplicado al estudiantado del curso de Estadística mostró falencias importantes en su diseño, a partir de la interpretación del reporte de indicadores, por lo que no se permite identificar problemas de aprendizaje. El hecho de que los cuestionarios no evalúen lo que se pretende evaluar puede tener múltiples causas, entre ellas que el alumnado no entienda la pregunta o bien no haya aprehendido los conceptos que se están evaluado, entre otras causas.

En una segunda etapa, se realizaron los ajustes al cuestionario con la finalidad de mejorar las preguntas que atentan contra la confiabilidad del instrumento, para lograr una evaluación adecuada.

El uso del banco de preguntas permite combinaciones entre ellas, lo que permite generar distintos instrumentos de evaluación que son validados cuando los cuestionarios son instrumentados. De esta manera, las preguntas incorrectas o poco claras son reemplazadas por nuevas preguntas, o bien por preguntas modificadas y corregidas; con ello se logran cuestionarios fiables y válidos.

En definitiva, esta acción pone en relieve la importancia de diseñar e implementar este tipo de actividades para fomentar la mayor participación del estudiantado en su aprendizaje y permite justificar por qué esta instancia debe formar parte del proceso de enseñanza.

Cabe mencionar que muchos profesores y profesoras desconocen estas potencialidades y no realizan un análisis exhaustivo de sus instrumentos de evaluación, por lo que es necesario dar a conocer estos resultados y transmitir este tipo de análisis a los equipos docentes de las instituciones de educación superior, para que incorporen estrategias que permitan una evaluación de calidad (Conde, 2005 y Hamodi et al., 2015).

Referencias Bibliográficas

Blanco, M. y Ginovart, M. (2012). Los cuestionarios del entorno Moodle: su contribución a la evaluación virtual formativa de los alumnos de matemáticas de primer año de las titulaciones de Ingeniería. RUSC. Universities and Knowledge Society Journal, 9(1). https://www.redalyc.org/pdf/780/78023415012.pdfLinks ]

Brink, R. y Lautenbach, G. (2011). Electronic assessment in higher education (Evaluación electrónica en la educación superior]. Educational Studies, 37(5), 503-512. [ Links ]

Cabrera, F. (2005). Categorización y triangulación como procesos de validación del conocimiento en investigación cualitativa. Theoria, 14(1), 61–71. https://www.redalyc.org/pdf/299/29900107.pdfLinks ]

Calvo-Iglesias, E. (2017). Uso de la plataforma Moodle para fomentar la participación del alumnado en la evaluación. En Serrano-Inzuna, M. J., Campos-Pinto, V. C., Pantoja-Mejías, V. y Silva-Quiroz, J. E. Educación y Tecnología. Propuestas desde la investigación y la innovación educativa (pp. 437-440). Chile: Universidad de Santiago de Chile (USACH). [ Links ]

Caro, N. y Ahumada, M. (2018a). Fiabilidad de los cuestionarios como instrumentos de evaluación de estudiantes de Estadística en un entorno virtual de enseñanza. (Sesión de Congreso]. XX Encuentro Internacional Virtual Educa, Salvador, Bahía, Brasil. https://encuentros.virtualeduca.red/storage/ponencias/bahia2018/jQSGPO8KBV5EW3JMFUyp27ac2mDgygqxP4bsPTgy.pdfLinks ]

Caro, N. y Ahumada, M. (2018b). Optimizando las herramientas virtuales para evaluar a estudiantes de Estadística. (Sesión de Congreso]. XX Encuentro Internacional Virtual Educa. Argentina. https://encuentros.virtualeduca.red/storage/ponencias/argentina2018/zF8C9FRbllmJDRMvZm7pbfbivMcdGjPmfdObSV98.pdfLinks ]

Caro, N., Ahumada, M. y Arias, V. (2019). Uso de indicadores psicométricos para la optimización de cuestionarios. Experiencia en la evaluación de los estudiantes de Estadística I. (Sesión de Congreso]. I Jornadas virtuales de aulas abiertas y II Jornadas de aulas abiertas, Universidad Nacional de Córdoba y Universidad Nacional de Mar del Plata, Argentina. http://nulan.mdp.edu.ar/3221/1/kap-etal-2019.pdfLinks ]

Cejudo, M. C. L. (2007). Moodle como entorno virtual de formación al alcance de todos. Comunicar, 15(28), 197-202. https://www.redalyc.org/pdf/158/15802827.pdfLinks ]

Conde, M. J. R. (2005). Aplicación de las TIC a la evaluación de alumnos universitarios. Teoría de la Educación. Educación y Cultura en la Sociedad de la Información, 6(2). https://www.redalyc.org/pdf/2010/201021055002.pdfLinks ]

Crews, T. B. y Curtis, D. F. (2011). Online course evaluations: Faculty perspective and strategies for improved response rates (Evaluaciones de cursos en línea: Perspectiva de la facultad y estrategias para mejorar las tasas de respuesta]. Assessment & Evaluation in Higher Education, 36(7), 865-878. [ Links ]

Daly, C., Pachler, N., Mor, Y. y Mellar, H. (2010). Exploring formative e‐assessment: using case stories and design patterns (Exploración de la evaluación electrónica formativa: uso de historias de casos y patrones de diseño]. Assessment & Evaluation in Higher Education, 35(5), 619- 636. [ Links ]

De Camilloni, A., Celman, S., Litwin, E. y Palou de Maté, M. D. C. (1998). La evaluación de los aprendizajes en el debate didáctico contemporáneo. Paidós. [ Links ]

Delgado-García, A. M. y Oliver-Cuello, R. (2006). La evaluación continua en un nuevo escenario docente. RUSC. Universities and Knowledge Society Journal, 3(1). https://rusc.uoc.edu/rusc/es/index.php/rusc/article/download/v3n1-delgado-oliver/266-1183-2-PB.pdfLinks ]

Díaz, M. J. y González, M. (2021). Crear, Editar, Calificar y Descargar un Cuestionario de un curso en la Plataforma Moodle (versión 3.10). Universidad Tecnológica de Panamá. https://ridda2.utp.ac.pa/bitstream/handle/123456789/12195/Crear-Cuestionario-editarlo-calificarlo-y-descargarlo-en-moodlev3-10.pdf?sequence=3&isAllowed=y Links ]

Ferrão, M. (2010). Evaluación electrónica dentro del paradigma de Bolonia: evidencia de Portugal. Evaluación y evaluación en la educación superior, 35(7), 819-830. https://doi.org/10.1080/02602930903060990Links ]

Galán, B. M. y Mateos, D. R. (2012). La evaluación de la formación universitaria semipresencial y en línea en el contexto del EEES mediante el uso de los informes de actividad de la plataforma Moodle. RIED. Revista iberoamericana de educación a distancia, 15(1), 159-178. http://revistas.uned.es/index.php/ried/article/view/782/692Links ]

Graff, M. (2003). Cognitive style and attitudes towards using online learning and assessment methods (Estilo cognitivo y actitudes hacia el uso de métodos de evaluación y aprendizaje en línea]. Electronic Journal of e-learning, 1(1), 21-28. https://www.academic-publishing.org/index.php/ejel/article/view/1810/1773Links ]

Hamodi, C., López, V. M. y López, A. T. (2015). Medios, técnicas e instrumentos de evaluación formativa y compartida del aprendizaje en educación superior. Perfiles educativos, 37(147), 146-161. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S0185-26982015000100009&lng=es&nrm=iso&tlng=esLinks ]

Medina-Rebollo, D., Grimaldi-Puyana, M., Del Río-Rama, M. y Sánchez-Oliver, A. (2019). Elaboración y validación de un cuestionario para evaluar el uso didáctico de la plataforma de teleformación Moodle en el contexto universitario. Revista Espacios 40(09). https://www.revistaespacios.com/a19v40n09/19400904.htmlLinks ]

Raichman, S., Sabulsky, G., Totter, R., Orta, M. y Verdejo, P. (2011). Estrategias para el desarrollo de innovaciones educativas basadas en la utilización de Tecnologías de información y comunicación. En Estrategias para el uso de Tecnologías de información y comunicación en los procesos de aprendizaje: Sistematización de experiencias y buenas prácticas de docentes universitarios. InnovaCesal. http://www.innovacesal.org/innova_public_docs01_innova/ic_publicaciones_2012/pubs_ic/pub_04_doc03.pdfLinks ]

Ryan, S., Scott, B., Freeman, H. y Patel, D. (2013). The virtual university: The internet and resource-based learning [La universidad virtual: Internet y el aprendizaje basado en recursos]. Routledge. [ Links ]

Segura-Castillo, M. A. (2018). La función formativa de la evaluación en el trabajo escolar cotidiano. Revista Educación, 42(1), 118-137. http://www.redalyc.org/articulo.oa?id=44051918010Links ]

Steegmann, C., Huertas, M. A., Juan, Á. A. y Prat, M. (2008). E-learning de las asignaturas del ámbito matemático-estadístico en las universidades españolas: oportunidades, retos, estado actual y tendencias. RUSC. Universities and Knowledge Society Journal, 5(2), 1-14. https://www.redalyc.org/pdf/780/78011201004.pdfLinks ]

Tirado-Morueta, R. y Hernando-Gómez, Á. (2011). Comunidades de aprendizaje a través de plataformas de teleformación. RIED. Revista iberoamericana de educación a distancia, 14(2), 99-120. https://www.redalyc.org/pdf/3314/331427215006.pdfLinks ]

Villamizar-Rodríguez, J. Á. (2005). Los procesos en la evaluación educativa. Educere, 9(31), 541-544. http://ve.scielo.org/scielo.php?pid=S1316-49102005000400015&script=sci_arttext&tlng=enLinks ]

[1]Disponible en https://moodle.org

Recibido: 31 de Julio de 2021; Aprobado: 19 de Octubre de 2021

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons