Introducción
La formación para la investigación ha sido un tema vinculado a la construcción de políticas educativas, dado el papel que desempeña en las prácticas pedagógicas y en el escenario académico como principio de transformación social (Rojas Granada y Aguirre Cano, 2015). La formación para la investigación educativa busca alcanzar la comprensión de fenómenos y procesos, mediante la “investigación-reflexión”, cuyo desarrollo parte de experiencias que se someten a una reelaboración permanente con base en cuestionamientos, para orientarlas al servicio y a la capacidad de resolución de problemas en el ámbito académico (Córdoba, 2016). Sujeto a esto, la evaluación de los procesos de formación investigativa, en el escenario de la educación superior, busca fortalecer la relación educación-investigación a través de la valoración del desempeño de los futuros grupos de profesionales frente a sus prácticas pedagógicas (Velandia-Mesa et al., 2017), para lo cual la investigación educativa se convierte en un reto que orienta sus acciones al mejoramiento del aprendizaje, transformadas en oportunidades para enriquecer la enseñanza.
Actualmente, en educación superior se requiere llevar a cabo aproximaciones significativas respecto a la evaluación de los procesos de formación investigativa, factor asociado a un marco curricular que considera la investigación como parte del desempeño y perfil de un personal docente transformador de un escenario social, cultural o educativo (Da Cunha, 2015). En consecuencia, es oportuno comprender la investigación formativa como un saber integral, no solo basado en conocimientos y metodologías, lo que conlleva a centrar la evaluación desde las dimensiones del saber, saber hacer y saber ser.
Uno de los elementos que se estima como importante para fortalecer la valoración del desempeño en investigación está asociado a los instrumentos que se aplican durante la evaluación de la formación investigativa. Si bien, la evaluación del trabajo de fin de grado y su defensa son una aproximación al desempeño del estudiantado en metodología de la investigación, este no es el único referente (Correa Bautista, 2009). Esto conduce al personal docente e investigador a concentrar esfuerzos en la construcción y validación de escalas de valoración, focalizadas en la evaluación de conocimientos, habilidades y actitudes que se procuran consolidar durante la formación investigativa.
El diseño, validación y aplicación de escalas de valoración conforma un momento fundamental en los procesos de investigación educativa (Valdés Cuervo et al., 2018). La construcción rigurosa de instrumentos constituye una etapa importante en la mejora de procesos de diagnóstico, intervención y evaluación de procesos formativos (Romero et al., 2006). Si bien existen diversas consideraciones relacionadas con la evaluación de los procesos de formación con relación a su pertinencia, capacidad discriminante, claridad, entre otros, la validación de instrumentos contempla una aproximación significativa frente al interés de identificar y valorar conocimientos, resultados de aprendizaje y desempeños, como parte de una formación integral (Velandia-Mesa et al., 2017). Por esta razón, el diseño y validación de una escala de valoración para la formación investigativa es un proceso articulado al fortalecimiento de la investigación formativa, que trasciende la medida de los alcances logrados a orientar la estimación de la formación como parte de una experiencia conducente a mejores desempeños en la labor profesional (González Campos et al., 2016).
Este estudio considera el diseño, construcción y validación de una escala de estimación acumulativa, recurso que permite valorar los procesos de formación en investigación educativa a través de constructos relacionados con competencias investigativas y reactivos (indicadores binarios diferenciales) asociados a resultados de aprendizaje. Esta escala es una herramienta operativa y sistemática que permite una aproximación a la valoración del proceso de formación investigativa; sin embargo, conviene resaltar que tal estimación es producto de una articulación entre las consideraciones formativas traducidas en competencias y desempeños desde las dimensiones del ser, el hacer y el saber (Piña-Osorio y Aguayo-Rousell, 2017). En suma, la evaluación de la formación investigativa es un aspecto importante debido a que, a través de la valoración y su estimación, se evidencian, en gran medida, los logros y los alcances respecto a los procesos de enseñanza y aprendizaje asociados a la investigación como estrategia pedagógica (García Bejarano et al., 2013).
Las metodologías de evaluación de procesos educativos evolucionan constantemente en busca del progreso y su representatividad (González-Espino, 2017). Los constructos educativos respecto al saber, el hacer y el ser resultan ser concepciones teóricas que no son accesibles y valorables fácilmente, más aún, cuando reconocerlas presupone múltiples dimensiones para identificarlas. No obstante, frecuentemente los instrumentos de evaluación son focalizados en la optimización de su consistencia y estabilidad, los cuales se manifiestan por la medición del constructo, al imprimir el sello de la teoría clásica que establece una correlación lineal entre la medición obtenida y el nivel de constructo evaluado (Hambleton et al., 1991).
En otras palabras, basados en la teoría clásica, se estima que la calificación obtenida por el estudiantado es el resultado de la suma hipotética ejecutada por el juicio del ente evaluador más el error de medida propio del constructo. Este modelo presupone resistencia frente a las características evaluadas, ya que los constructos valorados, por lo general, no solo dependen de la esencia y propiedades de los instrumentos, sino también de quien los ejecuta. De igual modo, los resultados de la valoración de un proceso formativo también están ligados la capacidad discriminante del instrumento aplicado, ya que el coeficiente de dificultad estimado dependerá de quien lo construya; esto supone que existe una dependencia entre el instrumento, quien lo ejecuta y a quien se evalúa, y, por tanto, confrontar los resultados del aprendizaje entre el mismo grupo de estudiantes podría resultar arbitrario o parcial. Tales consideraciones problémicas convergen en un bajo índice de concordancia (estabilidad) entre las mediciones determinadas por parte de los jurados evaluadores, ejecutadas con el mismo instrumento y en diferentes momentos.
En los últimos años, en el ámbito educativo, se ha producido el interés de reconocer, fortalecer y consolidar determinadas competencias investigativas (Aular et al., 2009; Reiban Barrera et al., 2017; Colás Bravo et al., 2009; García-Gutiérrez y Aznar-Díaz, 2019; Jaik Dipp, 2013; Velandia-Mesa et al., 2019) debido a que la formación en investigación hace parte de la identidad universitaria y permite el agenciamiento de la calidad educativa. Otros estudios como los de Balbo et al., (2015), Correa Bautista (2009); Pal et al. (2014); y González-Espino (2017), por su parte, han centrado su atención en la construcción de instrumentos con fines de evaluación de productos investigativos a partir de criterios focalizados en la valoración de trabajos de fin de grado y maestría. Estos estándares, así como algunos instrumentos de evaluación basados en objetivos de aprendizaje, constituyen un valioso recurso para el personal docente; sin embargo, basados en los antecedentes y las experiencias en el contexto del estudio (análisis de índices de reproducibilidad y repetitividad, capacidad discriminante, estabilidad, entre otros) se considera que a través de estos modelos se reduce la valoración del aprendizaje a los conocimientos transmitidos cuyo producto está determinado por un documento estandarizado y la defensa del proyecto.
En respuesta, se propone construir y validar una escala de valoración de la formación en investigación educativa basada en el modelo matemático en torno a las respuestas del ítem (IRT) y adaptada a la escala acumulativa de Guttman. A través de la escala multidimensional (producto del estudio), se pretende valorar la formación investigativa a partir de resultados de aprendizaje, mediante constructos asociados a declaraciones (ítems) donde cada uno de ellos cuenta con categorías diferenciales que se valoran de forma binaria, por medio de reactivos focalizados con la intención de establecer la probabilidad de discriminación y grado de dificultad de los ítems, atendiendo las consideraciones (IRT) de Fischer y Ponocny-Seliger (1998).
La revisión y el análisis documental ha contribuido a la elaboración y validación de la escala que presenta este estudio, así como al razonamiento respecto a la interpretación de los resultados del proceso formativo. En este sentido, el discernimiento sobre la situación del aprendizaje se ha basado en la evaluación criterial e ideográfica (Mesías Maraví y Frisancho León, 2013), que establece principios esenciales frente a la validez de contenido y justifica la relevancia de criterio (valorar el rendimiento del estudiante de manera absoluta comparando situación inicial y situación actual) más allá del precepto o el estándar que involucra un carácter netamente estadístico relativo.
Durante la dinámica de validación se ha considerado la evaluación como parte de un rol orientador que manifiesta a cada estudiante la posibilidad para identificar aspectos por mejorar y desempeños por consolidar, de modo antagónico a la concepción de la evaluación selectiva o como medio de clasificación de estudiantes. Así mismo, a través del estudio se abordó la posibilidad de desarrollar constructos, ítems y reactivos discriminantes que conllevan a descubrir y promover aptitudes durante los procesos de acompañamiento y seguimiento a la formación para la investigación educativa.
En el contexto del estudio presentado en este artículo, se ha abordado la formación en investigación educativa a través de seminarios presenciales y la ejecución de acciones en contextos de prácticas pedagógicas, mediadas a través de recursos tecnológicos para asistir y evaluar los procesos formativos durante cuatro momentos académicos (rutas de formación investigativa) correspondientes a: 1) planteamiento del proceso investigativo, 2) reconstrucción teórica, 3) trabajo de campo y 4) construcción para el futuro (García Bejarano et al., 2013), etapas de la formación para la investigación, no interdependientes y consecuentes con los procesos de evaluación. Si bien, la evaluación de la formación investigativa es un proceso complejo dada su naturaleza diversa y dinámica propia de la investigación, se consideró la optimización del grado de estabilidad de la escala, por medio de comparaciones en el tiempo como elemento inherente al proceso evaluativo, confrontando el rendimiento logrado con los objetivos previstos, basados en la premisa de que mientras mayor sea la información que aporta determinado ítem, mayor es la rigurosidad de la estimación del constructo y, por consiguiente, mayor es la estimación de la evolución del estudiante en función del aprendizaje (Pal et al., 2014).
Con el fin de orientar la lectura del artículo, se presenta, en la sección Material y método, la descripción del proceder metodológico por fases de investigación (exploratoria, descriptiva, relacional y explicativa). Posteriormente en la sección de Resultados, se describen los hallazgos de las fases mencionadas. Se culmina el artículo abordando discusiones y reflexiones finales.
Material y método
Atendiendo los niveles de investigación científica (Supo-Condori, 2013), el estudio fue desarrollado en cuatro momentos: La primera fase denominada validez de contenido, que corresponde a una etapa exploratoria basada en información documental y datos de contexto a través de entrevistas semiestructuradas y grupos focales. La segunda fase correspondiente a la validez de constructo, que responde a una etapa transversal descriptiva, cuyo fin fue la formulación, clasificación (conglomerados) y evaluación a través de la concordancia de jueces expertos. La tercera etapa mencionada como fase de análisis de consistencia interna, corresponde a una etapa de estudio relacional, en la cual se abordó un proceso inferencial respecto al análisis de fiabilidad y solidez de la escala. Finalmente, la fase explicativa corresponde a una etapa correlacional causal, que comprende un estudio de reproducibilidad y repetitividad (R&R) por medio del análisis de varianza y concordancia.
Fases
Fase exploratoria - validez de contenido
Dada la complejidad del proceso de valoración de la formación investigativa, debido a la dinámica y multidimensionalidad propia de los fenómenos educativos, se dio lugar al proceso de validación de contenido de la siguiente forma:
Identificando objetivos de la formación, resultados de aprendizaje, dimensiones pedagógicas, estándares y criterios de calidad en investigación, competencias investigativas, rubricas, instrumentos y patrones de evaluación. Para tal fin se llevó a cabo un análisis documental a través de muestreo teórico, que abordó factores de los modelos de calidad de la Agencia Nacional de Evaluación de la Calidad y la Acreditación (ANECA) (2013) de España y el Consejo Nacional de Acreditación (CNA) (2013) de Colombia y colaboraciones bibliográficas de autoridades e instituciones de educación superior respecto a la valoración de la formación en investigación educativa (Balbo et al., 2015; Correa Bautista, 2009; González-Espino, 2017; Pal et al., 2014). Este proceso originó una primera aproximación frente al registro de contenidos, objetivos y resultados de aprendizaje estimados como fundamentales en la formación investigativa, parcialmente definidos y abordados en un listado inicial de 144 resultados de aprendizaje asociados a los contenidos propuestos en los syllabus de las asignaturas de metodología de investigación educativa.
Posteriormente, se procedió a llevar a cabo un taller en mesas de trabajo con un panel del profesorado del área de investigación, representados por unidades académicas (departamentos, facultades y vicerrectoría), que manifestaron elementos que respaldaron la articulación entre la teoría y las necesidades contextuales frente a los procesos de formación investigativa. En correspondencia, la recolección de información de esta etapa se llevó a cabo a través de un protocolo de entrevista colectiva ejecutada en el grupo focal asociado a categorías de análisis como: resultados de aprendizaje, recursos, perfil del personal investigador en formación, estrategias de enseñanza, acompañamiento, seguimiento y evaluación. Las categorías y constructos emergen como parte de un proceso de análisis de necesidades contextuales y autoevaluación, que busca identificar competencias y desempeños en la formación para la investigación educativa.
Este proceso fue sistematizado y asistido con el apoyo del software Atlas Ti 8, se identificaron códigos representados por densidades (D - número de asociaciones entre categorías) y el peso (E- prevalencia en voces representativas asociadas a cada código).
Fase descriptiva - validez de constructo
Una vez reconocidas las competencias en investigación educativa e identificados los resultados de aprendizaje (RA) para la formación en investigación (Velandia-Mesa et al., 2019) se procedió al estudio de validez de constructo por medio de:
- Primera formulación de reactivos (ítems): Construida por parte del grupo investigador para responder a 4 indicadores binarios (diferenciales) atendiendo al análisis documental, la argumentación teórica, y basados en el supuesto que resalta una relación lineal frente a la información de ítem y la rigurosidad de la estimación del constructo.
- Clasificación de reactivos: Durante este proceso se solicitó a los integrantes del grupo de investigación, vincular cada uno de los ítems a los criterios de evaluación en el que consideraba mayor correspondencia; este proceso se denominó clasificación categórica. Esto generó una matriz ordinal que se analizó por cada una de las cuatro rutas de formación, acudiendo a la reducción de dimensiones parte del método de extracción de componentes principales, con un número fijo de factores correspondiente a dos.
- Evaluación del constructo: Luego de la elaboración y clasificación de reactivos, criterios de evaluación e indicadores binarios diferenciales (categórica y factorial), se llevó cabo una primera valoración de la escala por parte de los equipos evaluadores (jueces y juezas, personas expertas y estudiantes) donde se estimaron los criterios que se describen en la Tabla 1:
Ítems crit. | Pertinencia ítem | Suficiencia ítems por criterio | Claridad ítem | Nivel de dificultad | Capacidad discriminante | Objetividad diferencia |
---|---|---|---|---|---|---|
DIM | Mantener (1) Retirar (0) | Suficiente (1) Incompleto(0) | Comprensible (1) Incomprensible (0) | Adecuado (1) Inadecuado (0) | Adecuado (1) Inadecuado (0) | Objetivo (1) Subjetivo (0) |
1 | 1 | 1 | 1 | 1 | 1 | 1 |
2 | 1 | 0 | 0 | 1 | 1 | 1 |
3 | 0 | 1 | 1 | 0 | 1 | 0 |
4... | 1 | 1 | 0 | 0 | 1 | 1 |
- Pertinencia: Estimación de conservación o exclusión de ítems en la escala.
- Suficiencia: Analiza si el número de ítems conlleva a evaluar adecuadamente el objetivo de aprendizaje.
- Claridad: Estimación respecto a la terminología y redacción de los ítems.
- Nivel de dificultad: Nivel de estimación en indicadores binarios.
- Capacidad discriminante: Categorías nominales que permiten identificar dificultades y fortalezas.
- Objetividad: Indicador que permite reconocer si las categorías diferenciales están expresadas en conductas observables o medibles.
Nota: Elaboración propia.
Fase relacional - consistencia interna
Conforme a las fases anteriores, se logró construir un primer borrador de la escala de valoración que conllevó a ejecutarla. Para ello, se evaluó la consistencia interna de la escala y se obtuvo la calificación global de cada estudiante mediante una prueba piloto; para tal fin se valoró el proceso de formación investigativa a través del planteamiento de investigación, referentes de investigación, la sistematización del trabajo de campo y la divulgación de los resultados en el documento final de grado.
Con el fin de fortalecer la capacidad discriminante de la escala de valoración, se optó por identificar, distinguir y determinar los niveles de logro en los procesos de formación investigativa; para ello, se construyeron indicadores binarios y categorías diferenciales cuyos valores en conjunto determinan los niveles de alcance de los objetivos de aprendizaje (destacado, satisfactorio, en proceso, en inicio, sin abordar) entre uno y cinco. Las calificaciones finales para cada uno de los resultados del aprendizaje en el proceso de formación investigativa, se obtuvieron en función del puntaje total alcanzado por cada individuo respecto a la suma de los indicadores binarios; de esta manera la escala permitió calcular un valor ordinal, con el fin de identificar la correlación de cada ítem respecto a la suma total del ítem.
Este proceso conllevó a determinar la consistencia interna de la escala a través de la técnica de dos mitades (debido a que los ítems están fragmentados por competencias investigativas) y corroborla posteriormente con el cálculo del alfa de Cronbach. Para finalizar, se clasificaron los ítems respecto al índice de correlación (ítem-total) de mayor a menor identificando los reactivos con menor magnitud de asociación, cuyo proceso está relacionado con el “Alfa de Cronbach si se elimina el ítem”, proceso que permitió analizar la consistencia interna y analizar la capacidad discriminante de la escala.
Fase explicativa - estabilidad
Para avanzar en la validación de la escala de valoración de la formación investigativa y teniendo en cuenta los resultados de las fases anteriores, se procedió al análisis de patrones de evaluación frente a los conceptos de repetitividad y reproducibilidad (R&R), basados en la aleatoriedad y la desviación de la medición sistemática. Generalmente, los instrumentos de recolección de información en educación consideran la validez de contenido a través de la evaluación documental y el juicio experto, así como la validez de constructo basados en los niveles de fiabilidad (Romero et al., 2006), sin embargo, en los procesos de valoración de la formación investigativa como parte del diagnóstico del presente estudio, se demostró que existe un bajo índice de concordancia (Kappa < 0,4) entre las mediciones determinadas por parte del sistema de evaluación usado, lo que conllevó a obtener diferencias estadísticamente significativas en la valoración por parte de jurados de proyectos con el mismo instrumento de evaluación durante el proceso de planteamiento de la investigación.
Frente a la condición mencionada, se condujo a la aplicación de la escala de valoración de la formación investigativa para determinar los índices de repetitividad y reproductibilidad (R&R); el primer concepto entendido como una medida de dispersión caracterizada por los resultados de evaluaciones sucesivas a un mismo grupo de estudiantes, con el mismo protocolo de valoración y el mismo evaluador; el segundo criterio entendido como el nivel de proximidad o de concordancia entre los resultados de las evaluaciones por parte de diferentes jurados evaluadores.
Los índices de R&R fueron expresados en términos de dispersión, cuyos métodos de determinación se basaron en la evaluación estadística a través de la representación de la desviación estándar y ANOVA, el cual segmenta la reproducibilidad en sus componentes de operador y operador por parte. Durante esta fase se persiguió el objetivo de determinar los índices de R&R sistematizando los resultados de la valoración de la formación investigativa por parte de tres jueces que evaluaron en dos momentos de evaluación, aplicando un estudio de medición de sistema cruzado a partir de las herramientas de calidad del software Minitab 17.
Cada grupo de estudiantes fue monitoreado y valorado por 3 miembros del grupo profesoral (de tutoría, de asesoría, de lectura). El profesorado y el alumnado evaluaron el proceso de formación investigativa durante 2 semestres académicos (cohortes) a través de la escala, sin retomar las valoraciones determinadas en el diagnóstico. Se obtuvo una calificación global por parte de los jurados en los momentos de evaluación determinados, cuyos insumos fueron determinantes para el análisis de R&R.
Participantes
Las personas participantes en el proceso de validación de la escala de valoración de la formación investigativa, estuvieron constituidas en tres grupos: 1) Un panel de 11 miembros del profesorado investigador, quienes actuaron por su experiencia en el grupo focal y la clasificación de ítems. 2) Grupo participante correspondiente a 8 integrantes del grupo de investigación y 5 egresadas del programa de pedagogía (asistentes de investigación), a totalidad procedió como el equipo evaluador. Finalmente, la aplicación del instrumento como prueba diagnóstica, se llevó a cabo en 26 estudiantes de formación investigativa en el programa de licenciatura. Dada la población objetivo, los criterios de selección fueron establecidos a partir del método de muestreo discrecional basado en las características contextuales de formación en investigación educativa. Durante el proceso se tuvo en cuenta las consideraciones éticas avaladas por el comité técnico ad hoc y la implementación de consentimientos informados.
Resultados
Estructuralmente en este apartado se exponen los hallazgos del estudio, correspondiendo a cada una de las fases metodológicas propuestas durante la validación de la escala para la valoración de la formación investigativa. Para mayor claridad se ha segmentado la metodología y los resultados en fases; no obstante, las etapas de validación de la escala se encuentran en un dialogo permanente y actúan como elementos interdependientes:
Fase exploratoria - validez de contenido
Los resultados de esta etapa radican en la identificación de las competencias investigativas en un diálogo permanente con los resultados de aprendizaje asociados a la formación investigativa, los cuales se basaron en las dimensiones del saber, el saber hacer y el saber ser. De conformidad se encontró una tendencia hacia un rediseño curricular basado en el fortalecimiento de las prácticas investigativas como parte del perfil de egreso de profesionales en educación, lo que conlleva a focalizar los esfuerzos en la ética investigativa, el trabajo en equipo, la comunicación argumentativa, el desarrollo de pensamiento crítico y la resolución de problemas.
Fruto del muestreo teórico (antecedentes, estándares, políticas institucionales) y el análisis de datos provenientes del grupo focal (identificación de resultados del aprendizaje, construcción de un perfil de personal docente investigador en formación, el uso de estrategias de formación y métodos de evaluación) se determinaron 9 competencias investigativas (ética, tecnológica, argumentativa, relacional, comunicativa, critica, propositiva, metodológica y analítica) agrupadas en 27 criterios de evaluación y definidos finalmente en 110 resultados de aprendizaje representados en la escala de valoración.
Fase descriptiva - validez de constructo
Los resultados de la validez de constructo están relacionados con la formulación de reactivos, su clasificación y la evaluación del constructo. Frente a la formulación de reactivos se lograron identificar 110 resultados de aprendizaje y 4 indicadores binarios diferenciales por ítem, asociados al perfil del personal docente investigador en formación, a los criterios de evaluación y a las dimensiones de las competencias investigativas (saber, saber hacer y saber ser).
La identificación los ítems conllevó a desarrollar un proceso de clasificación. La organización de reactivos por parte de docentes-personal experto y el grupo investigador, generó una matriz ordinal que se analizó por cada una de las 4 rutas de aprendizaje (planteamiento, referenciación, trabajo de campo, construcción para el futuro), acudiendo a la reducción de dimensiones como parte del método de extracción de componentes a través de clúster jerárquico con un número fijo de factores correspondientes a dos (ver Figura 1), se obtuvo la clasificación de los resultados de aprendizaje, teniendo en cuenta la organización constituida por personal docente experto, como parte de la argumentación de la clasificación. Se obtuvieron las siguientes agrupaciones por similitud:
En el momento de formación denominado referenciación, acudiendo a la técnica de análisis de distancia mínima o similitud máxima (clúster jerárquico), se obtuvieron 26 resultados de aprendizaje (R26) en seis categorías. Finalmente, la evaluación de la escala por parte del equipo evaluador (jueces-docentes y jueces-estudiantes) arrojó valores de pertinencia, suficiencia, claridad, nivel de dificultad, capacidad discriminante y objetividad. Es importante resaltar que los descriptores se evaluaron de forma nominal binaria por parte de 15 jueces. Inicialmente se identificaron los ítems evaluados con puntajes bajos (x≤5) medios (6≤x≤10) y altos (11≤x≤15); dada las características de evaluación de cada criterio de forma nominal y con más de dos jueces (Fleiss y Cohen, 1973), en la Tabla 2 se expone la estimación del grado de concordancia absoluta de cada criterio independientemente a través de índice de Kappa de Fleiss con intervalo un de confianza (IC) del 95 %:
- | Kappa | Asymptotic Standard Error | Z | P Value | Lower 95% Asymptotic CI Bound | Upper 95% Asymptotic CI Bound |
---|---|---|---|---|---|---|
Pertinencia | ,681 | ,018 | 38,230 | ,000 | ,646 | ,716 |
Claridad | ,659 | ,018 | 36,971 | ,000 | ,624 | ,694 |
Nivel de dificultad | ,707 | ,018 | 39,6995 | ,000 | ,672 | ,742 |
Suficiencia | ,648 | ,018 | 36,356 | ,000 | ,613 | ,683 |
Capacidad discriminante | ,708 | ,018 | 39,750 | ,000 | ,673 | ,736 |
Objetividad | ,697 | ,018 | 39,792 | ,000 | ,663 | ,732 |
Nota: Elaboración propia.
Los valores del índice Kappa de Fleiss (1981) para los criterios de evaluación por jueces, muestran índices de concordancia considerables (0,61 a 1) cuyos límites asintóticos se encuentran entre 0,61 y 0,80. Debido a las manifestaciones de los jueces y a la óptima concordancia en respuesta, se suprimieron los ítems con menor calificación en el criterio de pertinencia; se replanteó la escritura y redacción de los reactivos con valoraciones bajas en el criterio de claridad. Respecto al nivel de dificultad se identificaron los indicadores binarios diferenciales cuyas valoraciones fueron muy altas y muy bajas, lo que conllevó a reconsiderar los indicadores de alcance, criterio ligado directamente a la capacidad discriminante. Finalmente, para el criterio de objetividad, se identificaron los ítems con menor valoración y se reconsideraron los indicadores de logro ajustando los criterios de evaluación y definiendo, con mayor precisión, los alcances de la evaluación de la formación para la investigación educativa.
Fase relacional - consistencia interna
Posterior al ajuste (contenido y constructo) y basados en la clasificación de ítems por parte del equipo experto y la evaluación por parte de jueces, se continuó el proceso dando lugar a la ejecución del instrumento con la aplicación de una prueba piloto para corroborar su idoneidad. Cada indicador binario de la escala basada en Guttman arrojó un valor que, en conjunto, determinó el nivel de logro de los objetivos a evaluar. Este proceso permitió cuantificar el nivel de logro de cada resultado de aprendizaje a través de variables ordinales.
Los índices de consistencia interna se obtuvieron en un primer momento haciendo uso del método de las dos mitades de Guttman, debido a que el instrumento fue construido de forma fraccionada mediante las dimensiones de competencias (saber, saber hacer, saber ser). Correspondiendo al momento de fundamentación, se obtuvieron índices de consistencia interna 0,707 y 0,777 respectivamente. Posteriormente, para la estimación global de la solidez de la escala se aplicó el método de consistencia interna de Cronbach, se obtuvo un valor alfa de fiabilidad superior a 0,8. Tras la evaluación de las propiedades métricas de la escala a través de los índices de fiabilidad se revelaron los resultados representados en la Tabla 3:
De manera análoga, se procedió al análisis de fiabilidad “si se elimina el elemento [Ítem]”; se observó que los coeficientes de confiabilidad de la escala, en tres de las cuatro rutas de evaluación formación investigativa, aumentaban levemente al eliminar alguno de los ítems. Los resultados evidencian que no cambia sustantivamente el índice de confiabilidad (0,861) se sugirió solo aplicar esta metodología en una de las secciones del instrumento, para fortalecer la validez de la escala.
Fase explicativa - estabilidad
En el proceso diagnóstico del presente estudio y durante el planteamiento de la investigación, se observó un alto índice de variabilidad en la valoración de la formación investigativa por parte de jurados externos que aplicaron el mismo instrumento de evaluación. Lo anterior, conllevó a plantear el diseño, construcción, validación y aplicación de la escala de valoración en mención. Como parte de la metodología de estudio se planteó el análisis de la estabilidad del instrumento, por medio del cálculo de patrones frente a los conceptos de repetitividad y reproducibilidad (ver Figura 2):
Los hallazgos más relevantes están vinculados a la variabilidad parte a parte proveniente de los grupos evaluados correspondiente a un 86,94 %. Esto conlleva a declarar que la escala de valoración de la formación en investigación educativa es satisfactoria debido a que el total de calibración corresponde a un 13,06 %, representado por un 4,58 % de la escala de valoración (repetitividad) y un 8,47 % concerniente al equipo evaluador (reproducibilidad), lo cual considera la mayor estabilidad en la sucesión de evaluación frente a la ejecución del instrumento. Esto conllevaría a pensar en un proceso de instrucción frente a la ejecución y aplicación de la escala de valoración. No obstante, los valores de estabilidad (R&R) presentados en la Tabla 4, están conformes con la variabilidad natural del proceso de evaluación (x=0,3588).
Conclusiones
La ejecución de la escala para la valoración de la formación en investigación, basada en el modelo matemático en torno a las respuestas del ítem (IRT) y adaptada a la escala acumulativa de Guttman, proporciona una valiosa aproximación a la valoración del proceso de formación investigativa. Lo anterior está fundamentado en:
- Los constructos desarrollados, respecto a las dimensiones del saber, el hacer y el ser, resultan accesibles y valorables a través de la escala, puesto que la estimación acumulativa a través de indicadores binarios diferenciales permite la identificación de fortalezas y debilidades durante el proceso de formación.
- Valorar la formación en investigación educativa, por medio de constructos relacionados con competencias y reactivos asociados a resultados de aprendizaje, no solo permite evaluar productos de investigación sino también inferir en el desempeño centrado en el estudiantado durante el tiempo del proceso de formación; por tanto, la escala de valoración es un recurso que fortalece el acompañamiento y el seguimiento educativo, a través de categorías diferenciales que conllevan a tomar acciones formativas y correctivas para la mejora de procesos de diagnóstico, intervención y evaluación.
- La capacidad discriminante está asociada a los niveles de logro del estudiantado y no presenta alta dependencia del ente evaluador (criterial e ideográfica) ya que a través de la escala se sugieren pautas y elementos iniciales que conllevan a desarrollarse teniendo en cuenta el diagnóstico y las metas finales; así, el coeficiente de dificultad se obtiene en función del puntaje total alcanzado respecto al puntaje obtenido en la evaluación anticipatoria; de esta manera, a través de la escala, se calcula un valor ordinal, que identifica la relación de cada ítem respecto a la suma total del ítem.
- El muestreo teórico y el análisis de necesidades contextuales conllevaron a incorporar, fundamentalmente, en la escala de valoración, competencias asociadas a la ética investigativa, el trabajo en equipo, la comunicación argumentativa, el desarrollo de pensamiento crítico y la resolución de problemas; esto indica que es importante reconfigurar escenarios de prácticas investigativas como parte del perfil del estudiantado de licenciaturas en educación.
- De acuerdo con la evaluación de constructo, los índices de concordancia son pertinentes; esto nos llevó a reconfigurar y a estimar índices adecuados de pertinencia, suficiencia, claridad, nivel de dificultad, capacidad discriminante y objetividad en la escala de valoración.
- Es posible considerar que la escala tiene consistencia interna debido a que hay alta correlación entre ítems; es decir, la escala muestra un alto grado de homogeneidad según los análisis de fiabilidad realizados posterior a la prueba piloto; no obstante, es importante resaltar que la consistencia interna de la escala no es una propiedad inherente de esta misma; la consistencia interna responde a la medida patrón de las valoraciones obtenidas durante el proceso de formación para la investigación educativa.
- Los resultados obtenidos en el análisis R&R de la escala conllevan a considerar que existe proximidad en las medidas de dispersión evaluadas de manera longitudinal (cohortes académicas). Lo anterior supone cierto grado de independencia respecto al tiempo y quien la ejecuta. Debido a que los niveles de reproducibilidad (evaluación personal tutor/estudiantes) generó mayores niveles de dispersión, se estima llevar a cabo procesos de instrucción para la ejecución y aplicación de la escala.
- Teniendo en cuenta que mientras mayor sea la información que aporta determinado ítem (valoración del proceso formativo en función del aprendizaje) mayor es la rigurosidad de la estimación del constructo (Pal et al., 2014). Se presenta como producto de estudio la escala para la valoración de la formación en investigación educativa con 27 criterios de evaluación definidos en 110 resultados de aprendizaje determinados a través de 4 operadores binarios.
La argumentación teórica y contextual, la clasificación y organización de reactivos, la evaluación por parte de jueces con experticia, los resultados de consistencia interna y el análisis de estabilidad (R&R) permitieron fundamentar la validación de la escala. Sin embargo, en esencia el estudio busca contribuir y participar en el fortalecimiento y consolidación de los procesos de formación para la investigación educativa con base en la reflexión de la evaluación en virtud de las consideraciones plasmadas en el artículo. Conforme a ello, la formación investigativa supone alcanzar nuevos retos que sobrepasan las dimensiones del saber, y focalizan los esfuerzos en el desarrollo del ser y el hacer.