1) Análisis de Indicadores de Evaluación Curricular
Al comparar dos productos generados por IA (secuencias didácticas - planes de evaluación), podemos fijarnos en:
Alineamiento con el currículum nacional: ¿Ambos productos reflejan los Objetivos de Aprendizaje (OA) y las Bases Curriculares vigentes? Por ejemplo, en Matemáticas y Física, ¿abordan habilidades como modelamiento o resolución de problemas?
Rigor científico: Uno podría ser más preciso en conceptos clave (ej: leyes de Newton), mientras que otro podría simplificar demasiado, afectando la profundidad.
Adaptabilidad: ¿Permiten modificaciones para distintos contextos educativos? Un producto podría ser muy rígido, mientras otro ofrece sugerencias para diversificar actividades.
Reflexión: Como pedagogos, debemos priorizar productos que equilibren exactitud científica y flexibilidad pedagógica, especialmente en ciencias exactas donde los errores conceptuales son críticos.
2) Comparación de Instrumentos de Evaluación Generados por IA
Si analizamos, por ejemplo, una prueba escrita y una rúbrica de evaluación creadas por IA, deberíamos considerar:
Validez: ¿Miden realmente lo que dicen medir? Por ejemplo, en Física, un instrumento podría evaluar solo memoria (fórmulas) y no comprensión (aplicación en problemas reales).
Objetividad: ¿Son claros los criterios de corrección? Una rúbrica detallada reduce la subjetividad frente a preguntas abiertas ambiguas.
Retroalimentación: ¿Incluyen sugerencias para mejorar? Un producto podría solo dar notas, mientras otro ofrece comentarios personalizados (útil para el aprendizaje formativo).
Reflexión: En nuestra área, los instrumentos deben promover pensamiento crítico y no solo respuestas mecánicas. Un buen producto de IA debería complementarse con nuestra mediación docente para contextualizar las evaluaciones.