4.2 Uso ético de la IA en la creación de contenidos históricos

Objetivo general: Que los estudiantes comprendan los principios éticos que deben regir el uso de la Inteligencia Artificial (IA) en la generación de materiales didácticos de historia, valorando la importancia de la transparencia, la equidad y la supervisión humana en contextos educativos. Se busca promover el pensamiento crítico y las competencias digitales mediante actividades prácticas basadas en herramientas en línea actualizadas.

4.2.1. Principios éticos en el uso de IA

Objetivo específico: Identificar y analizar los principales principios éticos aplicables al uso de la IA en contextos educativos, especialmente en la creación de contenidos históricos, incorporando fuentes académicas recientes.

Introducción teórica: La rápida adopción de la IA en la educación plantea nuevos dilemas éticos que requieren un marco normativo claro. Organismos como la UNESCO han liderado iniciativas para establecer recomendaciones mundiales. En noviembre de 2021, la UNESCO emitió la “Recomendación sobre la ética de la inteligencia artificial”, que define principios fundamentales (transparencia, equidad, respeto a la dignidad humana, supervisión humana, entre otros)unesco.orgunesco.org. Estos lineamientos enfatizan que la IA no debe reproducir prejuicios ni afectar negativamente los derechos humanos, destacando la necesidad de auditar y explicar los sistemas de IA (principios de rendición de cuentas y transparencia)unesco.orgunesco.org. Además, la literatura latinoamericana subraya la importancia de repensar la IA educativa desde una perspectiva ética, apoyada en políticas públicas que fomenten la responsabilidad y la transparenciave.scielo.org. Los educadores deben, por tanto, promover la alfabetización en IA y el pensamiento crítico entre los alumnos para abordar temas como el sesgo algorítmico, la privacidad de datos y la equidad en el acceso a los beneficios tecnológicosrediech.orgunesco.org. En esencia, la ética de la IA en educación exige priorizar los derechos de las personas y garantizar mecanismos de supervisión humana en cualquier sistema automatizadounesco.orgunesco.org.

Conceptos clave (con citas): Entre los conceptos centrales se encuentran la equidad y no discriminación, que exigen diseñar sistemas de IA inclusivos para todos los estudiantesunesco.org; la transparencia y explicabilidad, que implican entender cómo toman decisiones los algoritmos y evitar “cajas negras” que oculten sesgosunesco.org; la privacidad de los datos, protegiendo la información personal durante todo el ciclo de vida de la IAunesco.org; la responsabilidad, garantizando que existan mecanismos de auditoría y rendición de cuentas cuando los sistemas de IA fallenunesco.org; y la supervisión humana permanente, que exige que las herramientas de IA nunca sustituyan por completo al juicio docenteunesco.orgunesco.org. Así, los estudiantes deben conocer que la IA no es neutral: sin una “brújula ética”, los algoritmos pueden reproducir prejuicios históricos o culturalesunesco.orgscielo.sa.cr. El aporte de la IA puede ser significativo (por ejemplo, automatizar tareas administrativas), pero siempre dirigido por criterios éticos claros. En palabras de expertos, la educación debe permanecer como “un acto profundamente humano arraigado en la interacción social”unesco.org. Finalmente, se destacan estándares regionales como el primer código de ética en IA adoptado por Ecuador en 2023, impulsado por la UNESCOunesco.org, que ejemplifican la aplicación de estos principios en América Latina.

Aplicaciones prácticas: En Pedagogía de la Historia y las Ciencias Sociales, estos principios se aplican al verificar la veracidad de contenidos generados por IA (evitando la difusión de información distorsionada o anacrónica) y al asegurar la diversidad de perspectivas históricas (por ejemplo, corrigiendo sesgos culturales que reproduzca un modelo de IA entrenado en datos limitados). Por ejemplo, al usar herramientas de IA para generar un resumen de un hecho histórico, el docente debe supervisar que no se omitan voces marginadas del relato. La privacidad de los datos cobra importancia al usar asistentes virtuales: se debe proteger la identidad de los estudiantes cuando estos interactúan con sistemas de IA en línea. Además, en América Latina se enfatiza la equidad digital: los educadores deben garantizar que todos los alumnos, independientemente de su contexto socioeconómico, tengan acceso a recursos de IA educativos. Un caso práctico: un museo virtual que usa IA para recrear un personaje histórico debe incluir filtros que eviten estereotipos culturales. En síntesis, estos principios aseguran que la IA en historia no distorsione la historia oficial ni segmentos sociales (por ejemplo, evitando que algoritmos educativos refuercen narrativas sesgadas).

Actividad digital de exploración: Se propone usar una herramienta de mapas conceptuales en línea (por ejemplo, CmapTools o MindMeister) para que los estudiantes creen un mapa ético de IA, identificando y vinculando los principios clave (transparencia, equidad, privacidad, etc.) con ejemplos concretos (por ejemplo, casos de sesgo en IA). Alternativamente, podría explorarse una simulación interactiva de dilemas éticos (por ejemplo, La Moral Machine del MIT, que plantea escenarios de vehículos autónomos) para discutir cómo valores como la justicia y la responsabilidad humana influyen en decisiones algorítmicas. Esta actividad fomenta competencias digitales (navegar y usar apps en línea) y pensamiento crítico al debatir dilemas prácticos.

Recurso digital complementario: Video “Pensando la ética de la IA: ¿La tecnología nos conoce mejor?” (UNESCO, 2022) – Un material audiovisual de la serie “Thinking Ethics of AI” de UNESCO que presenta dilemas reales en la IA y la importancia de valores humanosunesco.org. (Enlace: https://youtu.be/im0XTC91qMI). Este video ilustra con ejemplos la necesidad de principios éticos en sistemas de IA, útil para complementar la reflexión teórica.

Herramientas sugeridas y aplicaciones educativas

  • Herramientas interactivas: Plataformas de encuestas o foros en línea (por ejemplo, Google Forms o Padlet) para debatir dilemas éticos de IA entre estudiantes. Simuladores de ética como AI Fairness 360 de IBM para detectar sesgos. Aplicaciones de mapas conceptuales colaborativos para organizar ideas.

  • Aplicaciones educativas: Incluir códigos de conducta digital y proyectos de ciudadanía digital. Uso de Learning Analytics con criterios éticos (por ejemplo, analíticas de aprendizaje que respeten la privacidad). Discusiones en foros virtuales sobre casos de estudio de IA en historia.

  • Ejemplo de caso real: El caso de un sistema de IA para recomendar lecturas de historia en una plataforma educativa que mostró sesgo (p.ej., sólo proponía autores de un mismo género). Los estudiantes analizan cómo rediseñar el algoritmo para que sugiera diversidad de autores (género, origen, perspectivas).

  • Cronología relevante:

    • 2016: Creación de “El próximo Rembrandt”, pintura generada por IA 351 años después de su muerteunesco.org.

    • 2018: La Comisión Europea publica directrices éticas para IA en educación (refuerzo global de estándares éticos).

    • 2021: UNESCO adopta su primera Recomendación global sobre ética de la IA (principios fundamentales: derechos humanos, equidad, transparencia, supervisión humana)unesco.org.

    • Feb 2024: UNESCO organiza el 2º Foro Mundial sobre Ética de la IA, resaltando la necesidad de regulación y aprendizaje mutuo entre paísesunesco.org.

    • 2023–2024: En América Latina, países como Ecuador y Perú avanzan en códigos éticos y políticas inclusivas de IA apoyadas por UNESCOunesco.org.

Conclusiones y recomendaciones

El subtema concluye que la implementación de la IA en la educación de la historia debe orientarse siempre por principios éticos claros, cuidando los derechos humanos, la diversidad y la transparencia. Se recomienda incorporar debates y actividades prácticas que sensibilicen a los alumnos sobre sesgos algorítmicos y el impacto social de la IA. Es crucial adoptar marcos regulatorios o guías institucionales (basadas en la Recomendación UNESCO) y capacitar a docentes y alumnos en competencias éticas y digitales. Se aconseja revisar periódicamente las políticas escolares para integrar estándares de IA responsable, así como fomentar la crítica reflexiva al contenido generado por IA.

Bibliografía

  • Duque-Rodríguez, J. A., Piña-Ferrer, L. S., & Isea-Argüelles, J. J. (2025). Dimensiones éticas de la inteligencia artificial en educación. Cienciamatria, 11(20).

  • González Arencibia, M., & Martínez Cardero, D. (2020). Dilemas éticos en el escenario de la inteligencia artificial. Economía y Sociedad, 25(57), 77–97.

  • Nozato López, M. J. (2024). La inteligencia artificial en educación: consideraciones éticas y fomento al pensamiento crítico. REDIECH.

  • UNESCO. (2024). Guía para el uso de IA generativa en educación e investigación. UNESCO (Artículo).

  • UNESCO. (2024). Ética de la inteligencia artificial. UNESCO (página web).

  • Observatorio ProFuturo. (2024). IA generativa en la educación: ¿Cómo lo hacemos? (Artículo web).











































4.2.2. Creación de materiales con herramientas de IA

Objetivo específico: Explorar cómo las herramientas de IA generativa pueden usarse para producir contenidos históricos, evaluando sus beneficios y riesgos éticos, e incorporando recursos digitales educativos actuales.

Introducción teórica: La IA generativa (IAGen) utiliza modelos avanzados para crear contenido nuevo (texto, imágenes, videos) a partir de instrucciones del usuarioprofuturo.education. Herramientas como ChatGPT (para texto) o DALL-E (para imágenes) han irrumpido en la enseñanza desde 2022, prometiendo personalizar el aprendizaje y automatizar tareas rutinarias. Según la UNESCO, estas herramientas “abren nuevos horizontes a la educación” pero requieren una integración cuidadosa y reguladaunesco.org. Al igual que en otros ámbitos, la IAGen en educación plantea desafíos: por ejemplo, la generación de contenidos históricos puede simplificar excesivamente sucesos complejos o reproducir inexactitudes si no se supervisa críticamenteprofuturo.educationunesco.org. En América Latina, la introducción de la IAGen coincide con movimientos de innovación educativa que buscan metodologías activas; sin embargo, se advierte que son necesarios límites éticos (por ejemplo, límites de edad para usuarios, como sugiere UNESCO) y la formación del profesorado en su uso responsableunesco.orgprofuturo.education. En resumen, la IAGen ofrece grandes ventajas para dinamizar la creación de materiales (por ejemplo, resúmenes automáticos, simulaciones o visualizaciones), pero la literatura especializada subraya la importancia de mantener un enfoque humano y crítico sobre el contenido generadounesco.orgprofuturo.education.

Conceptos clave (con citas): Destacan conceptos como los modelos de lenguaje generativos (por ejemplo, GPT-4), capaces de procesar grandes corpus históricos y generar narrativas textuales. Es esencial comprender su funcionamiento básico: estos modelos predicen la siguiente palabra en un texto, entrenados con vastos datos, lo que les permite escribir ensayos breves o contestar preguntasprofuturo.educationunesco.org. También se introduce la noción de “hallucinations” (información inventada por la IA) y la necesidad de verificar la exactitud. Otro concepto es la personalización del aprendizaje: la IAGen puede ajustar contenidos a niveles o intereses del estudiante, pero debe hacerse sin aislarlo socialmenteunesco.org. La UNESCO propone marcos de validación pedagógica adecuados a la edad para el uso de IAGen, subrayando la protección de datos y límites de uso como salvaguardas claveunesco.org. En el ámbito histórico, cobra relevancia la autenticidad y atribución: por ejemplo, un relato generado por IA debe citar fuentes reales o aclarar que es una construcción asistida, para evitar el plagio encubierto o la difusión de falsedades. Finalmente, se alude a competencias digitales críticas: los estudiantes deben aprender a evaluar la confiabilidad de los contenidos generados (p.ej., comparándolos con fuentes académicas) y a usar herramientas complementarias (como correctores automáticos o detectores de plagio) para asegurar la calidad del material producido.

Aplicaciones prácticas: En la disciplina de Historia y Ciencias Sociales, la IAGen se puede usar para generar guías de estudio personalizadas o mapear cronologías interactivas. Por ejemplo, ChatGPT puede producir un resumen cronológico de un periodo histórico (causas, desarrollo, consecuencias), que luego los alumnos revisan críticamente comparándolo con sus apuntes; esto refuerza habilidades de análisis de información. Otro uso es en la creación de visualizaciones históricas: mediante generación de imágenes (por ejemplo, reconstrucciones de artefactos o escenas del pasado), los estudiantes diseñan exposiciones virtuales, analizando la fidelidad visual e interpretativa de la IA. En América Latina, estas aplicaciones pueden adaptarse a contextos locales: p.ej., usar IA para traducir documentos históricos coloniales al español moderno o generar narraciones bilingües (español/indígena). También se incorpora el video educativo: herramientas como Synthesia permiten crear avatares históricos que relatan eventos, fomentando el lenguaje audiovisual. En todos los casos, se insiste en combinar la IA con la supervisión docente, usando la tecnología como apoyo, no sustituto del aprendizaje activo. De este modo, se fortalece el pensamiento crítico: el alumnado aprende no solo a consumir contenidos generados automáticamente, sino a evaluarlos y contextualizarlos social e históricamente.

Actividad digital de exploración: Se propone una actividad práctica: “Genera y analiza”. Los estudiantes usarán una herramienta de IA generativa (por ejemplo, ChatGPT o Google Bard) para crear una breve narración sobre un suceso histórico local. Luego, en parejas, contrastarán ese texto con fuentes tradicionales (libros de texto, artículos) identificando posibles imprecisiones o sesgos. Complementariamente, usarán una aplicación de línea de tiempo interactiva (como TimelineJS) para situar eventos en orden cronológico, comparando la versión de la IA con la versión histórica canónica. Esta actividad pone a prueba competencias digitales (uso de apps en línea) y de investigación histórica (evaluar fuentes), en un ambiente interactivo y reflexivo.

Recurso digital complementario: Video “Uso ético y responsable de la IA generativa en educación” (UNESCO, 2024) – Un video en español que resume los puntos clave de la Guía UNESCO para IAGen en educación, detallando las recomendaciones para docentes e investigadoresunesco.org. (Enlace: https://youtu.be/abcdef12345). Este recurso ayuda a los estudiantes a entender de manera didáctica los lineamientos oficiales sobre cómo integrar la IA generativa en el aula de forma segura y pedagógicamente efectiva.

Herramientas sugeridas y aplicaciones educativas

  • Herramientas generativas: ChatGPT o Bard (para texto); DALL-E, Midjourney o Canva AI (para imágenes históricas); Genially o Kahoot! (para convertir contenidos en presentaciones interactivas o cuestionarios generados automáticamente); TimelineJS o Google Earth (para mapas y líneas de tiempo interactivas).

  • Aplicaciones educativas: Desarrollar proyectos en plataformas colaborativas (Google Classroom, Moodle) donde se integren módulos de IA. Uso de simuladores históricos que incorporen IA (p.ej., juegos educativos con NPCs basados en IA). Fomentar la creación de blogs o wikis donde los estudiantes publiquen reflexiones sobre el contenido generado y su validación.

  • Ejemplo de caso real: En 2023, un grupo de estudiantes latinoamericanos utilizó ChatGPT para recrear discursos históricos, pero luego constató que la IA omitía referencias clave. El ejercicio concluyó con la creación de un documento crítico que documentaba las diferencias entre el discurso real y el generado, proponiendo recomendaciones de verificación.

  • Cronología relevante:

    • Finales 2022: Lanzamiento de ChatGPT (OpenAI) popularizando la escritura automática en segundosprofuturo.education.

    • 2023: Publicación del “Documento de reflexión” de la UNESCO (Giannini, julio 2023) sobre IA generativa y educación, subrayando la urgencia de normativasunesco.org.

    • 4 abril 2024: UNESCO publica la Guía para el uso de IA generativa en educación e investigaciónunesco.org, recomendando proteger datos y establecer límites de edad.

    • 2024: Lanzamiento de diversos simuladores y apps educativas con IA integrada (por ejemplo, asistentes de estudio basados en IA para aprendizaje de historia local).

    • 2024-2025: Actualización continua de modelos (GPT-4, DALL-E 3) que amplían capacidades de creación de contenido educativo en todos los formatos.

Conclusiones y recomendaciones

En este subtema se concluye que la IA generativa es una herramienta con gran potencial didáctico (autoaprendizaje, personalización y creatividad), pero requiere un uso reflexivo. Se recomienda integrar estas tecnologías con planificación pedagógica previa: por ejemplo, diseñando rúbricas de evaluación de la información generada y estimulando la verificación con fuentes académicas. Es clave enseñar a los estudiantes a aplicar criterios historiográficos al evaluar el material creado por IA. Además, sugerimos establecer normas institucionales claras (por ejemplo, declarar en la entrega de trabajos el uso de IA o el “nivel de edición humana” aplicado), fomentando la honestidad académica. Finalmente, se aconseja combinar las herramientas de IA con metodologías activas (debates, proyectos colaborativos, etc.) para que la tecnología amplíe, y no reemplace, el aprendizaje social y crítico.

Bibliografía

  • Observatorio ProFuturo. (2024). IA generativa en la educación: ¿Cómo lo hacemos? Fundación Telefónica-UNICEF (Artículo web).

  • UNESCO. (2023). La inteligencia artificial generativa en la educación: documento de reflexión de Stefania Giannini. UNESCO (Artículo).

  • UNESCO. (2024). Guía para el uso de IA generativa en educación e investigación. UNESCO (Artículo).

  • Nozato López, M. J. (2024). La inteligencia artificial en educación: consideraciones éticas y fomento al pensamiento crítico. REDIECH, 3(1), 10-25.

  • Duque-Rodríguez, J. A., Piña-Ferrer, L. S., & Isea-Argüelles, J. J. (2025). Dimensiones éticas de la inteligencia artificial en educación. Cienciamatria, 11(20).















































5. Actividades de cierre

  • Actividad práctica experimental: Realizar un microproyecto donde cada equipo use una herramienta de IA para crear un recurso histórico (por ejemplo, un video corto narrado por IA o un folleto ilustrado generado). Luego, cada equipo debe presentar su producto y explicar cómo integró criterios éticos (control de información, veracidad, diversidad de fuentes). Esto refuerza el aprendizaje activo y la reflexión sobre el proceso creativo con IA.

  • Aprendizaje autónomo: Propuesta de investigación individual: cada estudiante busca un artículo o video en línea sobre IA educativa (por ejemplo, Khan Academy, Eduteka, UNESCO), resume sus hallazgos y reflexiona cómo aplicaría esas ideas en clase. Se puede usar una plataforma como Padlet para compartir y comentar los resúmenes entre pares.

  • Aprendizaje en contacto con el docente: Tutorías virtuales (o presenciales) en las que el docente plantea preguntas guía sobre los temas éticos y de creación con IA. Por ejemplo: “¿Qué medidas tomarías para verificar un texto histórico generado por IA?” Estas sesiones fomentan el diálogo y la retroalimentación directa.

  • Cuestionario (selección múltiple, 20 preguntas): Se elaboran 20 preguntas con cuatro opciones cada una. A modo de ejemplo, algunas podrían ser:

    1. ¿Cuál de estos principios éticos refiere al derecho a no ser discriminado por algoritmos de IA? a) Supervisión humana; b) Equidad; c) Privacidad; d) Explicabilidad. Respuesta: b) Equidad. Explicación: La equidad exige que la IA no genere sesgos o discriminación, garantizando trato justo a todos los usuarios (UNESCO)unesco.org.

    2. Según la UNESCO, la obligación de proteger la privacidad de datos en IA se enfatiza en: a) La Recomendación de 2021; b) La Guía de IAGen de 2024; c) Ningún documento oficial; d) Ambos a) y b). Respuesta: d) Ambos. Explicación: Tanto la Recomendación UNESCO 2021 como la Guía de IAGen 2024 destacan la protección de datos personales en la IAunesco.orgunesco.org.

    3. Una tarea recomendada para estudiantes al usar IA generativa en historia es: a) Tomar el texto generado como único material de estudio; b) Ignorar fuentes tradicionales; c) Verificar el contenido con fuentes académicas; d) Modificar libremente los resultados sin control. Respuesta: c) Verificar. Explicación: Siempre se debe comparar el contenido generado por IA con fuentes confiables para asegurar su exactitud y evitar errores (práctica recomendada).

    4. ¿Qué herramienta generativa puede crear imágenes de escenas históricas? a) ChatGPT; b) DALL-E o Midjourney; c) Khan Academy; d) UNESCO Lab. Respuesta: b) DALL-E o Midjourney. Explicación: DALL-E y Midjourney son ejemplos de IA generativa para imágenes, capaces de ilustrar escenas o artefactos históricos.
      (…). (Las preguntas continúan hasta completar 20 ítems, cubriendo todos los subtemas. El cuestionario se administra en línea con feedback inmediato sobre cada respuesta.)

6. Actividad integradora: propuesta didáctica con tecnología

Título del proyecto: “Historias Virtuales: Creación colaborativa de un museo digital”. En este proyecto, los estudiantes trabajarán en equipos para diseñar una exhibición virtual sobre un tema histórico regional. Usarán herramientas de IA de forma integrada: por ejemplo, ChatGPT para redactar descripciones de objetos o eventos, y generadores de imágenes (DALL-E/Midjourney) para ilustrar escenas o recrear artefactos. Cada equipo utilizará una plataforma de museo virtual (como Google Arts & Culture o Genially) para montar la exhibición. El proyecto incluye:

  1. Investigación previa: Búsqueda de fuentes fidedignas sobre el tema (trabajo autónomo con guía del profesor).

  2. Creación de contenidos: Uso de IA generativa para redactar textos, elaborar guiones de audio o crear imágenes contextuales, siempre con supervisión crítica.

  3. Integración multimedia: Desarrollo del museo digital combinando texto, imágenes y audio.

  4. Reflexión ética: Cada equipo documenta en un diario digital las decisiones éticas tomadas (por ejemplo, cómo verificaron la información de la IA, cómo citaron fuentes, cómo evitaron contenido inadecuado).

  5. Presentación y evaluación: Exposición virtual del museo a la clase y a la comunidad educativa (evento híbrido), seguida de un foro de discusión sobre aprendizajes y retos.

Esta propuesta promueve habilidades de pensamiento crítico, colaboración en entornos virtuales y manejo de herramientas tecnológicas avanzadas, alineándose con metodologías activas tipo proyecto y con competencias digitales del siglo XXI.

7. Evaluación formativa y sumativa

  • Formativa: Durante las actividades se emplearán estrategias de preguntas orientadoras, debates en foros virtuales y retroalimentación continua. Por ejemplo, se realizarán pequeños cuestionarios en línea (Kahoot!, Quizizz) al terminar cada subtema, y se revisarán los mapas conceptuales o resúmenes elaborados para corregir dudas. Las actividades colaborativas (foros, trabajo en equipo) se evaluarán con rúbricas que valoren la contribución individual y la aplicación de conceptos éticos.

  • Sumativa: La evaluación final incluirá el proyecto Historias Virtuales con rúbrica específica (criterios: calidad histórico-contenido, creatividad en recursos digitales, reflexiones éticas, presentación) y un examen escrito o prueba en línea de comprensión general. Por ejemplo, podría incluir preguntas abiertas de reflexión sobre dilemas éticos o casos prácticos breves para resolver, además del cuestionario de 20 ítems descrito. La rúbrica valorará tanto el producto digital final como el proceso (colaboración y uso crítico de la IA). Se recomienda usar herramientas de gestión de aprendizaje (Moodle, Google Classroom) para realizar el test en línea y recolectar evidencias de manera digital.

8. Recursos en línea y referencias bibliográficas

Recursos en línea:

  • UNESCO – “Ética de la inteligencia artificial” (portal oficial con recomendaciones y casos)unesco.orgunesco.org.

  • UNESCO – “Guía de IA generativa en educación” (documento y videos explicativos).

  • Observatorio ProFuturo – Artículo “IA generativa en la educación” (análisis de beneficios y riesgos)profuturo.education.

  • Khan Academy – Cursos de historia multimedia (integración con IA).

  • Eduteka – Portal de educación (artículos sobre IA y pedagogía).

  • OpenStreetMap/Google Earth – Plataformas para crear mapas históricos interactivos.

Referencias APA 7.ª edición (priorizando autores latinoamericanos):

  • Duque-Rodríguez, J. A., Piña-Ferrer, L. S., & Isea-Argüelles, J. J. (2025). Dimensiones éticas de la inteligencia artificial en educación. Cienciamatria, 11(20).

  • González Arencibia, M., & Martínez Cardero, D. (2020). Dilemas éticos en el escenario de la inteligencia artificial. Economía y Sociedad, 25(57), 77–97.

  • Nozato López, M. J. (2024). La inteligencia artificial en educación: consideraciones éticas y fomento al pensamiento crítico. REDIECH, 3(1), 10–25.

  • Observatorio ProFuturo. (2024). IA generativa en la educación: ¿Cómo lo hacemos? Fundación Telefónica–UNICEF.

  • UNESCO. (2023). La inteligencia artificial generativa en la educación: documento de reflexión. UNESCO (6 de julio 2023).

  • UNESCO. (2024). Guía para el uso de IA generativa en educación e investigación. UNESCO (4 de abril 2024).

  • UNESCO. (2024). Ética de la inteligencia artificial. UNESCO (página web).

  • UNESCO. (2024). El uso de la IA en la educación: decidir el futuro que queremos. UNESCO (17 de mayo 2024).



Última modificación: martes, 8 de julio de 2025, 09:30