El uso de la Inteligencia Artificial (IA) en la educación plantea la necesidad de considerar aspectos éticos y de regulación. Con el nuevo Reglamento de InteligenciaArtificial de la Unión Europea, que entrará en vigor en 2026, se establecen normas para asegurar que los sistemas de IA sean seguros y respeten los derechos fundamentales. Este marco legal se enfoca en mitigar riesgos y fomentar la innovación, lo cual puede tener un impacto positivo en el ámbito educativo. Gracias a estas normativas, las herramientas de IA usadas en las aulas deberán ser confiables y respetar tanto la privacidad como la autonomía de alumnos y docentes.
Los chatbots educativos
En el caso de los chatbots educativos, que cada vez tienen mayor presencia en el aula, es fundamental considerar la transparencia y el consentimiento en su uso. Es crucial que los docentes, alumnos y sus tutores comprendan cómo funcionan estas herramientas. Deben estar informados sobre sus capacidades y limitaciones, y contar con la opción de dar o retirar su consentimiento para su utilización. Además, la responsabilidad y rendición de cuentas son aspectos clave: si surge un error o problema ético, debe quedar claro quién es responsable, ya sea el desarrollador de la herramienta o el docente que la implementa en su aula.
1. Equidad
La implementación de la IA en la educación debe centrarse en promover la equidad en el acceso a estas herramientas. Si bien la IA permite personalizar el aprendizaje y hacerlo más accesible, es necesario asegurar que todos los estudiantes tengan las mismas oportunidades de acceso, independientemente de su ubicación geográfica o situación socioeconómica.
Esta inclusión es clave para evitar el aumento de la brecha digital y educativa. Además, es esencial que los algoritmos sean justos y libres de sesgos, para promover la justicia y la equidad en el entorno educativo.
2. Edades de uso
La aplicación de la IA en el aula debe considerar restricciones de edad según el servicio. Aquí tenéis una tabla de las edades mínimas para utilizar algunas de las IA generativas más empleadas:
Servicio | Edad mínima | Comentarios |
Texto | ||
ChatGPT | 14 años | Entre 14 y 18 años requiere consentimiento parental. |
HuggingChat | 14 años | |
BingChat | 14 años | |
Gemini | 18 años | |
Imágenes | ||
DALL·E 2 | 14 años | Entre 14 y 18 años requiere consentimiento parental. |
Ideogram | 14 años | Entre 14 y 18 años requiere consentimiento parental. |
NightCafe Studio | 16 años | Requiere consentimiento parental para menores de 16. |
Catbird | 18 años | |
Craiyon | 18 años | |
Leonardo.AI | 18 años | |
Pcfinder | 18 años | |
Scribble Diffusion | No indicado | |
Stable Diffusion | No indicado | No recopila información del usuario. |
Para mayor información, puede consultarse el documento base elaborado por el INTEF Orientaciones sobre el uso deherramientas digitales en el ámbito educativo desde la perspectiva de laprotección de datos, que contiene un apartado dedicado a la inteligencia artificial y modificado en base a la LOPDPGDD.
3. Uso ético por parte del alumnado
Los estudiantes también deben actuar de manera ética al interactuar con herramientas de IA en el ámbito educativo:
- Utilizar la IA de manera honesta, sin manipular los sistemas para obtener ventajas en evaluaciones.
- No compartir información personal de terceros sin consentimiento.
- No usar la IA para
acosar, insultar o dañara otros. - Ser conscientes de las limitaciones de la AI y no depender de ella como
única fuentede información. - Evitar
presentar como propioel contenido generado por la IA. Aunque pueden usar la IA para apoyo en trabajos, el producto final debe ser original.
Promover el uso ético de la IA contribuye a un entorno de aprendizaje seguro y eficaz, preparando a los estudiantes para el mundo digital.
4. Actividades positivas en el uso de la IA
La IA ofrece diversas aplicaciones beneficiosas en la educación, como:
- Investigación asistida: Buscar información relevante para proyectos.
- Tutoría virtual: Resolver dudas académicas.
- Práctica de idiomas: Mejorar gramática y pronunciación.
- Creación de contenido: Elaborar gráficos y resúmenes de manera auténtica.
- Autoevaluación: Hacer pruebas de autoevaluación.
- Organización del aprendizaje: Planificar horarios y métodos de estudio.
- Análisis de datos: Usar IA en proyectos académicos.
- Feedback inmediato: Recibir retroalimentación en tiempo real.
- Accesibilidad: Facilitar el aprendizaje a personas con necesidades especiales.
- Orientación vocacional: Recibir asesoramiento sobre posibles trayectorias profesionales.
Estas aplicaciones son éticas y mejoran la experiencia educativa de los estudiantes, siempre que se realicen con integridad académica.
5. Accesibilidad y Licencias en Herramientas de IA
En el marco de un uso ético y accesible de la IA en la educación, es relevante hablar de las licencias de software. Las licencias OpenRAIL (licencias abiertas de IA responsable) son acuerdos que establecen pautas éticas para el uso de tecnologías de IA. Elegir herramientas de IA con licencias abiertas fomenta un entorno colaborativo y accesible, y apoya la equidad en el acceso a innovaciones tecnológicas. Además, el uso de software de código abierto en el aula muestra un compromiso con la enseñanza responsable y ética de la tecnología.
Actualmente, las opciones de IA de código abierto disponibles para docentes y estudiantes son limitadas, aunque es probable que en el futuro haya más, como los modelos de lenguaje Llama y Mistral, enfocados en el uso educativo.
Propiedad intelectual en IA
La cuestión de la propiedad intelectual en contenidos generados por inteligencia artificial es un área que actualmente carece de un marco regulatorio claro y definitivo. Existen posiciones enfrentadas al respecto: mientras algunos sostienen que lo creado por IA debería considerarse de dominio público, otros defienden que el contenido pertenece al usuario humano que ha generado el prompt o instrucción que guía a la IA.
Sin embargo, la legislación sobre propiedad intelectual no aborda específicamente el caso de obras creadas con IA, lo que deja esta cuestión en una zona gris legal (Wikipedia, 2023).
Hasta que se establezca una normativa más definida, la práctica recomendada es asumir que el usuario que proporciona el prompt tiene derechos limitados sobre el contenido generado por la IA, reconociendo a su vez ciertas obligaciones éticas, como el acceso abierto al conocimiento. Este enfoque intermedio busca equilibrar el incentivo a la innovación tecnológica con el respeto a los derechos de autor.
Cómo citar un texto creado en ChatGPT
Al utilizar contenido generado por IA en un trabajo académico o profesional, es fundamental referenciarlo correctamente para mantener la transparencia y la ética en el uso de estas herramientas.
1. Cita en el texto
Cuando se incluye contenido de ChatGPT, es importante citarlo en el propio texto de la siguiente manera:
Según ChatGPT, «texto generado» (OpenAI, año de la versión utilizada).
Ejemplo: Según ChatGPT, el azúcar no causa hiperactividad en los niños. Aunque es una creencia común, la investigación científica no ha encontrado una relación directa entre el consumo de azúcar y la hiperactividad en los niños (OpenAI, 2023).
2. Bibliografía
En la sección de referencias del trabajo, la citación de ChatGPT debe aparecer de la siguiente forma:
OpenAI. (Año de la versión). ChatGPT (versión específica) [Modelo de lenguaje grande]. https://chat.openai.com/chat.
Siguiendo el ejemplo anterior del azúcar, la referencia final quedaría así:
OpenAI. (2023). ChatGPT (25 de septiembre) [Modelo de lenguaje grande]. https://chat.openai.com/chat.
La American Psychological Association (2023) sugiere documentar el mensaje inicial (prompt) que se utilizó para obtener la respuesta de ChatGPT, debido a que el modelo puede generar respuestas distintas para un mismo prompt en sesiones diferentes. En casos de textos extensos generados por IA, el contenido puede incluirse en un apéndice o como material suplementario online.
Para trabajos académicos o escolares, es conveniente también incluir enlaces a las conversaciones originales. En el caso de ChatGPT, se pueden obtener utilizando la función «Compartir chat» (Share chat) disponible en cada conversación, asegurando así que la fuente sea verificable y accesible para otros. Esta práctica de documentación y transparencia fomenta un uso responsable de la inteligencia artificial en el ámbito académico y contribuye a una comprensión ética sobre la propiedad y el origen de los contenidos generados.
Límites de la IA
La inteligencia artificial (IA) está revolucionando el ámbito educativo y ofrece un gran potencial para transformar la enseñanza. Sin embargo, es esencial que el profesorado sea consciente de las limitaciones inherentes a esta tecnología para utilizarla de forma ética y efectiva en el aula.
A continuación, se describen algunos de los límites más importantes que deben tenerse en cuenta al integrar la IA en los procesos de aprendizaje y enseñanza:
1. Fiabilidad de la Información
La IA no debe considerarse una fuente primaria de información, ya que puede presentar errores y generar datos incorrectos sin advertencia previa.
- Actualización de Contenidos:
Dado que algunos modelos de IA no se actualizan en tiempo real, pueden no estar al día con investigaciones recientes o cambios curriculares. Esto podría dar lugar a información desactualizada.
- Alucinación de Datos:
En ocasiones, los modelos de IA de texto pueden “inventar” información para completar una respuesta, lo que puede llevar a la difusión de información falsa. Verificar cualquier dato es imprescindible antes de aceptarlo como válido.
2. Aspectos Éticos
La IA puede reflejar sesgos inherentes en los datos de entrenamiento, lo cual plantea importantes retos éticos en su uso educativo.
Sesgo en los Datos: Los algoritmos de IA pueden contener sesgos culturales o sociales presentes en los datos con los que fueron entrenados, resultando en decisiones potencialmente injustas o parciales. Es fundamental que el profesorado evalúe la existencia de estos sesgos y guíe a su alumnado en la reflexión crítica sobre ellos.
3. Interacción Humana
Si bien la IA puede interactuar mediante lenguaje natural, carece de comprensión contextual emocional y social, un componente fundamental en la educación.
- Falta de Empatía: La IA es incapaz de captar emociones o contexto social en sus interacciones, lo cual limita su capacidad para responder a necesidades individuales y contextos emocionales de los estudiantes.
- Limitaciones en la Evaluación: Aunque la IA puede evaluar ciertos criterios de respuesta, no es capaz de medir aspectos complejos y subjetivos, como la
creatividado eldesarrollo emocional, esenciales en el proceso educativo.
4. Dependencia Tecnológica
La introducción de la IA en el aula plantea desafíos relacionados con el acceso equitativo y la personalización educativa.
- Acceso a la Tecnología: No todos los estudiantes tienen acceso equitativo a dispositivos tecnológicos o Internet de alta velocidad, lo cual puede generar desigualdades en el aprovechamiento de la IA.
- Falta de Personalización: Aunque existen sistemas de aprendizaje adaptativo, la IA no puede igualar la
intuiciónyadaptabilidaddel profesorado en la enseñanza personalizada.
5. Formación del Profesorado
La eficacia de la IA depende en gran medida de la habilidad del profesorado para utilizar la IA correctamente.
Necesidad de Formación Continua: La implementación efectiva de la IA requiere una formación continua del profesorado, lo cual es esencial para maximizar sus beneficios en el aula y mitigar sus limitaciones.
Recomendaciones para el Uso Responsable de la IA en el Aula
En vista de estas limitaciones, se recomienda que el profesorado adopte un enfoque equilibrado y crítico al utilizar la IA en el ámbito educativo. La tecnología debe entenderse como un complemento a las estrategias de enseñanza tradicionales, no como un sustituto.
A continuación, se presentan algunas reglas de acción para promover el uso ético y responsable de la IA en el aula:
- Verificación de Información: Contrastar siempre la información producida por la IA con fuentes confiables antes de su uso en el aula.
- Análisis Crítico de Contenidos: Evaluar críticamente la precisión y relevancia de la información generada por la IA.
- Diversificación de Fuentes: Fomentar el uso de múltiples recursos de aprendizaje para no depender exclusivamente de la IA.
- Seguridad de Datos: Ser cauteloso al compartir información personal en plataformas basadas en IA.
- Evaluación Complementaria: Utilizar la IA como herramienta de evaluación adicional y no como el único método de evaluación del rendimiento estudiantil. Complementar con métodos que incluyan creatividad y pensamiento crítico.
- Conciencia de Sesgo: Reconocer los posibles sesgos de la IA y prepararse para abordarlos de manera crítica.
- Formación Continua: Mantenerse actualizado sobre mejores prácticas y limitaciones de la IA para guiar al alumnado de forma efectiva y responsable.
El uso de la inteligencia artificial en educación debe ser un proceso reflexivo, donde el profesorado tenga en cuenta las fortalezas y debilidades de esta tecnología, al tiempo que se compromete con la ética educativa y el bienestar de los estudiantes.
Detección del plagio
Uno de los temas recurrentes en los claustros de profesores es el temor a que el alumnado copie directamente de una inteligencia artificial como ChatGPT. La posibilidad de “copiar” no es nueva, ya que desde hace años Internet ha sido una fuente inagotable de recursos, pero la IA aporta un desafío particular: cada respuesta generada por IA es distinta, lo que hace que los textos sean aparentemente únicos y originales.
Los sistemas antiplagio actuales no resultan totalmente fiables frente a la IA. Aunque algunos aseguran poder distinguir entre un texto humano y uno generado por IA, no existe aún una certeza absoluta de que un documento haya sido escrito por una inteligencia artificial y no por una persona.
Prueba Comparativa de Detectores de IA
En una prueba exploratoria, se analizaron un texto generado por ChatGPT-3.5 y otro escrito por una persona en algunos de los detectores de IA más populares (fuente INTEF). Estos sistemas asignan un porcentaje que indica la probabilidad de que el texto haya sido creado por IA.
Para ser eficaces, deberían identificar correctamente ambos textos: un porcentaje bajo para el texto humano y un porcentaje alto para el de ChatGPT. Sin embargo, los resultados no alcanzaron la precisión esperada, y algunos sistemas detectaron erróneamente el texto humano como generado por IA o fallaron en detectar el texto de IA.
A continuación, se presentan los textos utilizados en esta prueba:
Texto generado por ChatGPT
(Nota: Este texto se copió tal cual fue creado por ChatGPT, sin modificaciones)
«El empleo del teléfono móvil en el entorno educativo ha generado un amplio debate. Su presencia en clase, si se gestiona adecuadamente, puede ofrecer ventajas significativas. No obstante, también plantea desafíos. La utilización de teléfonos móviles como herramientas pedagógicas puede mejorar la participación de los estudiantes y facilitar el acceso a recursos educativos en línea. No obstante, es crucial establecer pautas claras para su uso y promover la responsabilidad digital. En resumen, el móvil en clase es una herramienta de doble filo: puede ser valioso si se utiliza adecuadamente, pero requiere una gestión cuidadosa para evitar distracciones y problemas éticos.»
Texto generado por ChatGPT. Enlace a la conversación.

Texto generado por un humano
«Uno de los temas recurrentes en los claustros de profesores es el miedo a que el alumnado copie los ejercicios directamente de una inteligencia artificial como ChatGPT. El hecho de copiar no es nuevo, ya que desde hace ya muchos años Internet ha sido una fuente inagotable de recursos de todo tipo. El problema que aporta la IA es que cada vez que se obtiene una respuesta por parte de la IA, esta es distinta, por lo que no es posible reproducirla de nuevo y aparentemente es única y original.
Los sistemas antiplagio no funcionan adecuadamente y aunque algunos aseguran que son capaces de diferenciar entre lo que ha escrito un humano.»
Resultados de los Detectores de IA
En la siguiente tabla se muestran los resultados obtenidos en esta prueba comparativa. Idealmente, el sistema debería diferenciar correctamente el texto humano (porcentaje bajo) y el de ChatGPT (porcentaje alto). De lo contrario, existe el riesgo de falsos positivos (señalando incorrectamente un texto humano como generado por IA) y de falsos negativos, aceptando como “original” un texto creado por IA:
Servicio antiplagio | Probabilidad de que el texto humano haya sido creado por IA | Probabilidad de que el texto de ChatGPT haya sido creado por IA |
Copyleaks | 99.9% | 99.9% |
Smodin | 0% | 0% |
GPTZero | 1% | 0% |
Corrector App | 0% | 69% |
Plagiarismdetector | 0% | 0% |
Únicamente Corrector App (una web con un gran conjunto de utilidades para analizar textos) da los resultados algo mejores, aunque insuficientes para tener la seguridad que se necesita en un ambiente escolar y académico.

Conclusiones sobre la Fiabilidad de los Detectores de IA
Esta prueba destaca las limitaciones de los detectores de plagio basados en IA. Por ejemplo, OpenAI, creador de ChatGPT, intentó desarrollar un sistema para detectar sus propios textos, pero abandonó el proyecto en julio de 2023 debido a la baja tasa de éxito obtenida (Kirchner et al., 2023). Actualmente, ni ChatGPT ni otros sistemas similares como Gemini pueden detectar con precisión los textos que ellos mismos han generado.
Dado cómo funcionan estos modelos de IA, actualmente es imposible para ellos identificar de forma segura sus propios textos. Esto puede verificarse realizando una prueba en la que se pegue un texto en el propio sistema y se le pregunte si lo generó. Las respuestas no se basan en criterios sólidos, y en ocasiones el sistema puede afirmar que lo creó o negarlo sin fundamentos consistentes.
Indicadores de uso inapropiado de la IA
El uso de herramientas como ChatGPT puede enriquecer el aprendizaje en tareas escolares cuando se emplean como apoyo para investigar y comprender conceptos. Sin embargo, una dependencia excesiva o el uso incorrecto de estas herramientas pueden evidenciar la falta de desarrollo de habilidades esenciales en el estudiante. Esto supone un desafío para los docentes, quienes deben saber identificar señales que sugieran un uso inadecuado de la IA.
A continuación, se enumeran algunos indicadores que pueden alertar sobre un posible mal uso de estas herramientas de IA:
- Calidad impecable del trabajo: Un trabajo excesivamente perfecto y libre de errores comunes de aprendizaje puede ser sospechoso, ya que la IA suele generar textos bien estructurados y pulidos.
- Ausencia de un proceso de resolución: Cuando un estudiante no puede explicar cómo llegó a una solución, podría ser una señal de que ha copiado la respuesta de una IA en lugar de haber seguido un proceso lógico.
- Tiempo de finalización anormal: Completar rápidamente tareas que normalmente requerirían un esfuerzo considerable sugiere el posible uso de herramientas automáticas.
- Inconsistencias en el rendimiento: Un desempeño excelente en tareas hechas en casa, pero pobre en pruebas presenciales, puede revelar una dependencia de herramientas online para la elaboración de tareas.
- Déficit en habilidades básicas: La capacidad de resolver preguntas avanzadaspero con deficiencias en los conceptos básicos puede indicar que el estudiante está utilizando IA sin entender realmente el contenido.
- Desinterés en la participación en clase: Una falta de participación activa en debates o discusiones en clase, junto a entregas perfectas de tareas, sugiere una posible dependencia de herramientas en línea.
- Respuestas genéricas: Las respuestas excesivamente generales que no se ajustan a la pregunta pueden ser un indicativo de que han sido obtenidas de fuentes externas.
- Evitar el trabajo en grupo: Una negativa a colaborar o trabajar en equipo puede reflejar una tendencia a recurrir a IA para completar las tareas de forma independiente.
- Resistencia a la resolución crítica de problemas: La reticencia a abordar problemas desde diferentes ángulos o a innovar puede ser indicativa de un uso excesivo de respuestas generadas por IA.
- Desarrollo desigual de habilidades: Una combinación de habilidades avanzadas en ciertas áreas junto a carencias en otras puede sugerir un apoyo en herramientas externas para algunas tareas.
Indicadores del uso de IA en los textos
Aunque los programas antiplagio actuales no son capaces de identificar de manera fiable cuándo un texto ha sido generado por IA, existen ciertos patrones y expresiones que pueden sugerir su uso en trabajos académicos. Es importante tener en cuenta que algunos servicios online reescriben los textos para disimular su origen, como es el caso de Smodin.

A continuación, se presentan algunos de estos patrones:
- Estructura rígida del texto:ChatGPT sigue una estructura muy clara en sus respuestas:
- Introducción: Por lo general, un párrafo inicial con definiciones o un adelanto de los temas a tratar.
- Desarrollo: Varios párrafos que profundizan en el tema principal.
- Conclusión o resumen: Usualmente un párrafo breve, o incluso una sola frase, que tiende a comenzar con frases tipo “En resumen” o “En conclusión”. La aparición de estas frases al final del texto puede alertar sobre el uso de ChatGPT.
- Frecuente uso de listas: ChatGPT y Gemini emplean con frecuencia listas para organizar la información. Estas listas suelen estar encabezadas por un título en negrita seguido de dos puntos, y presentan cada punto con un subtítulo breve. Este formato es característico y puede ser un buen indicador del uso de IA.
- Repetición de palabras específicas del prompt: La IA tiende a repetir en exceso las palabras usadas en la petición. Esto se traduce en una frecuencia exagerada de ciertos términos que, a menudo, no tienen sinónimos. Este fenómeno se puede observar en respuestas donde la palabra clave se repite varias veces, como en un ejemplo de ChatGPT respondiendo a un prompt sobre “el tren”, donde utiliza la palabra “tren” de forma reiterada.
- Uso de palabras y expresiones recurrentes: Ciertas palabras o expresiones características de ChatGPT y Gemini, como «invaluable«, «estudiante» (en vez de “alumno/a”), «tema controvertido«, «objeto de debate«, «desafiante» o «fundamental«, no suelen ser de uso común entre los estudiantes, y su acumulación en un texto podría alertar de un uso indebido de IA.
- Escasez de referencias y citas reales: La falta de referencias o la inclusión de citas ficticias puede ser otro indicador, ya que los textos generados por IA generalmente no proporcionan citas o referencias reales, algo inusual en textos académicos.
Particularidades de Gemini
Aunque Gemini no sigue una estructura tan definida como ChatGPT, frecuentemente presenta la información en forma de pros y contras mediante listas de viñetas. Si el contenido no se presta a este formato, suele incluir recomendaciones o puntos clave al final del texto.
Un texto de Gemini se caracteriza, por tanto, por la abundancia de puntos en formato de lista, así como por la inclusión de una introducción breve y una conclusión.
NOTA: Estos indicadores deben interpretarse como pistas o indicios. La identificación de un texto generado por IA requiere un análisis cuidadoso y debe considerarse en un contexto más amplio, evitando conclusiones precipitadas sobre la autoría.
La IA en las clases
El uso de IA por parte de estudiantes de secundaria y bachillerato es una realidad, y herramientas como ChatGPT se han convertido en un recurso habitual para el desarrollo de tareas escolares.
Detectar el uso de estas herramientas no siempre es posible, y en muchos casos, aunque sospechemos su uso, no podremos confirmarlo con certeza. Esto nos lleva a replantearnos el enfoque en la evaluación de trabajos: más que en intentar descubrir si han usado IA, deberíamos centrarnos en adaptar los métodos de trabajo y las evaluaciones para sacar el mejor provecho de esta tecnología.
A continuación, se presentan algunas propuestas para incorporar de forma positiva la IA en el aula, normalizando su uso y minimizando las connotaciones negativas que suele generar:
Fomentar la reflexión ética sobre el uso de la IA:
Dedicar tiempo en clase para discutir el uso ético de la IA, sus posibles limitaciones y sesgos. Esto ayuda a que los estudiantes comprendan que las IA no son infalibles y que deben ser utilizadas con criterio y responsabilidad.
Definir usos específicos y positivos de la IA en los trabajos:
Permitir y fomentar el uso de IA para ciertas tareas claramente especificadas en las instrucciones. Por ejemplo:
- Utilizar buscadores que integren IA para la búsqueda de información (como Perplexity, ChatGPTo Gemini).
- Crear un índice preliminar para un trabajo.
- Generar ideas para el desarrollo de un tema.
- Revisar y mejorar los textos escritos por el propio alumno.
- Obtener aclaraciones sobre conceptos complejos.
- Apoyarse en la IA para idear propuestas para proyectos o experimentos.
- Investigar temas específicos con miras a la elaboración de trabajos.
- Realizar preguntas a la IA para estudiar y aprender mediante un proceso guiado.
Transparencia en el uso de IA:
Al utilizar IA en sus trabajos, los estudiantes deben especificar explícitamente cómo la han usado y en qué partes del proceso ha sido de ayuda.
Citación y referencias:
Solicitar que los estudiantes incluyan las referencias de la información generada con ayuda de IA, asegurando que reconozcan las fuentes y promuevan la honestidad académica.
Evaluación centrada en el proceso de aprendizaje:
Enfocar la evaluación en los borradores, el proceso de razonamiento y las fuentes consultadas, más que en el resultado final. Esto permite observar cómo los estudiantes abordan los temas y desarrollan habilidades críticas.
Trabajo en clase supervisado:
Reducir las tareas para casa y fomentar el trabajo en clasebajo la supervisión directa del docente. Esta metodología permite guiar a los estudiantes en el uso ético y responsable de la IA.
Creación de una guía de uso de IA:
Elaborar un documento breve para los estudiantes, donde se expliquen los usos permitidos de la IA, basándose en los puntos anteriores. Esta guía ayuda a establecer expectativas claras y facilita el aprovechamiento educativo de estas herramientas.
Fomentar la reflexión a través de un diario de aprendizaje:
Proponer a los alumnos que mantengan un registro de sus reflexiones, problemas y descubrimientos a medida que avanzan en un proyecto o estudian un tema. Esto les ayudará a desarrollar una visión crítica y autoevaluativa sobre su propio proceso de aprendizaje.
Implementar estas prácticas permite una integración constructiva de la IA en el aula y fortalece la capacidad de los estudiantes para utilizarla de manera ética y efectiva.
Ética de los Contenidos elaborados con IA
El uso de la IA para crear contenidos, tanto por parte del alumnado como del profesorado, plantea preguntas éticas fundamentales que deben abordarse con claridad y responsabilidad. A continuación, se presenta un modelo de documento que sirve como guía ética y es aplicable en todos los niveles en los que se permita el uso de IA, adaptándose según las necesidades del centro educativo, el contexto (presencial o en línea) y la madurez del alumnado. En el caso de los estudiantes, puede ser apropiado a partir de 2º o 3º de ESO, cuando comienzan a utilizar herramientas de IA generativa.
La ética en la creación de contenidos implica que cualquier trabajo presentado bajo nuestro nombre refleje fielmente nuestra autoría y no la de una inteligencia artificial. La IA puede ser una herramienta útil para ciertas tareas, siempre que se utilice de manera adecuada y en apoyo del aprendizaje. A continuación, se proponen algunas pautas para su uso ético:
- Utilización de la IA para apoyo en la generación de ideas: La IA puede ser un recurso útil para generar ideas iniciales para tareas, proyectos o trabajos. Sin embargo, los resultados deben ser revisados y adaptados por el propio estudiante.
- Investigación y exploración: La IA puede emplearse para obtener información y explorar temas. No obstante, toda información obtenida debe corroborarse mediante fuentes adicionales para asegurar su precisión.
- Clarificación y corrección: La IA puede ayudar a mejorar la claridad y corrección del texto, pero el contenido final debe reflejar las ideas propias y el estilo personal del autor.
- Comprensión de conceptos complejos: Utilizar la IA para obtener explicaciones de conceptos difíciles de entender puede ser beneficioso, pero debe considerarse solo como una ayuda adicional.
Es importante que el resultado final de cualquier trabajo refleje los conocimientos y el estilo personal del estudiante o docente. La IA debe verse como un «apoyo experto«, no como un sustituto de la autoría real. Para garantizar esta ética en la creación de contenidos, se deben considerar los siguientes principios adicionales:
Transparencia en el uso de IA:
Al emplear IA en un proyecto, debe indicarse de manera clara y destacada cómo se ha utilizado. Por ejemplo: «Se ha utilizado ChatGPT-4 para generar un índice preliminar, el cual ha sido posteriormente modificado y completado manualmente».
Incluir enlaces de las interacciones con IA:
Siempre que sea posible, se deben añadir enlaces a las conversaciones mantenidas con IA para asegurar la transparencia en el proceso de creación de contenido.
Verificación de información:
Todo dato o contenido proporcionado por la IA debe comprobarse en fuentes adicionales; no se debe asumir su validez sin verificación.
Citación de contribuciones de la IA:
Del mismo modo que se citan las fuentes bibliográficas, cualquier aportación significativa de la IA debe mencionarse de manera adecuada.
Reflejo de ideas propias:
El trabajo final debe representar las ideas, interpretación y comprensión del tema por parte del autor. La IA debe emplearse únicamente como una herramienta de apoyo.
Desarrollo de habilidades personales:
Las sugerencias y correcciones de la IA deben utilizarse para enriquecer las habilidades y conocimientos personales, no solo para obtener un mejor producto final.
Niveles de integración de la IA generativa en las tareas educativas
El Marco para la integración de la IA generativa en las tareaseducativas, creado por J.J. de Haro, ofrece una clasificación que organiza el uso de la inteligencia artificial en el ámbito educativo. Esta estructura nos ayuda a evaluar y orientar nuestro nivel de adopción de la IA en las actividades académicas, proporcionando varias ventajas:
- Clarificación y transparencia: El marco establece un lenguaje comprensible para el uso de la IA en el entorno educativo, facilitando que tanto docentes como estudiantes comprendan su rol y alcance.
- Delimitación de límites: Define claramente los grados de intervención de la IA en función de los objetivos educativos, manteniendo la integridad académica y asegurando que la tecnología complementa y no
reemplazael aprendizaje humano. - Guía estructurada para la integración curricular: Proporciona un enfoque sistemático para la integración de la IA en el currículum escolar, optimizando sus beneficios educativos mientras minimiza riesgos potenciales, permitiendo una implementación responsable.
Esta clasificación orienta a la comunidad educativa hacia un nivel adecuado de uso de IA, permitiendo una adopción gradual y consciente de estas tecnologías en el proceso de enseñanza-aprendizaje. Además, fomenta una reflexión crítica sobre el papel de la IA en la educación y promueve un uso ético y responsable de estas herramientas, respetando los valores y objetivos de la formación educativa.