19 de febrero de 2026 · 7 min
La Ley de IA Europea y los centros educativos: lo que todo director debe saber en 2026
El Reglamento Europeo de IA ya es obligatorio. Muchos colegios usan IA sin saberlo bajo la categoría 'alto riesgo'. Esta guía explica qué deben hacer los centros educativos antes de agosto de 2026.
El Reglamento Europeo de IA ya es obligatorio — y afecta a los colegios
El Reglamento Europeo de Inteligencia Artificial (EU AI Act) entró en vigor en agosto de 2024. Sus obligaciones más críticas para los centros educativos comienzan a aplicarse en agosto de 2026. Quedan meses, no años.
La mayoría de los equipos directivos asume que el Reglamento es cosa de grandes empresas tecnológicas. Es un error. Los centros educativos aparecen de forma explícita en la normativa, específicamente en la categoría de 'sistemas de IA de alto riesgo'.
No actuar tiene consecuencias reales: sanciones regulatorias, exposición ante familias y una posición de desventaja respecto a los centros que ya están preparados.
¿Qué es un 'sistema de IA de alto riesgo' en un centro educativo?
El Reglamento clasifica los sistemas de IA según su nivel de riesgo. Los sistemas de alto riesgo están sujetos a requisitos estrictos de transparencia, supervisión humana y documentación. Y la educación está explícitamente en la lista.
- IA para evaluar o calificar tareas, exámenes o rendimiento del alumnado → ALTO RIESGO
- IA usada en procesos de admisión o selección de estudiantes → ALTO RIESGO
- IA que monitoriza la atención, comportamiento o participación del alumnado → ALTO RIESGO
- Herramientas de orientación vocacional o académica basadas en IA → ALTO RIESGO
- ChatGPT usado por docentes para preparar clases o materiales → riesgo menor, pero requiere política de centro documentada
La línea que muchos centros cruzan sin saberlo
El criterio no es qué herramienta usas — es qué decisión influye. Un docente que usa ChatGPT para corregir redacciones y luego pone esa nota en el boletín está usando un sistema de IA en una decisión de evaluación. Eso tiene implicaciones regulatorias.
Muchos centros ya están en esta situación sin haber tomado ninguna decisión formal de 'adoptar IA'. La adopción ya ocurrió, por defecto, docente por docente, sin protocolo.
La pregunta relevante para la dirección no es '¿usamos IA?' — es '¿sabemos cómo y para qué la está usando nuestro claustro?'.
Qué deben hacer los centros antes de agosto de 2026
El Reglamento no exige que los centros dejen de usar IA. Exige que la gestionen con responsabilidad. Estas son las medidas básicas que todo centro educativo debería tener en marcha:
- Inventario de sistemas IA en uso: qué herramientas usa el claustro, para qué y con qué datos. Esto no existe en la mayoría de centros.
- Clasificación de riesgo: de los sistemas identificados, ¿cuáles afectan a decisiones sobre el alumnado? Esos son los que requieren más atención.
- Responsable de IA en el centro: alguien en la dirección o coordinación pedagógica debe ser el punto de referencia para las decisiones sobre IA.
- Protocolo de transparencia: las familias y el alumnado mayor de edad tienen derecho a saber si una decisión sobre ellos ha sido apoyada por un sistema de IA.
- Supervisión humana documentada: para los sistemas de alto riesgo, debe quedar constancia de que una persona revisó y validó la decisión final.
Las 3 consecuencias reales de no actuar
No actuar no significa que nada pase. Significa que el centro absorbe el riesgo sin gestionarlo.
- Exposición regulatoria: la Agencia Española de Supervisión de la IA (AESIA) ya está operativa y tiene capacidad sancionadora. Los centros que no puedan documentar su uso de IA ante una inspección estarán en posición vulnerable.
- Exposición ante familias: las AMPAs más informadas ya están haciendo preguntas sobre privacidad y IA. Un centro sin protocolo responderá con improvisación.
- Desventaja competitiva: los centros que ya tienen una política de IA la comunican como fortaleza — en webs, en jornadas de puertas abiertas, en conversaciones con familias. Los que no la tienen, no pueden.
La formación como primera línea de cumplimiento
El Reglamento exige 'supervisión humana efectiva' de los sistemas de IA de alto riesgo. Eso no es posible sin un claustro que entienda qué está supervisando.
No se puede cumplir la regulación con un documento PDF en la intranet. El cumplimiento real empieza con docentes que saben identificar cuándo un uso de IA afecta a decisiones sobre el alumnado, y qué hacer en ese caso.
Una formación bien diseñada incluye precisamente esto: no solo cómo usar las herramientas, sino cuándo no usarlas, cómo documentar el uso responsable y cómo construir el protocolo de IA del centro.
Si quieres entender qué implicaría esto para tu centro concreto, puedes explorar el programa de IA Educa en iaeduca.es — o simplemente contactarnos para una conversación inicial sin compromiso.