La AEPD publica orientaciones sobre IAG y agentes: claves para un uso responsable en entornos académicos
La AEPD publica orientaciones sobre IAG y agentes: claves para un uso responsable en entornos académicos
Vicerrectorado de Enseñanza Virtual 20/02/2026 ⏱️ 3 min
La Agencia Española de Protección de Datos (AEPD) ha publicado recientemente un documento de orientaciones sobre el uso de la inteligencia artificial generativa y, en particular, sobre los sistemas de IA agentica, con el objetivo de clarificar las obligaciones en materia de protección de datos personales y gestión de riesgos asociados (Agencia Española de Protección de Datos [AEPD], 2026).
Estas directrices se enmarcan en un contexto de rápida adopción de modelos fundacionales y agentes autónomos capaces de interactuar con múltiples fuentes de información y ejecutar acciones complejas, lo que plantea nuevos desafíos regulatorios y éticos para el sector público y privado, incluyendo la educación superior.
El crecimiento exponencial de herramientas basadas en modelos de lenguaje de gran escala (LLM) y sistemas de IA generativa ha transformado los procesos de producción, análisis y gestión de información en múltiples sectores. En el ámbito universitario, estas tecnologías se utilizan para apoyo a la docencia, automatización administrativa, análisis de datos de investigación y generación de contenidos académicos.
Sin embargo, la evolución hacia sistemas de IA agentica capaces no solo de generar respuestas, sino de tomar decisiones y ejecutar tareas en nombre del usuario introduce un nivel adicional de complejidad. Estos sistemas pueden acceder a bases de datos, interactuar con servicios externos, combinar información de diversas fuentes y operar de manera semiautónoma. Esta capacidad amplifica el riesgo de tratamientos de datos personales no previstos, vulneraciones del principio de minimización o transferencias internacionales no adecuadamente garantizadas.
Agencia Española de Protección de Datos. (1 de febrero de 2026). Orientaciones sobre IA agentica. https://www.aepd.es/guias/orientaciones-ia-agentica.pdf
El documento publicado por la AEPD distingue entre los riesgos generales asociados a la IA generativa y aquellos específicos de la denominada IA agentica. Entre las principales recomendaciones destacan:
Evaluación previa de impacto en protección de datos (EIPD): Cuando el tratamiento implique alto riesgo para los derechos y libertades de las personas, especialmente en contextos sensibles como educación, empleo o salud, deberá realizarse una evaluación de impacto detallada.
Determinación clara de responsabilidades: Se subraya la necesidad de delimitar con precisión los roles de responsable y encargado del tratamiento, particularmente en sistemas que integran servicios de terceros o proveedores de modelos fundacionales.
Transparencia y deber de información: Las organizaciones deberán informar de manera clara sobre el uso de sistemas de IA, las finalidades del tratamiento, la lógica aplicada cuando sea posible y los derechos que asisten a los interesados.
Control humano efectivo: En el caso de sistemas agenticos, la AEPD insiste en la necesidad de mantener mecanismos de supervisión humana significativa, evitando la delegación automática de decisiones que produzcan efectos jurídicos o similares sin garantías adecuadas.
Minimización y limitación de la finalidad: Se recomienda evitar la reutilización indiscriminada de datos personales para el entrenamiento o mejora de modelos, así como establecer políticas claras de conservación y anonimización.
La publicación de estas orientaciones por parte de la AEPD representa un paso relevante en la consolidación de un enfoque preventivo y garantista ante la expansión de la inteligencia artificial generativa y agentica en España. Lejos de frenar la innovación, el documento propone un marco de seguridad jurídica que puede fortalecer la confianza en estas tecnologías.
Para la educación superior, el mensaje es claro: la integración de la IA debe ir acompañada de una gobernanza robusta, basada en la protección de datos desde el diseño, la supervisión humana efectiva y la transparencia institucional. En un contexto europeo cada vez más regulado, las universidades que anticipen estos requisitos estarán mejor posicionadas para liderar una transformación digital ética y sostenible.
Agencia Española de Protección de Datos. (1 de febrero de 2026). Orientaciones sobre IA agentica. https://www.aepd.es/guias/orientaciones-ia-agentica.pdf