1 llamada de un agente de IA = 1 nueva salida de datos con peso legal, según la AEPD

“No basta con conocer la entrada y la salida del sistema”

25 de marzo de 2026 a las 13:44h
1 llamada de un agente de IA = 1 nueva salida de datos con peso legal, según la AEPD
1 llamada de un agente de IA = 1 nueva salida de datos con peso legal, según la AEPD

La Agencia Española de Protección de Datos publicó este 24 de marzo de 2026 unas nuevas orientaciones sobre inteligencia artificial agéntica desde la perspectiva de protección de datos, en las que avisa de que incorporar este tipo de sistemas a un proceso, servicio o producto suele suponer una alteración real del tratamiento de datos y obliga a revisar el cumplimiento.

El organismo sitúa el foco en los supuestos en los que un agente puede planificar subtareas, consultar memoria, invocar herramientas, conectarse con terceros o ejecutar acciones de forma autónoma. En ese escenario, sostiene que la IA agéntica no debe analizarse como una tecnología aislada, sino como una forma de implementar, total o parcialmente, tratamientos de datos personales.

Revisión del tratamiento y de toda la trazabilidad del dato

Las orientaciones recogen que el uso de estos agentes puede modificar la forma en que se accede a los datos, cómo se transforman, a quién se comunican o durante cuánto tiempo se conservan. Por eso, la AEPD apunta que su incorporación puede obligar a revisar el registro de actividades, las categorías de datos tratadas, los destinatarios, las transferencias internacionales, los plazos de conservación y las medidas de seguridad.

La agencia subraya que no basta con conocer la entrada y la salida del sistema. Reclama entender qué fuentes consulta el agente, qué memoria reutiliza, qué herramientas activa, qué transformaciones intermedias realiza y qué datos persisten al final del proceso.

En esa línea, el documento destaca que conocer la cadena de razonamiento permite conocer el ciclo de vida del dato. Si no puede reconstruirse con suficiente detalle por dónde ha pasado esa información, será más difícil justificar principios como la minimización, la proporcionalidad o la limitación de la finalidad.

La organización, además, debe poder identificar qué parte del resultado depende de fuentes, inferencias o memorias concretas. La AEPD advierte de que sin esa visibilidad resulta más complejo detectar errores encadenados o usos no previstos de datos personales.

Control sobre herramientas externas y servicios de terceros

Otro de los avisos del documento se centra en el uso de herramientas o recursos de terceros por parte de agentes. La AEPD alerta de que ese recurso puede introducir nuevos encargados, subencargados, responsables independientes o incluso escenarios de corresponsabilidad.

También puede activar nuevas memorias persistentes, nuevos flujos internacionales de datos y nuevas obligaciones contractuales o informativas. En ese contexto, la agencia considera que una llamada a una herramienta externa puede convertirse de facto en una salida parcial del tratamiento con relevancia propia.

Por eso recomienda revisar no solo los contratos, sino también los términos y condiciones, las políticas de privacidad, las condiciones de uso y, en su caso, los cambios de versión o funcionalidad de esos servicios. Entre las medidas prácticas, plantea listas blancas de servicios, limitación de herramientas accesibles y control de parámetros y respuestas en cada llamada.

Gobernanza interna y evaluación continua

La AEPD insiste en la necesidad de una gobernanza transversal, con participación de responsables funcionales, equipos TIC, calidad y la figura del delegado de protección de datos. La revisión del tratamiento, añade, debe hacerse desde el diseño y mantenerse durante todo el ciclo de vida del sistema, no solo en el momento inicial del despliegue.

El documento apuesta por una evaluación continua basada en evidencias, con métricas claras, pruebas de referencia y revisión de incidentes. También señala que las organizaciones deberían analizar si la incorporación del agente obliga a realizar o actualizar una evaluación de impacto.

Minimización de datos y control de memoria

Las orientaciones refuerzan el principio de minimización al advertir de que estos agentes pueden tender a buscar eficacia mediante más datos, más contexto y más memoria de la estrictamente necesaria. Para evitarlo, la AEPD propone definir políticas de acceso según cada tratamiento, catalogar los datos disponibles y sus fuentes, y aplicar controles sobre la calidad, procedencia y coherencia de la información utilizada.

El texto advierte de que una mala gestión de repositorios, metadatos o etiquetas puede llevar a tratar de forma indiscriminada información personal irrelevante, reutilizar contexto fuera de finalidad o acceder a categorías especiales de datos sin necesidad real.

En materia de memoria, la agencia reclama medidas específicas. Entre ellas cita la compartimentación por tratamientos, casos o usuarios, la separación entre memoria de la organización y memoria de la persona usuaria, plazos estrictos de retención y técnicas de higienización sobre la memoria persistente.

La localización de los datos debe abarcar también los prompts y otros elementos intermedios cuando contengan información personal. Esa trazabilidad, precisa la AEPD, es necesaria para poder atender solicitudes de acceso, rectificación, supresión, limitación, oposición o portabilidad.

El organismo concluye que desplegar IA agéntica sin rediseñar previamente el tratamiento, sin reforzar la trazabilidad y sin delimitar con precisión herramientas, memorias, autonomías y responsabilidades eleva el riesgo de incumplimiento en materia de protección de datos.

Sobre el autor
Redacción
Ver biografía