Un estudio firmado por investigadores de la Universidad de Zaragoza y la Universidad de La Rioja alerta de que la eliminación definitiva del pasado digital no está garantizada, ni siquiera cuando se solicita el borrado explícito de información en plataformas o servicios en línea.
La inteligencia artificial puede recuperar datos eliminados
El trabajo, publicado en la revista ACM Computing Surveys, advierte de que la inteligencia artificial es capaz de acceder a datos que ya habían sido marcados como eliminados. El equipo, formado por Ignacio Marco-Pérez, Beatriz Pérez Valle y Ángel Luis Rubio (Universidad de La Rioja) junto a María Antonia Zapata (Universidad de Zaragoza), diferencia entre "borrado recuperable" y "borrado no recuperable".
Según el análisis, tecnologías como bases de datos temporales, blockchain o sistemas de aprendizaje automático pueden dejar copias residuales o fragmentos de información dispersa. Los algoritmos avanzados pueden identificar y reconstruir información desde estos fragmentos, lo que puede vulnerar la intención original de quienes solicitaron la eliminación de sus datos.
El derecho al olvido, en entredicho
El hallazgo pone en cuestión el principio del "derecho al olvido" reconocido en la Unión Europea. La existencia de copias de seguridad y la proliferación de dispositivos capaces de almacenar datos, como teléfonos móviles, relojes inteligentes, televisores conectados o vehículos, dificultan el cumplimiento efectivo de este derecho. El estudio subraya también la importancia de abordar el destino de los datos tras el fallecimiento de una persona, ya que la huella digital puede perdurar indefinidamente.
Riesgos para la privacidad y recomendaciones de seguridad
La posibilidad de que una inteligencia artificial reconstruya información desde datos fragmentados puede derivar en filtraciones y ataques a la privacidad. Las empresas y entidades custodias de datos están obligadas a establecer protocolos que garanticen que la eliminación de datos es real y total, aunque el reto crece con el aumento de dispositivos conectados y la complejidad de los sistemas de almacenamiento.
- No se recomienda introducir informes financieros, datos estratégicos, listas de clientes o información confidencial en sistemas de inteligencia artificial.
- Las conversaciones con sistemas de inteligencia artificial no cuentan con cifrado de extremo a extremo ni con garantías de protección adecuadas para datos críticos.
- Existe riesgo de exposición si un tercero accede a la cuenta de usuario o si las plataformas utilizan las conversaciones para entrenar sus modelos.
- Las políticas internas de seguridad suelen prohibir el uso de herramientas externas para gestionar información delicada.
Advertencias sobre el uso de inteligencia artificial en decisiones sensibles
Los expertos en ciberseguridad insisten en la necesidad de no compartir nunca información personal, bancaria, contraseñas ni ningún dato sensible con sistemas de inteligencia artificial conversacional. Además, los sistemas de inteligencia artificial no sustituyen el criterio de médicos, abogados o asesores financieros. Tomar decisiones médicas, legales o económicas basándose exclusivamente en las respuestas que ofrece una IA puede acarrear consecuencias graves.