El uso creciente de la Inteligencia Artificial en servicios y plataformas digitales de Cataluña plantea nuevos retos en materia de privacidad, ética y autonomía personal. Lorena Naranjo Godoy, directora de la Maestría en Derecho Digital de la UDLA y responsable del Área de Derecho Digital en el Estudio Jurídico Spingarn, alerta sobre los riesgos de delegar el pensamiento humano a sistemas automatizados, especialmente cuando se trata de datos personales y toma de decisiones en ámbitos sensibles.
Preocupación por la privacidad y el control de datos personales
Según Naranjo Godoy, muchas personas en entornos urbanos como Barcelona, Girona o Tarragona utilizan chatbots de atención al cliente y plataformas educativas sin ser plenamente conscientes de que interactúan con sistemas de Inteligencia Artificial. El principal riesgo identificado es la pérdida de control sobre los documentos y datos personales que se suben a estas plataformas. La experta advierte que la información puede almacenarse en nubes públicas y ser reutilizada, lo que genera la necesidad de extremar precauciones en sectores como la seguridad o la gestión de información confidencial.
"Cuando subes un documento, pierdes el control sobre él. Nada es gratis. Esa información suele almacenarse en nubes públicas y puede ser reutilizada" - Lorena Naranjo Godoy, UDLA
Impacto en la educación y la toma de decisiones
En el ámbito educativo, la Inteligencia Artificial permite una retroalimentación personalizada y procesos adaptados al ritmo de cada estudiante. Sin embargo, Naranjo Godoy subraya que la tecnología no debe convertirse en un atajo que sustituya el aprendizaje real ni el análisis crítico. El uso de IA como herramienta puede mejorar la eficiencia, pero suplantar el razonamiento humano genera riesgos de errores, sesgos o "alucinaciones" en los resultados.
La experta también señala que se han detectado casos en los que jóvenes consultan sistemas de IA para decidir cómo votar o qué postura política adoptar, lo que evidencia una influencia creciente en decisiones colectivas y personales.
Ética y responsabilidad en el desarrollo y uso de la IA
Naranjo Godoy distingue dos niveles de responsabilidad. Por un lado, el diseño de la IA, que debe prever dilemas éticos en situaciones de riesgo, como ocurre en los vehículos autónomos. Por otro, el uso que hacen las personas al aceptar respuestas generadas por IA como verdades absolutas sin verificación. Se han documentado casos en los que profesionales han presentado información falsa generada por IA, con consecuencias graves.
La experta insiste en la necesidad de marcos éticos internacionales y en la responsabilidad compartida entre Estado, empresas y usuarios. El Estado debe definir límites claros sobre qué decisiones pueden automatizarse, las empresas deben proteger los datos personales y los usuarios deben evitar subir información sensible y no delegar su criterio.
Desafío para la autonomía y la convivencia con la tecnología
La integración de la Inteligencia Artificial en procesos administrativos y servicios cotidianos en Cataluña es irreversible. Naranjo Godoy afirma que el reto principal es aprender a convivir con esta tecnología sin perder autonomía ni capacidad crítica. La clave está en potenciar las habilidades humanas y supervisar el uso de la IA, evitando que se convierta en sustituto de relaciones personales o del pensamiento propio.
"No se trata solo de saber usar la tecnología. Se necesita conciencia. Los jóvenes deben entender cómo integrar la Inteligencia Artificial a su proyecto de vida sin afectar sus relaciones, su salud mental o su privacidad"
El debate sobre el papel de la Inteligencia Artificial en la sociedad catalana sigue abierto, con la mirada puesta en la protección de derechos digitales y la formación de usuarios críticos y responsables.