Las autoridades canadienses de protección de datos determinaron que OpenAI recopiló información personal de usuarios sin el consentimiento adecuado. La Oficina del Comisionado Federal de Privacidad junto con los organismos de Quebec, Columbia Británica y Alberta cerraron la investigación iniciada en 2023.
Los algoritmos rastrearon datos sensibles de menores
La investigación reveló que la empresa obtuvo datos de sitios web públicos y fuentes de terceros con licencia. Este proceso incluyó redes sociales y foros que contenían información sensible sobre menores así como opiniones políticas o estado de salud de los usuarios.
El informe matiza que las conversaciones directas con ChatGPT no constituyen la principal fuente de riesgo para la privacidad. Los reguladores consideran que estos intercambios se utilizan para mejorar la capacidad de respuesta del sistema y cuentan con medidas de mitigación ya implementadas.
"Todas las empresas tecnológicas que desarrollan inteligencia artificial deben comprender sus obligaciones legales para proteger la privacidad" - Diane McLeod, Comisionada de Privacidad de Alberta
Diane McLeod advirtió durante la conferencia de prensa que el rápido desarrollo de la inteligencia artificial representa uno de los mayores desafíos actuales para la protección de la privacidad individual.
Ottawa prepara una ley federal actualizada
Philippe Dufresne, comisionado federal de privacidad, afirmó que la privacidad no es un obstáculo para la innovación ni para el desarrollo económico. Sin embargo señaló que Canadá necesita mecanismos de aplicación más sólidos incluyendo la facultad de emitir órdenes obligatorias.
El ministro canadiense de Inteligencia Artificial, Evan Solomon, anunció que el gobierno planea presentar próximamente un proyecto de ley federal actualizado sobre privacidad para reforzar el marco legal vigente.
Las agencias calificaron la denuncia como bien fundada y consideraron el caso resuelto condicionalmente. Esta decisión llega tras los cambios realizados o previstos por OpenAI para mitigar los riesgos detectados durante la auditoría.
OpenAI discrepa de las conclusiones finales y sostiene que cumple en gran medida con la normativa legal vigente. La compañía afirma haber limitado el uso de información personal para el entrenamiento de modelos y ha descontinuado versiones antiguas del sistema.