Canadá concluye que OpenAI recopiló datos médicos e ideológicos sin consentimiento válido y aprobó el informe de mayo de 2026

Los reguladores de privacidad de Canadá dictaminaron que OpenAI vulneró la ley al desarrollar ChatGPT: recopiló datos sensibles sin consentimiento válido y con falta de transparencia para acceder, corregir o borrar.

07 de mayo de 2026 a las 11:05h
Canadá concluye que OpenAI recopiló datos médicos e ideológicos sin consentimiento válido y aprobó el informe de mayo de 2026
Canadá concluye que OpenAI recopiló datos médicos e ideológicos sin consentimiento válido y aprobó el informe de mayo de 2026

Los reguladores de privacidad de Canadá determinaron que OpenAI vulneró la legislación federal y provincial al desarrollar ChatGPT. La resolución concluye que la compañía recopiló datos sensibles sin consentimiento válido.

El informe fue presentado el 6 de mayo de 2026 por Philippe Dufresne, comisionado de Privacidad de Canadá, junto a sus homólogos de Quebec, Columbia Británica y Alberta. Las autoridades identificaron infracciones graves en la gestión de información personal durante todo el ciclo de vida del modelo de inteligencia artificial.

La empresa recogió datos médicos e ideológicos sin autorización

La investigación reveló que OpenAI obtuvo grandes volúmenes de información procedente de fuentes públicas, redes sociales y foros. El sistema procesó detalles sobre condiciones médicas, ideología política y datos de menores de edad. Los reguladores señalaron que esta práctica carecía de una base legal sólida.

Philippe Dufresne afirmó que la compañía lanzó su producto "sin haber abordado plenamente" los riesgos conocidos. El comisionado advirtió que esta situación expuso a los ciudadanos a posibles daños como filtraciones de datos o discriminación.

"Las salvaguardas apropiadas son la piedra angular de la innovación responsable." - Philippe Dufresne, Comisionado de Privacidad de Canadá, Oficina del Comisionado de Privacidad de Canadá

Las autoridades destacaron la falta de transparencia y las dificultades para que los usuarios accedieran, corrigieran o borraran sus datos. Además, el sistema generaba respuestas con información personal inexacta o fabricada, lo que agravaba la responsabilidad corporativa de la firma tecnológica.

El silencio ante el tiroteo de Tumbler Ridge acelera la presión legal

Este dictamen llega semanas después de que Sam Altman, consejero delegado de OpenAI, pidiera disculpas a la localidad de Tumbler Ridge. La empresa no alertó a las autoridades sobre una usuaria que posteriormente cometió un tiroteo mortal el 10 de febrero.

Una joven de 18 años con trastornos mentales mató a cinco niños, una profesora y dos familiares antes de suicidarse. Las autoridades confirmaron que OpenAI detectó interacciones alarmantes en la cuenta de la autora pero decidió no comunicarlas a la Policía.

Altman reconoció en una carta de abril que la compañía falló en su deber de informar a las fuerzas del orden. Esta omisión ha derivado en acciones legales civiles contra la plataforma en Estados Unidos.

Varias familias de las víctimas presentaron a finales de abril una demanda en San Francisco. Los demandantes reclaman una indemnización de hasta 1.000 millones de dólares por los daños sufridos.

Tras la investigación canadiense, OpenAI aceptó implementar medidas adicionales para atender las preocupaciones de la Oficina de Privacidad. La compañía mejoró sus herramientas para detectar y enmascarar datos personales en los conjuntos de entrenamiento.

Dufresne explicó que estas acciones limitarán significativamente la información personal utilizada para entrenar nuevos modelos. OpenAI deberá presentar informes trimestrales a los reguladores para acreditar el cumplimiento de estos compromisos adquiridos.

Sobre el autor
Redacción
Ver biografía