Canadà conclou que OpenAI va recopilar dades mèdiques i ideològiques sense consentiment vàlid i va aprovar l'informe de maig de 2026

Els reguladors de privacitat del Canadà van dictaminar que OpenAI va infringir la llei en desenvolupar ChatGPT: va recopilar dades sensibles sense consentiment vàlid i amb manca de transparència per accedir-hi, corregir-les o esborrar-les.

07 de maig de 2026 a les 11:05h
Canadà conclou que OpenAI va recopilar dades mèdiques i ideològiques sense consentiment vàlid i va aprovar l'informe de maig de 2026
Canadà conclou que OpenAI va recopilar dades mèdiques i ideològiques sense consentiment vàlid i va aprovar l'informe de maig de 2026

Els reguladors de privacitat del Canadà van determinar que OpenAI va vulnerar la legislació federal i provincial en desenvolupar ChatGPT. La resolució conclou que la companyia va recopilar dades sensibles sense consentiment vàlid.

L'informe va ser presentat el 6 de maig de 2026 per Philippe Dufresne, comissionat de Privadesa del Canadà, juntament amb els seus homòlegs del Quebec, la Colúmbia Britànica i Alberta. Les autoritats van identificar infraccions greus en la gestió d'informació personal durant tot el cicle de vida del model d'intel·ligència artificial.

L'empresa va recollir dades mèdiques i ideològiques sense autorització

La investigació va revelar que OpenAI va obtenir grans volums d'informació procedent de fonts públiques, xarxes socials i fòrums. El sistema va processar detalls sobre condicions mèdiques, ideologia política i dades de menors d'edat. Els reguladors van assenyalar que aquesta pràctica mancava d'una base legal sòlida.

Philippe Dufresne va afirmar que la companyia va llançar el seu producte "sense haver abordat plenament" els riscos coneguts. El comissionat va advertir que aquesta situació va exposar els ciutadans a possibles danys com filtracions de dades o discriminació.

"Les salvaguardes apropiades són la pedra angular de la innovació responsable." - Philippe Dufresne, Comissionat de Privacitat del Canadà, Oficina del Comissionat de Privacitat del Canadà

Les autoritats van destacar la manca de transparència i les dificultats perquè els usuaris accedissin, corregissin o esborressin les seves dades. A més, el sistema generava respostes amb informació personal inexacta o fabricada, cosa que agreujava la responsabilitat corporativa de la firma tecnològica.

El silenci davant el tiroteig de Tumbler Ridge accelera la pressió legal

Este dictamen arriba setmanes després que Sam Altman, conseller delegat d'OpenAI, demanés disculpes a la localitat de Tumbler Ridge. L'empresa no va alertar les autoritats sobre una usuària que posteriorment va cometre un tiroteig mortal el 10 de febrer.

Una jove de 18 anys amb trastorns mentals va matar cinc nens, una professora i dos familiars abans de suïcidar-se. Les autoritats van confirmar que OpenAI va detectar interaccions alarmants al compte de l'autora però va decidir no comunicar-les a la Policia.

Altman va reconèixer en una carta d'abril que la companyia va fallar en el seu deure d'informar les forces de l'ordre. Aquesta omissió ha derivat en accions legals civils contra la plataforma als Estats Units.

Diverses famílies de les víctimes van presentar a finals d'abril una demanda a San Francisco. Els demandants reclamen una indemnització de fins a 1.000 milions de dòlars pels danys soferts.

Després de la investigació canadenca, OpenAI va acceptar implementar mesures addicionals per atendre les preocupacions de l'Oficina de Privadesa. La companyia va millorar les seves eines per detectar i emmascarar dades personals en els conjunts d'entrenament.

Dufresne va explicar que aquestes accions limitaran significativament la informació personal utilitzada per entrenar nous models. OpenAI haurà de presentar informes trimestrals als reguladors per acreditar el compliment d'aquests compromisos adquirits.

Sobre l'autor
Redacción
Veure biografia