Les autoritats canadenques de protecció de dades van determinar que OpenAI va recopilar informació personal d'usuaris sense el consentiment adequat. L'Oficina del Comissionat Federal de Privadesa juntament amb els organismes de Quebec, Columbia Britànica i Alberta van tancar la investigació iniciada el 2023.
Els algorismes van rastrejar dades sensibles de menors
La investigació va revelar que l'empresa va obtenir dades de llocs web públics i fonts de tercers amb llicència. Aquest procés va incloure xarxes socials i fòrums que contenien informació sensible sobre menors així com opinions polítiques o estat de salut dels usuaris.
L'informe matisa que les converses directes amb ChatGPT no constitueixen la principal font de risc per a la privadesa. Els reguladors consideren que aquests intercanvis s'utilitzen per millorar la capacitat de resposta del sistema i compten amb mesures de mitigació ja implementades.
"Totes les empreses tecnològiques que desenvolupen intel·ligència artificial han de comprendre les seves obligacions legals per protegir la privadesa" - Diane McLeod, Comissionada de Privadesa d'Alberta
Diane McLeod va advertir durant la conferència de premsa que el ràpid desenvolupament de la intel·ligència artificial representa un dels majors desafiaments actuals per a la protecció de la privacitat individual.
Ottawa prepara una llei federal actualitzada
Philippe Dufresne, comissionat federal de privadesa, va afirmar que la privadesa no és un obstacle per a la innovació ni per al desenvolupament econòmic. No obstant això, va assenyalar que el Canadà necessita mecanismes d'aplicació més sòlids, incloent-hi la facultat d'emetre ordres obligatòries.
El ministre canadenc d'Intel·ligència Artificial, Evan Solomon, va anunciar que el govern planeja presentar pròximament un projecte de llei federal actualitzat sobre privacitat per reforçar el marc legal vigent.
Les agències van qualificar la denúncia com a ben fonamentada i van considerar el cas resolt condicionalment. Aquesta decisió arriba després dels canvis realitzats o previstos per OpenAI per mitigar els riscos detectats durant l'auditoria.
OpenAI discrepa de les conclusions finals i sosté que compleix en gran mesura amb la normativa legal vigent. La companyia afirma haver limitat l'ús d'informació personal per a l'entrenament de models i ha descontinuat versions antigues del sistema.