OpenAI incumplió la legislación canadiense al entrenar a ChatGPT con datos personales
Toronto (Canadá), 6 may (EFE).- Los reguladores de privacidad de Canadá dijeron este miércoles que OpenAI incumplió las leyes canadienses de protección de datos personales en el desarrollo y despliegue de ChatGPT, al recopilar información personal de individuos como condiciones médicas, ideología y datos sobre menores.
Estas conclusiones están recogidas en un informe presentado hoy por el comisionado de Privacidad de Canadá, Philippe Dufresne, junto con sus homólogos de las provincias de Quebec, Columbia Británica y Alberta.
Los reguladores de privacidad canadienses examinaron en una investigación la recolección, uso y divulgación de información personal por parte de OpenAI para entrenar y operar ChatGPT, y concluyeron que el entrenamiento inicial del chatbot no cumplió las normas federales y provinciales de privacidad.
Entre estos motivos citaron la recopilación excesiva de datos personales, la falta de consentimiento válido, la insuficiente transparencia, respuestas con información personal inexacta o fabricada, problemas para que los individuos pudieran acceder, corregir o borrar sus datos y la falta de responsabilidad sobre la información bajo control de la empresa.
Según el informe, OpenAI recopiló grandes cantidades de información personal a través de fuentes públicas, redes sociales, foros y otros sitios de internet.
Dufresne afirmó en un comunicado que OpenAI lanzó ChatGPT "sin haber abordado plenamente" los riesgos conocidos de privacidad.
"Esto expuso a los canadienses a posibles daños como filtraciones de datos y discriminación sobre la base de la información sobre ellos", añadió.
Dufresne también dijo que tras la investigación, OpenAI mejoró las protecciones de privacidad y ha aceptado asumir más medidas para atender las preocupaciones de la Oficina de Privacidad de Canadá.
Entre las medidas citadas por los reguladores figuran herramientas para detectar y enmascarar datos personales, como nombres o números de teléfono, en conjuntos de datos usados para el entrenamiento, mejoras en los mecanismos de acceso y corrección de información, políticas formales de retención y eliminación de datos, así como nuevos avisos para informar a los usuarios de que sus conversaciones pueden ser revisadas o utilizadas para entrenar modelos.
"Estas medidas limitarán significativamente la información personal que es utilizada para entrenar nuevos modelos de ChatGPT", explicó el comisionado canadiense.
OpenAI deberá presentar informes trimestrales a los reguladores canadienses para demostrar el cumplimiento de los compromisos asumidos.
Dufresne afirmó que la investigación demuestra la necesidad de modernizar las leyes canadienses de privacidad ante el avance de la inteligencia artificial, aunque subrayó que las normas actuales ya se aplican a estas tecnologías. "Las salvaguardas apropiadas son la piedra angular de la innovación responsable", declaró.
La presentación del informe se produce poco después de que el consejero delegado de OpenAI, Sam Altman, pidiese disculpas a la localidad canadiense de Tumbler Ridge por no haber alertado a las autoridades sobre una de sus usuarias, que posteriormente mató a ocho personas en la comunidad.
En una carta dirigida a la comunidad, Altman expresó en abril sus "más profundas condolencias" a las familias de las víctimas y reconoció que la empresa no informó a las fuerzas del orden cuando detectó actividad alarmante en la cuenta de la autora del tiroteo.
El tiroteo se produjo el pasado 10 de febrero, cuando una joven de 18 años que sufría trastornos mentales mató a cinco niños, una profesora y dos familiares antes de suicidarse.
Tras revelarse que OpenAI había detectado interacciones preocupantes a través de las conversaciones de la autora con ChatGPT, pero que decidió no comunicar esa información a la Policía, las autoridades canadienses criticaron a la compañía estadounidense y pidieron explicaciones sobre lo ocurrido.
A finales de abril, varias familias de la matanza de Tumbler Ridge presentaron una demanda en San Francisco (EE. UU.) contra OpenAI, en la que reclaman a la compañía una indemnización de hasta 1.000 millones de dólares. EFE
jcr/aaca/eav