Tecnología | Inteligencia artificial

Protección de Datos investiga a OpenAI, dueña de ChatGPT, por incumplir la normativa

Una usuaria con un ordenador portátil.

Una usuaria con un ordenador portátil. / Europa Press

La Agencia Española de Protección de Datos (AEPD) ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio de inteligencia artificial generativa ChatGPT, por un posible incumplimiento de la normativa.

La agencia recuerda en un comunicado que aboga por el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial desde "el pleno respeto" a la legislación vigente, ya que considera que "solo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas".

La agencia informa de que la semana pasada solicitó al Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) que se incluyera el servicio ChatGPT como tema a abordar en su reunión plenaria.

A juicio del organismo, los tratamientos globales que pueden tener "un importante impacto" sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeo en aplicación del Reglamento General de Protección de Datos.

El citado comité ha decidido en el plenario celebrado este jueves lanzar un grupo de trabajo para fomentar la cooperación e intercambiar información sobre las acciones llevadas a cabo por las autoridades de protección de datos, explica la AEPD.

"Con el inicio de la investigación en España y la participación en el grupo de trabajo europeo, la AEPD actúa en paralelo en el marco de sus potestades y competencias como autoridad nacional de supervisión y control, además en coordinación con sus homólogas europeas a través del comité".

El caso de Italia

España no es el primer país que investiga si OpenAI cumple o no con la normativa. Italia prohibió su uso en marzo "con efecto inmediato" por considerar que no respeta la ley de protección de datos de los consumidores.

Este miércoles, el país transalpino comunicó que ha dado a la tecnológica estadounidense hasta el 30 de abril para que adapte la gestión de datos de ChatGPT a la normativa italiana. El garante italiano para la Protección de Datos también pidió que presente un sistema de verificación de edad para evitar el acceso a los menores de 13 años y cuyo funcionamiento deberá estar en vigor antes del 30 se septiembre de 2023.

Asimismo, OpenAI deberá iniciar antes del 15 de mayo una campaña en medios de comunicación para informar a las personas sobre el uso que hace de sus datos personales con el fin de entrenar algoritmos y mejorar el rendimiento de sus servicios.

Respecto a la gestión de los datos personales, la empresa tendrá que habilitar un sitio web de fácil acceso en el que explique el almacenamiento, tratamiento y procesado de la información que recopila de sus usuarios. Ese protocolo tendrá que mostrarse obligatoriamente a las personas que se registren desde Italia, que deberán aceptarla antes de utilizar el servicio; quienes ya se habían dado de alta tendrán que hacerlo cuando se reactive.

Otros casos

La Organización Europea de Consumidores (BEUC) instó el mes pasado a las autoridades de la Unión Europea y de los Veintisiete que abrieran una investigación sobre ChatGPT y chatbots similares, ante el "riesgo" que corren los usuarios de "sufrir daños" por una tecnología sin regular.

La asociación que representa a los consumidores de la UE hizo esta petición tras la denuncia presentada por el grupo de la sociedad civil estadounidense Centro de IA y Política Digital ante la Comisión Federal de Comercio de Estados Unidos, planteando, entre otras, cuestiones críticas sobre el impacto de GPT-4 en la protección de los consumidores y sus datos.

Carta abierta

Una de las acciones que más eco han tenido es una carta abierta hecha pública el pasado 22 de marzo y firmada hasta ahora por más de 24.700 expertos de distintos campos.

Encabezada por Yoshua Bengio, premio Turing y profesor de la Universidad de Montreal, en Canadá, y Stuart Russell, de la Universidad de California en Berkeley, EEUU, los firmantes solicitan a los laboratorios que suspendan al menos seis meses el entrenamiento de sistemas de IA más potentes que GPT-4 (el último modelo de IA generativa de la empresa OpenAI). El ritmo al que avanza esta tecnología preocupa y es necesario repensarla.

En este sentido, el documento, firmado entre otros por el cofundador de Apple Steve Wozniak, propone que durante esta pausa se "desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes".

Piden que la investigación y el desarrollo de esta tecnología se reenfoque en hacer que "los sistemas potentes y de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales".

Entre los firmantes hay varios españoles, como Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC), y Pablo Jarillo-Herrero, del Instituto Tecnológico de Massachusetts (MIT). Según indicaron en su día a EFE no se han tomado "las precauciones necesarias" antes de trasladar masivamente esta IA a la ciudadanía.

Ambos expertos coincidieron en que la IA, también la generativa, puede proporcionar beneficios, pero estos sistemas buscan que el resultado sea verosímil, no necesariamente cierto, y que parezca que lo ha dicho un humano; ahí está el riesgo.

Basados en el aprendizaje automático, aprenden de los millones de textos, imágenes o vídeos publicados en internet, y los desarrolladores se quedan con los datos de las miles de "conversaciones" de los usuarios para mejorar los siguientes modelos, por eso, entre otros, preocupa la privacidad y el uso de datos personales.

Peticiones en la revista 'Science'

En la revista Science un grupo internacional de expertos también mostró en un artículo su preocupación por los elevados riesgos de la IA y de las consecuencias catastróficas que los fallos de esta tecnología pueden causar.

Incidieron en la necesidad de que todas las publicaciones sobre esta materia incluyan de forma pormenorizada todos los datos que son vitales para comprender y abordar los errores intermedios que pueden conducir a posibles fallos, y que estén a disposición de la comunidad científica que evitar que se reproduzcan los mismos errores.

más noticias de TECNOLOGÍA Ir a la sección Tecnología »

Comentar

0 Comentarios

    Más comentarios