• Home /

  • /

  • La Agencia Española de Protección de Datos pone bajo la lupa a ChatGPT

Inteligencia artificial

La Agencia Española de Protección de Datos pone bajo la lupa a ChatGPT

La AEPD ha abierto una investigación a OpenIA y participará en el grupo de trabajo que acaba de lanzar el Consejo Europeo de Protección de Datos.

Redactora especializada en Seguridad y Tecnología.

3 minutos

ChatGPT.

Hace solo unos días Italia se convirtió en el primer país occidental en prohibir temporalmente el uso de ChatGPT, el chatbot creado por la empresa estadounidense OpenAI, con el apoyo de Microsoft, que ya ha sido bloqueado en China, Irán, Corea del Norte y Rusia. En Escudo Digital informamos de esta decisión de las autoridades italianas, tomada por su agencia de Protección de Datos bajo la acusación de que OpenAI recopila información y datos personales de manera ilegal a través de su herramienta, el chat de inteligencia artificial más popular y demandando de la actualidad.

Según señalamos, el organismo italiano no era el único de Europa que había puesto en el punto de mira ChatGPT y cabía la posibilidad de que otros países siguieran su ejemplo. En ese momento, la Agencia Española de Protección de Datos parecía mirar para otro lado, según indicó Vozpópuli en base a unas declaraciones que recabó de la propia AEPD en la que ésta alegaba que no había recibido ninguna reclamación sobre ChatGPT.

"No obstante, seguimos de cerca estos desarrollos tecnológicos, que pueden tener una importante afectación para los derechos de las personas, por lo que no puede descartarse una futura investigación a este respecto", apuntó la AEPD, que tiene potestad para seguir el ejemplo de su homólogo italiano. Hasta ahora no lo ha hecho, pero la Agencia ha anunciado este jueves que "ha iniciado de oficio actuaciones previas de investigación" a OpenAI "por un posible incumplimiento de la normativa". 

En un comunicado, la AEPD remarca que aboga por el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial desde "el pleno respeto" a la legislación vigente, ya que considera que "sólo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas".

La AEPD ha compartido esta nota informativa el mismo día en el que se ha celebrado una reunión plenaria del Consejo Europeo de Protección de Datos (EDBP, por sus siglas en inglés), que ha congregado a representantes de los organismos nacionales de control de la privacidad de datos. La Agencia española quería que uno de los temas a abordar fuera el impacto de ChatGPT en la política de protección de datos y hasta llegó a solicitárselo a la EDBP la semana pasada, según desveló Reuters este pasado martes recogiendo un comunicado de un portavoz de la AEPD.

"La AEPD entiende que las operaciones de tratamiento global de datos que puedan tener un impacto significativo en los derechos de las personas requieren decisiones coordinadas a nivel europeo", señaló el portavoz de la AEPD, y apuntó:

"Por ello, a corto plazo, la AEPD ha solicitado que la cuestión de ChatGPT se incluya en el próximo Pleno del Comité Europeo de Protección de Datos, para que se puedan poner en marcha acciones coordinadas en el marco de la aplicación del Reglamento General de Protección de Datos".

El EDBP da un paso para definir una política común en torno a la IA

El EDPB aceptó la solicitud de la AEPD y en el plenario de este jueves se ha puesto en el punto de mira el servicio ChatGPT. Así lo ha confirmado el propio Comité, que ha especificado que han debatido sobre la decisión del regulador italiano de bloquear el chatbot. Además, el EDPB ha informado que en la reunión se ha acordado "lanzar un grupo de trabajo dedicado a fomentar la cooperación e intercambiar información sobre posibles acciones de ejecución llevadas a cabo por las autoridades de protección de datos".

Este grupo de trabajo se percibe como un primer paso potencialmente importante para definir una política común que establezca las reglas de privacidad sobre inteligencia artificial, según subraya Reuters aludiendo a una "fuente de un organismo de control nacional, que pidió no ser identificada" y la cual ha afirmado que los estados miembros esperan alinear sus posiciones políticas, pero que esto llevaría tiempo.

Según esta fuente, los países europeos no buscan castigar a Open AI ni instaurar normas en su contra, sino crear políticas generales que "sean transparentes".

El organismo español participará en el grupo de trabajo y, junto a la apertura de la investigación sobre OpenIA, explica que "actúa en paralelo en el marco de sus potestades y competencias como autoridad nacional de supervisión y control, además en coordinación con sus homólogas europeas a través del comité".

Francia, Irlanda y Alemania, también preocupadas por ChatGPT

El escrutinio global sobre los sistemas de IA y sobre ChatGPT en concreto se ha intensificado en las últimas semanas. El movimiento del regulador italiano avivó el interés de sus homólogos europeos y España no es el único país que ha puesto en el foco los chatbots.

Tal y como ha informó Reuters el pasado día 3, los garantes de la privacidad de Francia (CNIL), Alemania e Irlanda se han puesto contacto con el italiano para analizar si deben imponer un veto similar al de su país. Por ahora, ninguno de los dos ha tomado esta medida, pero la comisión francesa reveló este pasado martes que también ha abierto una investigación sobre ChatGPT para analizar "varias quejas" que le han sido notificadas.