Cómo plantean la ONU y la UE legislar la inteligencia artificial

Celebradas y necesarias, parece poco decir que son un buen primer paso, pero estas normas tienen, aún, un largo camino por recorrer. Una, no es vinculante. La otra necesitará más reglamentación y jurisprudencia para implementarse.

Anahí Di Santo.

Periodista.

Guardar

La ONU y el Parlamento Europeo han aprobado sus primeras normativas para regular la IA.
La ONU y el Parlamento Europeo han aprobado sus primeras normativas para regular la IA.

En el último mes, tanto el Parlamento Europeo como la Asamblea General de las Naciones Unidas han emitido resoluciones para regular y promover el uso responsable de la inteligencia artificial.

Desde que comenzaron a proliferar estas herramientas y se hicieron accesibles para la ciudadanía, hace poco más de un año y medio, se han revelado sorprendentes avances, milagrosas soluciones y también peligrosos e impensados usos. Y, probablemente, si hay consenso sobre algo, entre el amplio espectro de posiciones al respecto, es que es un tema complejo y difícil de abordar. Porque, además de todo lo que implica, continúa cambiando y reinventándose constantemente.

Muestra de ello son los cuatro años que transcurrieron desde que se comenzó a tratar esta ley, y las 38 horas de negociaciones que implicó la última sesión de debate en la Eurocámara, que se convirtió en la más larga en la historia de la UE.

La resolución global de la ONU

En el caso del pliego de Naciones Unidas, fue celebrado como la primera resolución global sobre inteligencia artificial, pero es clave destacar que no impone obligaciones vinculantes. Las negociaciones implicaron tres meses de trabajo y el resultado fue un documento de 8 páginas.

El proyecto ha sido presentado por Estados Unidos y aprobado por unanimidad, incluidos Rusia, China y otros 190 países, pero sin votación, lo que significa que no todos los países respaldan la totalidad del texto.

La resolución fue aprobada el 21 de marzo y se centra en promover una “inteligencia artificial segura y confiable”, aunque excluye la IA militar. También hace hincapié en que se desarrollen sistemas de IA que sean equitativos y que eviten las desigualdades entre países, así como su posible uso malintencionado.

En el mismo sentido, “pide a los Estados que se abstengan de utilizar sistemas de inteligencia artificial que no puedan funcionar de conformidad con las normas internacionales de derechos humanos o los pongan en riesgo”.

Entre las iniciativas que promueve se encuentran la protección de datos personales, mejorar las políticas de privacidad, garantizar un seguimiento estrecho de la IA para detectar riesgos potenciales y trasladar las garantías y derechos existentes al mundo digital: “los mismos derechos que tienen las personas fuera de línea deben protegerse también en línea”, destacaron en la Asamblea.

El texto señala los riesgos que plantean las tecnologías diseñadas o utilizadas “con fines equivocados o con la intención de causar daño”, su papel en las campañas de desinformación, las amenazas a la democracia, a los derechos humanos y los fraudes masivos. Sin embargo, no hay en la resolución obligaciones ni compromisos para evitar estos peligros, ni para combatir las amenazas de ciberseguridad. Lo que sí destaca es “la necesidad de establecer normas que garanticen que los sistemas de inteligencia artificial son seguros y fiables”.

La ley de IA europea

El 13 de marzo pasado, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial con 523 votos a favor. Sin embargo, aún resta que sea refrendada por el Consejo, y se calcula que recién entrará en vigor en 2026.

Según describe una publicación posterior del propio organismo, esta normativa “garantiza la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación”, mientras que considera que esta tecnología “entraña un alto riesgo”.

De esta manera, la prioridad de esta legislación es que los sistemas de IA sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Además, deberán ser supervisados por personas, y no dejarlos librados a la automatización. Pero también se ha dado gran importancia a que la norma estimule la inversión y la innovación en IA en territorio europeo, así como apoyo a las pymes.

También habrá sanciones por incumplimiento: desde 7,5 millones de euros o el 1,5% del volumen de negocio a los 35 millones o el 7% del volumen de negocio, según la infracción cometida y el tamaño de la empresa.

El documento, de 460 páginas, “es una regulación más bien escueta. Como instrumento legal, requiere más explicitación, considera Lorena Jaume-Palasí, experta en ética y filosofía del derecho aplicadas a la tecnología y asesora del Parlamento Europeo en temas de IA. “Igual que ha sucedido con el Reglamento General de Protección de Datos (RGPD), necesitaremos jurisprudencia para saber con qué metodología se va a implementar todo esto”, reflexiona en diálogo con El País.

Clasificación según los peligros implicados

En el terreno de los riesgos, Ley de Inteligencia Artificial establece cuatro categorías.

  • Los sistemas de IA de riesgo inaceptable se consideran una amenaza y estarán prohibidos. Incluyen manipulación cognitiva, puntuación social e identificación biométrica en tiempo real y a distancia, como el reconocimiento facial, es decir, vigilancia masiva. No obstante, hay exenciones para las fuerzas de seguridad, previa autorización judicial, cuando haya delitos involucrados, personas desaparecidas o amenazas de atentados terroristas. Incluso, en casos de urgencia ‘justificados’, “se podrá empezar a utilizar tales sistemas sin el registro en la base de datos de la UE”, notificando a la Comisión hasta 30 días después.

 

  • Los sistemas calificados como de alto riesgo deberán ser evaluados antes de comercializarse, y serán sometidos a estrictos controles. Aquí entran juguetes, aviación, automóviles, dispositivos médicos, ascensores, gestión y explotación de infraestructuras críticas, educación y formación profesional, empleo, gestión de trabajadores y acceso al autoempleo, aplicación de la ley, gestión de la migración, el asilo y el control de fronteras, entre las más importantes. La identificación biométrica y categorización de personas físicas está dentro de este grupo, y están prohibidas en espacios de acceso público, sólo se considerarán en entornos privados.

 

  • El siguiente nivel es el de riesgo limitado, y está relacionado con cuestiones de transparencia. Aquí se incluye la IA generativa, los chatbots, los generadores de imágenes, audio y vídeos (deepfakes). Todas estas herramientas deberán indicar de forma transparente que son sistemas artificiales (que no hay seres humanos respondiendo detrás, por ejemplo), así como todo el contenido generado por IA, que deberá etiquetarse claramente como tal. 

Además, estos sistemas deberán diseñarse para evitar que generen contenidos ilegales y tendrán que “publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento”. Este control lo realizará la Oficina de la IA, el órgano que supervisará el cumplimiento de la normativa, aunque no queda claro cómo se garantizará el cumplimiento de los derechos de autor.

 

Deepfake y deepvoice, nada es lo que parece, tutorial del hacker ético Raúl Beamud.

 

  • Por último, frente a las herramientas que presentan riesgos mínimos o nulos, como filtros de spam, videojuegos con IA o detectores de duplicados de textos, el requisito es que informen a los usuarios que se trata de herramientas artificiales. Según la UE, la gran mayoría de los sistemas de IA utilizados actualmente se incluyen en esta categoría.