¿Cómo se protegen los principales países del mundo de la IA generativa?

Estados Unidos alienta la libertad de desarrollo de la IA, China la limita por motivos ideológicos y Europa pone el foco en que esas herramientas contribuyan al desarrollo democrático y de libertades individuales.

Pedro Fernaud

Periodista

Guardar

El futuro con la IA generativa promete ser extraordinariamente alentador siempre que esté convenientemente controlado.
El futuro con la IA generativa promete ser extraordinariamente alentador siempre que esté convenientemente controlado.

En el proceloso reto de desarrollar y encauzar la IA generativa, Estados Unidos apuesta por dar libertad en innovación de las inteligencias artificiales, China la restringe para que no dañe sus cimientos comunistas y Europa apuesta por un equilibrio entre libertad de desarrollo de esta disciplina y respeto activo a la democracia y derechos individuales de sus ciudadanos. En este reportaje diseccionamos las claves con las que tres regiones capitales del planeta están regulando el fenómeno de la IA generativa.

Historia del desarrollo de la IA

La inteligencia artificial, o IA, remonta sus raíces a la década de 1950, cuando se comenzaron a desarrollar las primeras ideas y conceptos. Durante las décadas de 1960 y 1970, la IA experimentó un auge inicial con enfoques como la lógica simbólica y los sistemas expertos. Después, este campo del quehacer humano pasó por períodos de atonía creativa en las décadas de 1980 y 1990, conocidos como "inviernos de la IA", debido a la falta de avances significativos. Es a partir de la década de 2000 cuando la IA resurge con fuerza gracias al aprendizaje profundo y el aumento en la capacidad de procesamiento de datos. En la actualidad, la inteligencia artificial juega un papel primordial en una amplia variedad de aplicaciones y ámbitos, desde asistentes virtuales hasta vehículos autónomos y diagnósticos médicos avanzados.

Qué representa la IA generativa

La Inteligencia Artificial Generativa, como Chat GPT-3, marca un salto exponencial en el desarrollo de la IA al posibilitar la creación automática de contenido altamente convincente, desde textos hasta imágenes y música. Esta facilidad abre oportunidades significativas en multitud de sectores y ámbitos, impulsando la creatividad y la innovación al generar contenido original, desde arte hasta textos, y también mejora la eficiencia automatizando tareas complejas, lo que promueve avances relevantes en diversos campos como el arte y la industria. No obstante, también comporta riesgos, como la generación de desinformación y contenido perjudicial. La urgencia de regular la IA Generativa radica en la necesidad de salvaguardar la ética y la seguridad de sus aplicaciones, estableciendo así estándares de transparencia y responsabilidad, garantizando de este modo que se utilice para el bien común, tanto en el ámbito empresarial privado como en el institucional público, evitando así posibles abusos y consecuencias no deseadas en la sociedad.

No en vano, la falta de regulación en la IA generativa puede conducir a la creación y difusión de contenido falso y perjudicial, como deepfakes engañosos que pueden dañar la reputación de personas concretas o propagar desinformación, generando inestabilidad social, incluso a gran escala, como en el ámbito de la geopolítica internacional. También puede amenazar la privacidad, al permitir la generación de información personal falsa. La falta de regulación puede, así mismo, ampliar las brechas de desigualdad, al otorgar ventajas indebidas a quienes tienen acceso a tecnologías avanzadas.

Cómo generar un Deepfake, por Raúl Beamud, hacker ético.

Además, esta clase de tecnología podría llevar a un uso irresponsable en aplicaciones militares o de ciberseguridad, incrementando de esta manera los riesgos globales de conflictos y ciberataques. La regulación es esencial, en definitiva, para equilibrar la innovación con la protección de valores fundamentales en el desarrollo humano, que podríamos resumir en el respeto por la dignidad de cada persona y la búsqueda de igualdad de oportunidades para el desarrollo personal, conforme se articula  justicia social que armonice al conjunto humano. ¿Se puede pues programar una IA solidaria y compasiva? ¿Puede modelarse una inteligencia artificial que vele por el bien común, alentando también un crecimiento personal significativo? Ese es el reto al que se enfrentan en los próximos tiempos los legisladores y programadores de la IA.

La carta de los expertos que alertan sobre los peligros de la IA generativa

A finales del mes de mayo de este 2023, se divulgó una carta abierta firmada por los principales responsables de OpenAI (creadora de la herramienta Chat GPT), Sam Altman (presidente ejecutivo de esa compañía), de Google DeepMind (la filial del titán tecnológico que se dedica a construir métodos para ganar dinero con la IA), Demis Hassabis, y Anthropic, (empresa de investigación y desarrollo de inteligencia artificial, fundada por ex miembros de Open AI, que está desarrollando su propio software de aprendizaje para competir con ChatGPT), Dario Amodei. Entre los firmantes también se encuentran los investigadores Geoffrey Hinton y Yoshua Bengio, a quienes a menudo se les considera padrinos del movimiento moderno de IA.

En la misiva se llega a decir incluso que la inteligencia artificial (IA) representa un “riesgo de extinción” para la humanidad, equiparándola con catástrofes de la magnitud de una guerra nuclear o una pandemia. Esas son las conclusiones a las que ha llegado un conjunto de 350 ejecutivos, investigadores e ingenieros expertos. La carta, divulgada por el Centro para la Seguridad de la IA, está redactada en 22 palabras, que expresan, en esencia, este mensaje. “Mitigar el riesgo de extinción [para la humanidad] de la IA debería ser una prioridad mundial junto con otros riesgos a escala social".

Estos temores hace tiempo que han sido objetivo de reflexión en el mundo del cine, en donde quizá el caso más popular sea la película 'Terminator'.

El modelo de EEUU: libertad para impulsar la innovación tecnológica

Según la Universidad de Stanford, Estados Unidos es el país que más invierte en el desarrollo de la IA: 47,4 billones de dólares, seguido de China con 13,4 billones y Reino Unido con 4,3 billones. Uno de los factores que hacen tan próspero el sector de las nuevas tecnologías en Estados Unidos es lo poco o nada que han regulado el desarrollo de las herramientas tecnológicas. Una decisión que ha contribuido al formidable desarrollo de las empresas estadounidenses en ámbitos tan diversos como las redes sociales y la innovación de inteligencia artificial, lo que se expresa en amplios beneficios empresarial en multitud de compañías de carácter digital y en el florecimiento de aplicaciones en sectores como la atención médica y la automoción.

Además, los estadounidenses destacan en el desarrollo de tecnologías de la información cuántica. Las compañías del país norteamericano son, así mismo, pioneras en la industria espacial privada, con SpaceX, empresa de transporte y turismo espacial y fabricación de naves espaciales, como referente más sobresaliente. Las empresas de ese país también lideran en el campo de la biotecnología, impulsando avances en medicamentos y terapias genéticas.

Sin embargo, el Senado estadounidense, la Cámara Alta del Congreso de los Estados Unidos, está tomando cartas en el asunto para regular la IA generativa con el objetivo de que no dañe sectores tan estratégicos para el desarrollo del país como el sanitario, el educativo y el de generación de empleo (con la idea de evitar discriminaciones laborales o usos inadecuados de esas herramientas en el ámbito del cuidado de la salud y el aprendizaje escolar y universitario), lo que representa un cambio de paradigma en la manera de articular el entramado legislativo que regula el desarrollo de la IA.

En esa línea, el Senado de EEUU desarrolló a puerta cerrada una reunión con ejecutivos tecnológicos, activistas, grupos de derechos civiles y líderes sindicales, para revisar los alcances de la inteligencia artificial, su aplicación segura y riesgos. La lista de invitados estaba integrada por algunos de los líderes más sobresalientes del sector, como Mark Zuckerberg, de Meta; Elon Musk, de X, y Bill Gates, de Microsoft. Los 100 senadores que integran esta cámara legislativa fueron invitados; una posibilidad que no se abrió al público general. El reto que se ha marcado el líder de la mayoría demócrata en el Senado, Chuck Schumer, consiste en modelar y suscribir una ley con apoyo de los dos partidos -Demócrata y Republicano- que fomente el desarrollo de la inteligencia artificial y que mitigue sus riesgos. “Será un grupo fascinante porque cada uno tiene puntos de vista diferentes”, señaló el propio Schumer en entrevista con The Associated Press antes de la celebración de la sesión. “Ojalá saquemos de esto algún tipo de consenso amplio".

China y la IA: cómo proteger las esencias del sistema comunista

Es un hecho verificado por diversos organismos internacionales que en China no hay libertad de información. Así queda constatado en el informe elaborado al respecto por Amnistía Internacional en su análisis del curso 2022/23: "El gobierno chino continuó sofocando las críticas a sus políticas y acciones, así como los debates sobre temas considerados delicados, a través de una censura online cada vez más omnipresente".

El caso es que las autoridades del gigante asiático están imponiendo un férreo control del desarrollo de la IA para evitar que esta pueda socavar las esencias de un sistema fundado en la ideología del partido comunista, como principio directriz de la vida personal y social de la población china. Esa es la línea roja que se plantean en China: que sus ciudadanos no puedan acceder a información que socave la legitimidad y la credibilidad de la dictadura comunista en la que viven. Como resultado de estas acotaciones (que limitan el acceso a bastantes fuentes de información) la IA China no será tan precisa, será más sesgada, debido a que no tendrá acceso a tantas y variadas fuentes de información como en occidente, lo que afectará a la finura y veracidad de sus análisis.

Un buen ejemplo del celo que ponen las autoridades chinas en que el uso de la IA no altere el orden público ni el sistema establecido lo tenemos en un acontecimiento que tuvo lugar en el mes de mayo de este 2023. El caso es que la policía china detuvo a un hombre que supuestamente empleó la aplicación de inteligencia artificial ChatGPT para escribir y publicar noticias falsas sobre un accidente de tren que se inventó el mismo, en un caso sin aparentes precedentes en el gigante asiático, que vigila de forma estricta la difusión de todo tipo de contenidos en Internet. La noticia se publicó en la plataforma de blog Baijiaho, con diferentes cuentas, consiguiendo más de 15.000 visualizaciones. Si es declarado culpable, el supuesto creador de la noticia falsa recibiría una pena de entre 5 y 10 años en prisión, en función de las leyes que rigen en el país asiático desde 2013 relativas a la difusión premeditada de información falsa en Internet.

Uno de los instrumentos de política pública digital china más importantes es el “Plan de desarrollo de la nueva generación de Inteligencia Artificial" de 2017. Esta fue la primera estrategia sobre IA a escala nacional y reconoce su importancia clave para la ciencia teórica y aplicada, así como los avances y las limitaciones del país. Este proyecto establecer a China como una nación innovadora en IA y como una potencia mundial en ciencia y tecnología. En virtud de este plan, se calcula que para 2025 debería ya haber comenzado la construcción del marco jurídico sobre IA y para 2030 éste deberá incluir: el fortalecimiento a la investigación sobre asuntos jurídicos, éticos y sociales relacionados con IA; así como el establecimiento de instrumentos jurídicos y éticos para asegurar un desarrollo sano de esta tecnología en China; así como la implementación de la seguridad de la información relacionada con las aplicaciones de IA; entre otros muchos temas, según detallan en Dpl News.

Sea como fuere, lo que parece claro es que estamos inmersos en "la competición tecnológica y geopolítica entre China y Estados Unidos". Así lo expresa Sergio Palomeque, investigador doctoral en el Instituto de Microelectrónica de Sevilla IMSE, a RTVE. Este experto explica que en el ámbito de la IA “las empresas chinas y norteamericanas andan embarcadas en llegar los primeros”.

El modelo europeo: equilibrio entre regulación y libertad de desarrollo

Por su parte, la Unión Europea propone un modelo intermedio: apuesta por dar libertad a las empresas desarrolladoras de inteligencia artificial y al mismo tiempo vela por proteger la democracia y los derechos de los ciudadanos. Actualmente, la UE está desarrollando un marco normativo cuyo eje central es promover la seguridad de la IA antes de prohibirla. Resulta altamente saludable para preservar las libertades individuales que desde la UE se haya prohibido específicamente el reconocimiento facial biométrico. Además, se ha promovido una Agencia Europea para supervisar el sector de la IA y se trabaja también en la conformación de otra a escala global.

Entre los puntos fuertes de la legislación centrada en regular la IA que está promoviendo la UE figuran controles de acceso a los menores, así como espacios para canalizar y poder implementar las sugerencias de usuarios críticos. Hablamos, en definitiva, de un entramado legal sofisticado para defender y desarrollar los derechos de los ciudadanos.

No es la primera vez que la UE marca la pauta a escala mundial para regular los derechos de las personas. En esa línea figura el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, una normativa referencial que establece las reglas y principios para el procesamiento de datos personales en la UE. Este reglamento garantiza los derechos de privacidad de los ciudadanos, imponiendo obligaciones a las organizaciones que manejan datos personales, como obtener consentimiento claro para la recopilación de datos, informar sobre cómo se utilizarán, garantizar su seguridad y facilitar el acceso y la eliminación de estos datos por parte de los individuos. Además, el RGPD establece sanciones significativas para las violaciones de privacidad, promoviendo así una mayor transparencia y responsabilidad en el tratamiento de datos personales.

El caso es que pronto Europa tendrá una ley propia de inteligencia artificial. El Parlamento Europeo aprobó el pasado mes de junio cuáles deben ser las líneas maestras y se espera que para finales de este 2023 o principios de 2024 ya esté lista. La idea es que empiece a funcionar para 2025. Se trata de una labor compleja, que comporta muchas negociaciones y unos plazos de tiempo que se prolongan varios años. El texto aprobado está sustentado en una propuesta de 2021 y aunque llegó a tiempo para incorporar algunos apartados de los chatbots, no hace por ejemplo ninguna mención a inteligencias artificiales generales (AGI).

Los propios parlamentarios europeos que están adscritos a la comisión que está elaborando esta ley sobre la IA reconocen que debe ser complementada. La inteligencia artificial va a impactar probablemente en todos los sectores de la sociedad. Al hilo de este proyecto han surgido también algunas voces críticas, como la de Brando Benifei, uno de los europarlamentarios responsables de esta directiva, quien reconoce que "la AI Act no es adecuada para regular el uso de la IA en los puestos de trabajo". Según explica Nicolas Schmit, comisario de Asuntos Sociales, en una entrevista con Euractiv, "la AI Act se centra más en una perspectiva de mercado y con la IA como producto en sí, pero no se centra en los riesgos específicos de su uso (o abuso) en momentos concretos como por ejemplo la afectación a los trabajadores".

España fue pionera en la regulación de los algoritmos y la IA en el ámbito laboral. Fue con la 'Ley Rider'. Una ley que desde Europa se quiere ahora replicar por medio de la nueva Directiva de Plataformas de trabajo digitales. Esta nueva directiva es una de las que se procurará suscribir durante el periodo de la presidencia española del Consejo de la UE. Una normativa para el trabajo en plataformas digitales que, entre otros aspectos, regulará el uso de la IA y los algoritmos en el lugar de trabajo.

Según se define, la nueva directiva tendrá por objetivo "aumentar la transparencia en relación con el uso de algoritmos por parte de las plataformas digitales de trabajo; garantizar la supervisión humana de las condiciones de trabajo y dar derecho a impugnar las decisiones automatizadas (tanto a los trabajadores por cuenta ajena como a los verdaderos autónomos)".

La directiva de trabajo está "mucho mejor escrita y concebida" que la "mutante AI Act", considera Michael Veale, profesor de Derecho Digital y regulación en el Universidad College de Londres. Aunque expresa sus recaudos acerca de si la futura ley de plataformas y la regulación de estos algoritmos resulta más concisa en la labor de gestionar los posibles riesgos que trae la inteligencia artificial.

El avance de que la UE limite claramente el reconocimiento biométrico

“Desde el punto de vista de la vigilancia biométrica, estamos totalmente encantados con el texto”, asevera Ella Jakubowska, analista de la ONG europea en defensa de los derechos digitales EDRi. Su organización ha sido muy activa en Bruselas apoyando una postura restrictiva acerca de estas herramientas. “Las cámaras de reconocimiento facial de las calles o el análisis en vivo del metraje de las videocámaras de vigilancia se deberán parar”, argumenta Jakubowska. Tampoco estará permitido hacer búsquedas de personas a partir de imágenes, cerrándole las puertas a aplicaciones del tipo Clearview. “Esa es una muy buena noticia”, considera la británica.

No obstante, la policía seguirá pudiendo manejar estos sistemas, pero con nuevas restricciones: siempre de forma retrospectiva (no en tiempo real) y en el contexto de crímenes específicos, para buscar a personas específicas y con orden judicial. “Todavía queda mucho hasta que se apruebe el texto definitivo, que puede cambiar. Pero debemos alegrarnos por este triunfo significativo de los derechos humanos”, dice Jakubowska.

Un posible uso alentador de la IA generativa

A modo de epílogo, resulta pertinente señalar también un horizonte esperanzador que está teniendo el uso de la IA generativa, que está generando (o va a generar) nuevas oportunidades laborales en diversas industrias. Por ejemplo, se requieren ingenieros de IA generativa para desarrollar algoritmos y modelos avanzados. Además, los diseñadores de contenido generativo cada vez son más demandados por parte de diferentes empresas e instituciones para crear arte, música y escritura generada por IA. En esa dirección, los expertos en ética de la IA son esenciales para garantizar un uso responsable de esta tecnología. Por último, los especialistas en marketing de IA utilizan estos sistemas para personalizar campañas y análisis de datos.

En definitiva: el futuro con la IA generativa promete ser extraordinariamente alentador. En los próximos tiempos conoceremos avances revolucionarios en la atención médica, donde sistemas generativos ayudarán a los médicos a diagnosticar enfermedades con mayor precisión y a diseñar tratamientos personalizados para cada paciente. En la educación, la IA generativa posibilitará la creación de contenido de aprendizaje interactivo y adaptado a las necesidades individuales, posibilitando que la educación sea más accesible y efectiva. Además, en el mundo del arte y la creatividad, la IA generativa colaborará con las personas para producir obras de arte, música y literatura únicas, ampliando los límites de la creatividad humana. Dicho de otra manera: la IA generativa tiene el potencial de mejorar significativamente la calidad de vida y el potencial creativo de las personas, tanto desde una óptica profesional como personal, en una estimable diversidad de ámbitos de la actividad humana.