Entrenan a ChatGPT para combatir la desinformación en las elecciones

OpenAI dice que introducirá herramientas para prevenir deepfakes, brindar transparencia en el contenido y mejorar el acceso a información de votación precisa.

Anahí Di Santo.

Periodista.

Guardar

3.994 millones de personas elegirán nuevas autoridades en las elecciones de este año.
3.994 millones de personas elegirán nuevas autoridades en las elecciones de este año.

Este 2024 habrá elecciones en 74 países, los 27 de la Unión Europea y otros 47 de todo el mundo, que juntos representan más del 50% de la población global. Los más populosos que, según el caso, designarán nuevos parlamentos, ejecutivos o gobiernos municipales, son India, Estados Unidos, Indonesia y Pakistán, que poseen entre 1.410 millones y 235 millones de habitantes. Entre los primeros cinco también se encuentran todos los socios de la UE que elegirán representantes del Parlamento comunitario, y suman, a su vez, 447 millones de personas.

También habrá procesos eleccionarios en Brasil, Bangladesh, Rusia y México, otras regiones muy pobladas. En total, entonces, 3.994 millones de personas elegirán nuevas autoridades este año, según datos demográficos del Banco Mundial del año 2022.

Por su parte, el Foro Económico Mundial ha publicado su informe de Riesgos Globales para 2024, y destaca que la información errónea y la desinformación motivados por la inteligencia artificial y la polarización social se encuentran entre las principales preocupaciones mundiales según los expertos consultados, junto a las amenazas ambientales y la incertidumbre económica.

OpenAI prohibirá el uso de sus herramientas para campañas políticas y DALL·E rechazará la generación de imágenes de personas reales, incluidos los candidatos.

Aunque las campañas, las noticias falsas y la desinformación existen desde los tiempos de los romanos, la facilidad de utilización de las nuevas herramientas junto a la masividad de las redes pueden llenar Internet de información falsa e influir en los votantes.

En este marco, OpenAI anunció en su blog oficial que su intención es que los sistemas de inteligencia artificial que ha creado se utilicen de forma segura. “Proteger la integridad de las elecciones requiere la colaboración de todos los rincones del proceso democrático y queremos asegurarnos de que nuestra tecnología no se utilice de una manera que pueda socavar este proceso”, señala la publicación.

Por eso, la compañía está trabajando con sus sistemas de seguridad, inteligencia de amenazas, equipos legales, de ingeniería y de políticas para prevenir y abordar posibles abusos en los procesos de elecciones, como “deepfakes” engañosos, operaciones de influencia a escala o chatbots que se hacen pasar por candidatos.

Además, OpenAI asegura que prohibirá el uso de sus herramientas para campañas políticas, incluidas ChatGPT y el generador de imágenes: “DALL·E tiene barreras de seguridad para rechazar peticiones que soliciten la generación de imágenes de personas reales, incluidos los candidatos”. A esto se suma una incipiente iniciativa para detectar deepfakes, denominado clasificador de procedencia, que detecta cómo fue generada una imagen, aunque todavía se encuentra en período de testeo.

Entre otras decisiones anunciadas en el comunicado, la empresa liderada por Sam Altman advierte que sigue trabajando para comprender la efectividad que pueden tener las herramientas de IA en la persuasión personalizada, por lo que no permitirán que los usuarios creen aplicaciones para campañas políticas o lobby hasta terminar de conocer sus implicancias.

También anunciaron que evitarán que sus herramientas disuadan o desalienten a las personas de participar en procesos democráticos al proporcionar información que, por ejemplo, pueda minar la confianza de la ciudadanía en las instituciones, y que ChatGPT dirigirá a los usuarios a sitios web autorizados cuando se les pregunten datos clave como dónde votar.

Otra novedad es que ChatGPT comenzará a tener acceso a informes de noticias en tiempo real a nivel mundial, y la empresa asegura que brindará más transparencia al mostrar el origen de la información y las fuentes de los datos. Sin embargo, esto podría traer nuevos conflictos por los derechos de autor, como ya ha sucedido con el periódico The New York Times, que acusa a OpenAI de utilizar millones de artículos de su propiedad para entrenar a sus grandes modelos de lenguaje.