Los riesgos y oportunidades de ChatGPT en el ámbito de la seguridad

Lo descubre un análisis de Prosegur Research llevado a cabo en medio de la eclosión de sistemas de IA generativos como el de OpenAI.

Guardar

ChatGPT (Foto de Emiliano Vittoriosi en Unsplash)
ChatGPT (Foto de Emiliano Vittoriosi en Unsplash)

Cinco meses después de señalar cuáles son los diez principales riesgos de seguridad para el usuario en el metaverso, Prosegur Research ha hecho lo propio con otra de las grandes tendencias tecnológicas de la actualidad: los sistemas de inteligencia artificial generativa. Esta tecnología se ha popularizado enormemente desde finales del pasado mes de noviembre, cuando OpenAI lanzó ChatGPT, una plataforma gratuita basada en modelos de lenguaje y en métodos de aprendizaje automático ('machine learning' en inglés) que permite al usuario generar contenido nuevo en cualquier formato (texto, imagen, vídeo, voz, código).

ChatGPT no tardó en ser un éxito, logrando alcanzar el millón de usuarios solo cinco días después de su lanzamiento, y Microsoft ya lo ha implementado en su buscador Bing y en la plataforma Azure, tras llegar a un acuerdo con OpenAI en el que el gigante tecnológico se ha comprometido a invertir, durante los próximos cinco años, más de 10.000 millones de dólares en este chatbot de inteligencia artificial. Paralelamente, Microsoft también ha presentado VALL-E, una novedosa herramienta de inteligencia artificial que puede imitar a la perfección el tono de una persona, y Google tampoco quiere quedarse atrás en esta nueva era de la IA generativa y conversacional. Por ello, y porque quiere seguir siendo el rey de los buscadores, planea lanzar próximamente Bard, un chatbot similar a ChatGPT que se integrará como una función de búsqueda dentro de Google.

Meta y Amazon también están trabajando en la IA generativa, al igual que otras muchas compañías que ya han puesto sobre la mesa multitud de propuestas que no se limitan a ofrecer resultados textuales basados en modelos de lenguaje, sino a la generación y combinación de cualquier tipo de contenido.

Así, esta rama de la inteligencia artificial está evolucionando a pasos agigantados y, teniendo en cuenta su rápido avance, Prosegur Research ha analizado las implicaciones de ChatGPT desde el ámbito de la seguridad. Gracias a este análisis, el Insight&Trends Center de Prosegur, ha identificado los diez principales riesgos que conlleva esta herramienta y ha querido ir más allá señalando también las diez grandes oportunidades que se abren con su aplicación a diferentes ámbitos.

Los 10 riesgos para la seguridad de ChatGPT

Prosegur Research nos ha remitido un comunicado en el que comparte cuáles son, según sus investigadores, los diez principales riesgos para la seguridad que se derivan de ChatGPT. A continuación los repasamos siguiendo su propia información:

1. Polarización social: las IA generativas, dada su capacidad de producir contenidos multimedia, pueden ser utilizadas para difundir mensajes de odio o discriminación, así como mensajes de carácter radical o extremista.

2. Phishing: generación automatizada de correos de apariencia real con objeto de engañar a usuarios a efectos de acceder a información confidencial o a los sistemas informáticos. Hay que tener en cuenta que las IA generativas redactan con gran calidad, lo que invalida las sospechas que sí puede despertar un phishing con baja calidad.

3. Desinformación: a través de la generación de noticias falsas, se trata de influir en la opinión pública, dañar la cohesión social o afectar a procesos electorales. La desinformación fue incluida como una de las amenazas para la seguridad del Estado en la última Estrategia de Seguridad Nacional, de finales de 2021 y que contempla la elaboración de un plan nacional para luchar contra las campañas que promuevan contenidos manipulados.

4. Doxing: la desinformación también es susceptible de afectar a empresas y organizaciones, con la difusión de bulos, informaciones sesgadas, la creación de falsos perfiles laborales, o la manipulación de documentos para dañar la credibilidad de las organizaciones. Su finalidad puede ir desde la parodia hasta el ataque a la reputación o la influencia en los mercados.

Doxing, la práctica con la que se pone precio a tu intimidad

5. Fuga de información y robo de datos: empresas como Amazon o Google han alertado a sus empleados sobre los riesgos de compartir información sobre la empresa en ChatGPT y aplicaciones similares, que posteriormente pudiera ser desvelada en las respuestas que ofrece a usuarios.

6. Fraudes y estafas: son tipologías delictivas que están creciendo con durante estos últimos años. Los fraudes tradicionales, existentes en todos los sectores económicos, son potenciados por el uso de internet, redes sociales y nuevas tecnologías. Las IA generativas pueden contribuir a diseñar fraudes con mucha más calidad, así como a perfilar objetivos.

7. Generación de chatbots maliciosos con objetivos delictivos: pueden interactuar con individuos para la obtención de información sensible o fines ilícitos económicos.

8. Suplantaciones de identidad: mediante la utilización de las denominadas 'deep fakes' y la capacidad de la IA para generar textos imágenes, videos e, incluso, simular la voz. Con el apoyo de la creación de avatares que integren todos estos elementos, se aumenta la verosimilitud de la identidad.

9. Generación de código malicioso, como virus, troyanos, malware, ransomware, spyware: el objetivo es cometer ciberdelitos de diferente naturaleza.

10. Lucha de poder geopolítico y geoeconómico: en un contexto de poderes difusos y fragmentados, el liderazgo ya no sólo se mide por la capacidad económica, la diplomática o la militar. Ya en el año 2017, Vladimir Putin señaló que quien dominara la IA dominaría el mundo. La geopolítica y la geoeconomía presentan nuevos riesgos, pero también oportunidades para estados y empresas que sean capaces de leer el futuro. Los datos, junto a las tecnologías, están en el centro de configuración del poder, lo que genera una asimetría entre quienes disponen de ellos y quiénes no.

Las oportunidades de ChatGPT en el campo de la seguridad

En su comunicado, Prosegur Research también pone el foco en la otra parte de su análisis, abordar las oportunidades que ChatGPT puede generar en el campo de la seguridad. Tal y como explica, la razón que le ha llevado a analizarlas es el hecho de que la tecnología, como "gran factor de cambio de nuestras sociedades, generalmente no nace orientada hacia un uso malicioso" y ha concluido que estas son las diez oportunidades más destacadas.

1. Automatización de tareas rutinarias en funciones de seguridad: podría potenciar las competencias más humanas y facilitar el bienestar de los empleados, al eliminar tareas repetitivas y tediosas.

2. Generación de chatbots atractivos: con un perfil más amable y humano, para mejorar la interacción con clientes y con otras personas.

3. Acceso a ingentes cantidades de información de interés para la seguridad, de una manera estructurada por el uso del lenguaje natural: En este caso, se potencian las capacidades de inteligencia de fuentes abiertas (OSINT), siendo siempre conscientes de la criticidad de evaluar la fiabilidad de las fuentes y la credibilidad de la información.

4. En análisis de riesgos: puede apoyar la detección y catalogación de riesgos para las organizaciones.

5. Reconocimiento de patrones, dentro del amplio conjunto de datos e información que estas aplicaciones manejan: el valor no estaría únicamente en el patrón, sino en la anomalía, es decir, aquello que se sale de lo habitual y puede contribuir a generar una señal débil o una alerta temprana.

6. En análisis de inteligencia puede contribuir a la generación de hipótesis, la identificación de tendencias y la construcción de escenarios en seguridad: aunque la IA no puede sustituir la creatividad humana sí puede resultar un complemento interesante para pensar fuera de la caja.

7. Estructuración de recomendaciones en cuestiones de seguridad: desde cómo defenderse de un ciberataque hasta qué medidas de seguridad adoptar previamente o durante un viaje. No sustituye de ninguna manera la labor de un analista de seguridad internacional, pero apoya algunas tareas.

8. Analítica predictiva: puede facilitar ciertas predicciones, con sus probabilidades asociadas, en base a la ingente cantidad de datos en que se basa.

9. En ciberseguridad puede apoyar la detección de phishing, probar y testar código, identificar vulnerabilidades, generar contraseñas seguras, o simular conversaciones con actores adversarios, o incluso con potenciales objetivos, para poder anticipar sus acciones.

10. Aprendizaje: las IA generativas pueden ser un primer punto para el aprendizaje sobre cuestiones vinculada a seguridad, sobre tecnologías, sobre riesgos. Especialmente serán de interés en la medida en que faciliten fuentes y estas sean cada vez más refinadas.