Europol avisa del "lado oscuro" de herramientas de inteligencia artificial como ChatGPT

Advierten de que las redes criminales pueden aprovecharse de este tipo de herramientas para su propio beneficio.

Guardar

ChatGPT (Foto de Emiliano Vittoriosi en Unsplash)
ChatGPT (Foto de Emiliano Vittoriosi en Unsplash)

Los programas de inteligencia artificial como ChatGPT tienen también un "lado oscuro" a ojos de la Policía europea, Europol, que ha advertido de que las redes criminales pueden aprovecharse de este tipo de herramientas para su propio beneficio.

El informe "ChatGPT, el impacto de los modelos de lenguaje amplio en la aplicación de la ley" pretende arrojar luz sobre posibles efectos indeseados de unas herramientas encaminadas a procesar, manipular y generar textos y con acceso a un amplio abanico de datos.

Europol ha identificado varios ámbitos de "preocupación" sobre estos programas, cuya capacidad para producir textos "muy realistas" podría hacerlos atractivos a la hora de plantear tácticas de phishing para engañar a potenciales víctimas haciéndose pasar por empresas o individuos.

La institución teme también los efectos en materia de "desinformación", ya que permite a los usuarios generar textos con una narrativa muy específica y sin apenas esfuerzos, lo que permite que "el modelo sea ideal para fines de propaganda".

Por otra parte, ha alertado de que el hecho de que ChatGPT sea también capaz de producir códigos de programación puede llevar a que delincuentes "con pocos conocimientos técnicos" puedan acceder sin apenas esfuerzo a sistemas "maliciosos".

Europol ha destacado que este informe pretende generar conciencia sobre los desafíos de la inteligencia artificial, dar pie a un nuevo diálogo con las empresas y contribuir a que éstas se impliquen también en el desarrollo de sistemas "seguros y fiables". De hecho, la institución ha puesto a disposición de las fuerzas de seguridad un estudio más amplio al que ha hecho público.