La IA hará que el impacto del ransomware aumente, según advierte la inteligencia británica

Los expertos creen que estos usos sofisticados al principio solo serán accesibles para ciertos actores de amenazas de peso, como los Estados.

Alberto Payo

Periodista

Guardar

Los ciberdelincuentes y la IA generativa. Imagen de Sophos.
Los ciberdelincuentes y la IA generativa. Imagen de Sophos.

En Escudo Digital ya nos hemos hecho en varias ocasiones de estudios e informes que ponen de relieve los riesgos que la nueva inteligencia artificial generativa tiene y sus peligros cuando se pone en manos de los ciberdelincuentes.

Ahora la inteligencia británica ha advertido que las tecnologías de IA van a ocasionar que los ataques de ransomware crezcan tanto en volumen como en impacto en los próximos años. 

Expertos del Centro Nacional de Ciberseguridad (NCSC) de Reino Unido han compartido en una evaluación de inteligencia que se basa en inteligencia clasificada, conocimiento de la industria, material académico y código abierto que sigue esta línea. 

La inteligencia del país comenta que la IA generativa ya se está usando para "mejorar la capacidad de reconocimiento e ingeniería social" y consiguiendo que ambas tareas resulten "más efectivas, eficientes y difíciles de detectar". 

Asimismo, se espera que la inteligencia artificial ayude con el "desarrollo de malware y exploits, la investigación de vulnerabilidades y el movimiento lateral al hacer que las técnicas existentes sean más eficientes". 

No hay que alarmarse a corto plazo

No obstante, no todo es negativo. Según los expertos, es muy posible que estos usos más sofisticados solo estén disponibles para los actores de amenazas con mejores recursos. Aun así, es poco probable que estos ataques más sofisticados se realicen antes de 2025. 

“Hasta 2025, entrenar la IA con datos de calidad seguirá siendo crucial para su uso eficaz en operaciones cibernéticas. Las crecientes barreras para el reconocimiento automatizado de objetivos, la ingeniería social y el malware están relacionadas principalmente con los datos”, recoge la evaluación. 

Es decir, los desarrolladores deberían tener acceso a datos de explotación de alta calidad para entrenar sus modelos. Y ahora mismo, se cree que únicamente los Estados altamente capacitados tendrían depósitos de malware "lo lo suficientemente grandes como para entrenar eficazmente un modelo de IA para este propósito”.

Sin embargo, a medida que se den hackeos más exitosos para estos datos, los actores de amenazas podrán entrenar herramientas más sofisticadas, lo que nuevamente les permitirá robar más datos en un ciclo de retroalimentación positiva, según se hace eco The Record Media

Para concluir, Lindy Cameron, CEO saliente del NCSC, subrayó que el uso emergente de la IA en los ciberataques es "evolutivo, no revolucionario". Esto significa que mejora las amenazas existentes como el ransomware, pero no transforma el panorama de riesgos a corto plazo.