¿Supone la Inteligencia Artificial un peligro para los sistemas de reconocimiento?

Guardar

reconocimiento facial
reconocimiento facial

El progreso de la Inteligencia Artificial permite crear imágenes de rostros humanos cada vez más realistas de forma artificial, lo que puede suponer un peligro para los sistemas de reconocimiento, como los de los aeropuertos o la policía, ya que quedan expuestos a la vulnerabilidad 'model hacking'.

Este fallo de seguridad, descubierto por la compañía de ciberseguridad McAfee y presentado en Black Hat 2020, es capaz de hackear un sistema de reconocimiento facial para clasificar a una persona como otra distinta, manteniendo la apariencia fotorrealista del individuo original.

El 'model hacking', conocido como 'Adversarial MachineLearning' o AML, es el estudio y diseño de ataques adversos contra modelos deInteligencia Artificial (IA). Durante el ciclo de aprendizaje de la IA, elmodelo se entrena continuamente mediante el uso de un algoritmo adversario, quevalora la fiabilidad del resultado.

Para evaluar la vulnerabilidad 'model hacking' y su potencial impacto en sistemas de reconocimiento facial, McAfee ha combinadodos fotografías de pasaporte de dos personas reales a través de esta técnica, obteniendo dos imágenes fotorrealistas y aparentemente iguales, pero con pequeñas diferencias.

Seguidamente, la compañía de ciberseguridad ha replicado un sistema de reconocimiento facial real y funcional y ha logrado que, mostrando estas imágenes artificiales, un escáner detecte a personas distintas como la misma, debido al funcionamiento de las redes adversarias, las mismas con las que se entrenan los sistemas.

Esta vulnerabilidad es potencialmente peligrosa para cualquier reconocimiento facial que esté únicamente basado en IA y aprendizaje automático, pues la compañía ha asegurado que las personas reales sí notarían las diferencias entre las imágenes que el sistema automático identifica como iguales.