Un ciberataque confunde a los coches autónomos y les hace ignorar las señales de tráfico

La técnica, denominada GhostStripe, explota los sensores de Tesla y Baidu Apollo y se sirve de una luz LED.

Alberto Payo

Periodista

Guardar

Interior del coche Tesla Model S 90D. Imagen de archivo.
Interior del coche Tesla Model S 90D. Imagen de archivo.

Media docena de investigadores, pertenecientes en su mayoría a universidades de Singapur, afirman que han encontrado la manera de interferir con los vehículos autónomos impidiendo a estos reconocer las señales de tráfico. 

Los expertos han descubierto que explotando la dependencia de estos automóviles de la visión computerizada basada en cámaras pueden dificultar el reconocimiento de estas indicaciones. 

La clave está en el uso de LED para iluminar patrones de luz en las señales de tráfico, de manera que el software de conducción autónoma no las comprenda. 

Lo que harían los actores de amenazas en este ataque sería abusar del obturador digital giratorio de los sensores de cámara CMOS. Los LED parpadean rápidamente en distintos colores en las señales o letreros a medida que la línea de captura activa va descendiendo por el sensor. 

Así, el tono rojo de una señal de Stop podría verse de manera distinta en cada línea de escaneo del automóvil por dicha iluminación artificial, según recoge The Register. 

Debido a que la imagen está llena de líneas que no parecen correctas, el clasificador del software no reconoce la imagen como una señal de tráfico y, por lo tanto, el vehículo no actúa en consecuencia.

Dos versiones del ataque

Esta técnica de ataque ha sido nombrada GhostStripe en un artículo que será presentado en la Conferencia Internacional ACM sobre Sistemas Móviles en junio. Aunque resulta indetectable para el ojo humano, podría resultar mortal para los conductores de coches autónomos de Tesla o Baidu Apollo. Así, explota los sensores de cámara CMOS empleados por ambas marcas.

Esta vulnerabilidad de los vehículos autónomos ya se había explotado con anterioridad, pero los seis investigadores aportan algo nuevo. En lugar de tratar de confundir al clasificador con un solo cuadro distorsionado, se han asegurado de que cada cuadro capturado por las cámaras pareciera extraño, consiguiendo que la técnica de ataque fuera práctica en el mundo real.

Además, el equipo de expertos ha desarrollado dos versiones de este ataque estabilizado. El primero ni siquiera requiere acceso al vehículo. Usa un sistema de seguimiento para monitorizar la ubicación en tiempo real del vehículo objetivo y ajusta dinámicamente el parpadeo de luz para hacer que la señal no se interprete correctamente. 

La segunda versión sí que requiere acceso físico al coche autónomo. Supone que el atacante coloque un transductor en el cable de alimentación de la cámara para detectar momentos de encuadre y refinar el control de sincronización para lograr un ataque perfecto o casi perfecto.

El primer tipo de ataque GhostStripe presentó una tasa de éxito del 94%, mientras que la del segundo se elevó al 97%

Sin embargo, una luz fuerte ambiental disminuyó el rendimiento del ataque. Esto supone que los cibermalos tendrían que considerar cuidadosamente el momento y el lugar para confundir a los vehículos autónomos.