Seguridad

Imágenes fantasma pueden engañar a los coches autónomos causando atascos o accidentes

Proyectar imágenes fantasma puede engañar a los coches autónomos causando atascos o accidentes

Investigadores de la Universidad Ben-Gurión del Néguev en Israel han descubierto que las imágenes “fantasmas” son perfectamente capaces de engañar a los sistemas de conducción semiautónomos causando estragos como accidentes, atascos y colapsos.

La conducción autónoma todavía plantea serios problemas de seguridad para conductores y peatones. Tras dos años de investigación expertos israelíes de seguridad han descubierto que resulta posible engañar a estos vehñiculos para que frenen de golpe haciendo parpadear la imagen de una señal de alto en una valla publicitaria controlada digitalmente. Este truco engañoso podría causar atascos de tráfico o incluso accidentes.

Ya en 2016 un Tesla confundió el lado blanco de un camión con un cielo brillante en 2016, lo que provocó la muerte de un conductor. Ahora, descubrir esta problemática revela que los sistemas de conducción autónomos podrían ver aquello que un conductor humano no ve, incluidos los objetos “fantasmas” y las señales realmente que no están allí, generando estragos en la carretera o usos maliciosos por parte de ciberatacantes. Un falso stop fantasma causaría un brusco frenazo por parte del coche autónomo.

“El atacante simplemente proyecta una imagen de algo en la carretera o inyecta algunos fotogramas en una valla publicitaria digital, y el automóvil aplicará los frenos o posiblemente se desviará, lo cual es peligroso”, apunta a la revista Wired el investigador de la Universidad Ben Gurion, Yisroel Mirsky. “El conductor ni siquiera se dará cuenta”.

ETHYKA, el proyecto español que soluciona los dilemas éticos del coche autónomo

En un primer lugar, la investigación del equipo se centró en proyectar imágenes en la carretera para activar los sistemas de los coches autónomos confundiéndolos y propiciando que realicen acciones incorrectas. Sin embargo, luego se percataron de que únicamente necesitaban mostrar una imagen de una señal de stop durante una gracción de segundo en una valla publicitaria digital conectada. De este modo el equipo fue capaz de engañar a un Tesla que ejecutaba la versión más reciente de Autopilot de la compañía. Este tipo de hackeo requiere poco hardware y no deja evidencia alguna.

“Los métodos anteriores dejan evidencia forense y requieren una preparación complicada”, explica Ben Nassi, otro de los responsables. De este modo, “los ataques fantasma se pueden realizar de forma remota y no requieren ninguna experiencia especial”.

La imagen solamente tuvo que ser proyectada durante 0,42 segundos para engañar de forma fiable al Tesla, mientras que una que apareció durante solo un octavo de segundo engañaría al dispositivo Mobileye. También experimentaron con la búsqueda de puntos en un fotograma de video que atraería la menor atención del ojo humano, llegando a desarrollar su propio algoritmo para identificar bloques clave de píxeles en una imagen, de modo que se podría generar una señal de tráfico fantasma de medio segundo.

Aunque la técnica fue probada en una pantalla de vallas publicitarias del tamaño de un televisor en una calle pequeña, dicen que podrían adaptarse fácilmente a una valla publicitaria digital de carreteras, donde podría causar un caos mucho más generalizado.

Fuente | Wired

Te recomendamos

Sobre el autor

Andrea Núñez-Torrón Stock

Licenciada en Periodismo y creadora de la revista Literaturbia. Entusiasta del cine, la tecnología, el arte y la literatura.