La seguridad en carretera es el objetivo de todas las casas que se dedican al negocio de la automoción. Cada vez hay más sistemas de seguridad activos, además del perfeccionamiento de los pasivos, y el avance tecnológico tiene mucho que ver. Sin embargo, cuanta más tecnología e ”inteligencia” tiene un coche, más vulnerable se vuelve a ciertos ”ataques” o fallos.

Actualmente, Tesla es una de las compañías que lideran el desarrollo del vehículo 100% eléctrico. Tanto es así que la propia Apple ha fichado al líder de desarrollo de motores de la compañía de Elon Musk para dar vida al Proyecto Titán. Los Tesla, desde el Model S hasta el Model X, pasando por los nuevos Model 3 y Model Y, son coches cargados de tecnología para hacer la conducción más segura y placentera.

Esto, claro está, acarrea una serie de problemas a nivel de ingeniería, y aunque muchos de sus fallos se pueden corregir mediante actualizaciones de software, primero deben ser descubiertos. Ahora, el equipo de Tencent Security especializado en detectar fallos de software, ha publicado un vídeo en el que muestran cómo engañan al Autopilot de los Tesla.

¿Qué fue del Tesla de Elon Musk enviado a Marte?

El Autopilot es el sistema futurista que, gracias a una visión en 360º y lectura de todo lo que hay en carretera, desde obstáculos hasta señales y pinturas en la calzada, es capaz de conducir de forma totalmente autónoma. Es una característica de Tesla que está muy avanzada, pero que presenta fallos cada pocos meses (y a menudo con polémica).

En el vídeo que han compartido desde Tencent Security Lab Keen se muestra cómo una simple pegatina en el suelo es capaz de despistar al vehículo (cuando está con el Autopilot, no en modo manual) de tal forma que invada el carril contrario, Esto, claro está, es un peligro para los ocupantes de la vía, y es algo que se consigue mediante las llamadas muestras antagónicas.

Se trata de una serie de sistemas que no pueden engañar a un humano, pero sí a un sistema de inteligencia artificial. En este caso, tres simples pegatinas bastan para que el equipo de Lab Keen consiga engañar al Tesla, haciéndole creer que el carril izquierdo es una continuación del derecho y, por tanto, haciendo que en una vía de doble sentido vaya en sentido contrario.

Otro modo de hackear el Tesla es mediante un mando que, esta vez sí, en modo manual o automático, permite tomar el control total del volante. No es un fallo demasiado grave si tenemos en cuenta que Tesla ya lo corrigió con una pasada actualización de software, pero el de las pegatinas sí es para tomárselo en serio y ver hasta qué punto es sencillo engañar a un sistema autónomo.

Tencent Secutiry envió el informe detallado a Tesla antes de publicar el vídeo, y la compañía de Musk afirma haber corregido el fallo con una actualización.