El piloto automático de Tesla se puede engañar con un proyector simple









Una de las características más distintivas de Tesla es su capacidad de conducción semiautónoma. Sin embargo, este conjunto de tecnologías aún no está preparado para descifrar ciertos «ataques». Esto es lo que demostraron al proyectar una imagen frente a un Modelo X que identificó como un automóvil real.

Estos ataques de falsificación pueden conducir a problemas mayores si la tecnología de Tesla no está preparada.

Imagen del sistema fantasma utilizado para engañar al Modelo X y su piloto automático

Los ataques al asistente de conducción muestran debilidades

Hace seis meses, Ben Nassi, un estudiante de la Universidad Ben-Gurion, realizó una serie de suplantación de identidad exitoso contra un sistema de asistencia a la conducción Mobileye 630 Pro. Con este fin, el joven recurrió a drones de bajo costo y proyectores a batería.

Posteriormente, el investigador amplió la técnica para experimentar, también con éxito, para confundir un Tesla Model X.

Imagen del sistema fantasma utilizado para engañar al Tesla Model X y su piloto automático





Los ataques de falsificación dependen en gran medida de la diferencia entre el reconocimiento de imágenes humanas y la inteligencia artificial. La mayoría de las veces, las imágenes que Nassi y su equipo proyectaron troll Tesla no engañaría a un conductor humano. Esto se debe a que algunos de los ataques de falsificación fueron casi esteganográficos, contando con diferencias en la percepción, no solo para que los intentos de falsificación fueran exitosos, sino también para ocultarlos de los observadores humanos.

Para describir lo que se hizo y los peligros involucrados, Nassi creó un video de estos ataques de falsificación que denominó "ADAS Phantom". Para agrupar la información, el estudiante también creó un pequeño sitio web que ofrece el video, un resumen descriptivo de su trabajo y el artículo en sí.

Este tipo de trabajo tiene su importancia en el ajuste de las tecnologías de conducción semiautónomas, aunque los automóviles eléctricos Tesla responden razonablemente bien a estos intentos.

La falsificación creada por el equipo de Nassi utilizando un Modelo X como conejillo de indias se llevó a cabo con un asistente humano que sostenía un proyector, debido a las leyes sobre el uso de drones. Pero la falsificación también podría haber sido realizada por un avión no tripulado. De hecho, como se mencionó, este fue el método utilizado en sus ataques anteriores contra un sistema de asistencia al conductor Mobileye.

Ataques simples y efectivos

Según lo presentado, y como se muestra en el video, estos ataques no son complicados de hacer. De hecho, el autor incluso menciona que el atacante nunca necesita estar en el sitio del ataque y no necesita dejar ninguna evidencia.

Por lo tanto, un adolescente con un dron de $ 400 y un proyector con batería podría hacer esto razonablemente sin mayor conocimiento. El equipo no tiene que ser costoso o sofisticado: el equipo de Nassi ha utilizado con éxito varios proyectores de $ 200 y $ 300. De hecho, dicen que es suficiente tener solo una resolución de 854 × 480 y 100 lúmenes.

Por supuesto, este tipo de ataque ocurre y resulta solo si el Tesla está en modo piloto automático. Esta característica permite la conducción semiautomática de nivel 2. Sin embargo, Tesla mismo advierte que:

El piloto automático está diseñado para usarse solo con un conductor totalmente consciente, con las manos en el volante y preparado para hacerse cargo en cualquier momento. Aunque el piloto automático está diseñado para ser más capaz con el tiempo, en su forma actual, no es un sistema autónomo, no transforma un Tesla en un vehículo autónomo y no permite que el conductor renuncie a la responsabilidad. Cuando se usa correctamente, el piloto automático reduce la carga de trabajo general del conductor, y la redundancia de ocho cámaras externas, radar y 12 sensores ultrasónicos proporciona una capa adicional de seguridad.

Por lo tanto, el conductor tiene responsabilidades en el uso de ciertos automatismos y esto puede cancelar este tipo de ataques. El trabajo fue mostrado en la conferencia de Cybertech Israel en Tel Aviv.

Ana Gomez

Ana Gómez. Nació en Asturias pero vive en Madrid desde hace ya varios años. Me gusta de todo lo relacionado con los negocios, la empresa y los especialmente los deportes, estando especializada en deporte femenino y polideportivo. También me considero una Geek, amante de la tecnología los gadgets. Ana es la reportera encargada de cubrir competiciones deportivas de distinta naturaleza puesto que se trata de una editora con gran experiencia tanto en medios deportivos como en diarios generalistas online. Mi Perfil en Facebook: https://www.facebook.com/ana.gomez.029   Email de contacto: ana.gomez@noticiasrtv.com

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *