El piloto autom√°tico de Tesla se puede enga√Īar con un proyector simple









Una de las caracter√≠sticas m√°s distintivas de Tesla es su capacidad de conducci√≥n semiaut√≥noma. Sin embargo, este conjunto de tecnolog√≠as a√ļn no est√° preparado para descifrar ciertos ¬ęataques¬Ľ. Esto es lo que demostraron al proyectar una imagen frente a un Modelo X que identific√≥ como un autom√≥vil real.

Estos ataques de falsificación pueden conducir a problemas mayores si la tecnología de Tesla no está preparada.

Imagen del sistema fantasma utilizado para enga√Īar al Modelo X y su piloto autom√°tico

Los ataques al asistente de conducción muestran debilidades

Hace seis meses, Ben Nassi, un estudiante de la Universidad Ben-Gurion, realizó una serie de suplantación de identidad exitoso contra un sistema de asistencia a la conducción Mobileye 630 Pro. Con este fin, el joven recurrió a drones de bajo costo y proyectores a batería.

Posteriormente, el investigador amplió la técnica para experimentar, también con éxito, para confundir un Tesla Model X.

Imagen del sistema fantasma utilizado para enga√Īar al Tesla Model X y su piloto autom√°tico





Los ataques de falsificaci√≥n dependen en gran medida de la diferencia entre el reconocimiento de im√°genes humanas y la inteligencia artificial. La mayor√≠a de las veces, las im√°genes que Nassi y su equipo proyectaron troll Tesla no enga√Īar√≠a a un conductor humano. Esto se debe a que algunos de los ataques de falsificaci√≥n fueron casi esteganogr√°ficos, contando con diferencias en la percepci√≥n, no solo para que los intentos de falsificaci√≥n fueran exitosos, sino tambi√©n para ocultarlos de los observadores humanos.

Para describir lo que se hizo y los peligros involucrados, Nassi cre√≥ un video de estos ataques de falsificaci√≥n que denomin√≥ "ADAS Phantom". Para agrupar la informaci√≥n, el estudiante tambi√©n cre√≥ un peque√Īo sitio web que ofrece el video, un resumen descriptivo de su trabajo y el art√≠culo en s√≠.

Este tipo de trabajo tiene su importancia en el ajuste de las tecnologías de conducción semiautónomas, aunque los automóviles eléctricos Tesla responden razonablemente bien a estos intentos.

La falsificación creada por el equipo de Nassi utilizando un Modelo X como conejillo de indias se llevó a cabo con un asistente humano que sostenía un proyector, debido a las leyes sobre el uso de drones. Pero la falsificación también podría haber sido realizada por un avión no tripulado. De hecho, como se mencionó, este fue el método utilizado en sus ataques anteriores contra un sistema de asistencia al conductor Mobileye.

Ataques simples y efectivos

Seg√ļn lo presentado, y como se muestra en el video, estos ataques no son complicados de hacer. De hecho, el autor incluso menciona que el atacante nunca necesita estar en el sitio del ataque y no necesita dejar ninguna evidencia.

Por lo tanto, un adolescente con un dron de $ 400 y un proyector con bater√≠a podr√≠a hacer esto razonablemente sin mayor conocimiento. El equipo no tiene que ser costoso o sofisticado: el equipo de Nassi ha utilizado con √©xito varios proyectores de $ 200 y $ 300. De hecho, dicen que es suficiente tener solo una resoluci√≥n de 854 √ó 480 y 100 l√ļmenes.

Por supuesto, este tipo de ataque ocurre y resulta solo si el Tesla está en modo piloto automático. Esta característica permite la conducción semiautomática de nivel 2. Sin embargo, Tesla mismo advierte que:

El piloto autom√°tico est√° dise√Īado para usarse solo con un conductor totalmente consciente, con las manos en el volante y preparado para hacerse cargo en cualquier momento. Aunque el piloto autom√°tico est√° dise√Īado para ser m√°s capaz con el tiempo, en su forma actual, no es un sistema aut√≥nomo, no transforma un Tesla en un veh√≠culo aut√≥nomo y no permite que el conductor renuncie a la responsabilidad. Cuando se usa correctamente, el piloto autom√°tico reduce la carga de trabajo general del conductor, y la redundancia de ocho c√°maras externas, radar y 12 sensores ultras√≥nicos proporciona una capa adicional de seguridad.

Por lo tanto, el conductor tiene responsabilidades en el uso de ciertos automatismos y esto puede cancelar este tipo de ataques. El trabajo fue mostrado en la conferencia de Cybertech Israel en Tel Aviv.

Ana Gomez

Ana G√≥mez. Naci√≥ en Asturias pero vive en Madrid desde hace ya varios a√Īos. Me gusta de todo lo relacionado con los negocios, la empresa y los especialmente los deportes, estando especializada en deporte femenino y polideportivo. Tambi√©n me considero una Geek, amante de la tecnolog√≠a los gadgets. Ana es la reportera encargada de cubrir competiciones deportivas de distinta naturaleza puesto que se trata de una editora con gran experiencia tanto en medios deportivos como en diarios generalistas online. Mi Perfil en Facebook:¬†https://www.facebook.com/ana.gomez.029   Email de contacto: ana.gomez@noticiasrtv.com

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *