Así se puede engañar a un Tesla con proyecciones fantasmas

Unas proyecciones de líneas, señales y personas pueden generar el caos en coches autónomos al detectarlas como reales

Por ,

Investigadores han desarrollado una alarmante forma de confundir a los coches con sistemas de conducción autónoma. Simplemente con un proyector y una imagen proyectada en la carretera o cerca de ella se logra confundir estos coches para que se detengan o cambien su comportamiento.

Se han tardado décadas en desarrollar la tecnología que hace posible que un coche sea capaz de conducirse solo, pero gracias a complejos algoritmos, cámaras y sensores de todo tipo, estos coches pueden moverse sin interacción humana por una carretera donde van otros vehículos conducidos por personas. Un pequeño proyector puede acabar con este tipo de sistemas.

Los sitemas de coches autónomos detectan señales, personas, líneas en la carretera y otros vehículos gracias al reconocimiento por sensores y cámaras. Pero estos sistemas analizan todo lo que ven en busca de patrones que reconozcan, por lo tanto si se proyecta una persona en la carretera, lo detecta como una persona.

Los Tesla podrán hablar con los peatones para mejorar la seguridad

Los investigadores han probado sólo dos sistemas de conducción autónoma, Autopilot de Tesla (con un Tesla Model X) y Mobileye 630 PRO presente en coches como Mazda, Renault y Honda.

Las pruebas demostraron que con una proyección de una foto de una persona en la carretera, estos sistemas lo detectan como si fuese una persona de verdad.

La proyección de una persona en la carretera se detecta por el Autopilot de Tesla provocando una frenada.

El vehículo se detiene si va a una velocidad adecuada, pero si va rápido y de repente encuentra esta figura, se movería repentinamente cambiando de carril para evitarla o frenaría en seco provocando un posible accidente.

Los investigadores lo han llamado imágenes fantasmas y también han probado con fotos de partes traseras de vehículos para hacer creer a los sistemas que hay un vehículo delante, incluso proyecciones de líneas que harían que un coche invadiera el carril contrario.

Líneas que cambian de sentido proyectadas en la carretera confunden al Autopilot de Tesla haciéndole cambiar de carril.

También han detectado que estos sistemas detectan imágenes fantasmas de señales proyectadas en árboles o en paredes como si fuesen reales.

El peligro de las señales fantasmas es que generen caos entre vehículos autónomos o accidentes

Lo que los investigadores quieren representar con este estudio es que estos sistemas de conducción autónoma en realidad hacen su trabajo, detectan elementos que tienen que hacer caso, pero no tienen forma de saber si un objeto es físico o es una proyección.

Advierten que con un simple proyector portátil que cualquier persona puede comprar en una tienda en internet y con un drone, se podría crear el caos entre este tipo de vehículos. Ni siquiera se necesita que se proyecte durante mucho tiempo, con unos cuantos milisegundos es suficiente para que se detecte.

Este tipo de estudios demuestran por qué todavía es difícil que los sistemas de conducción autónoma no son 100% fiables, pero eso si, los humanos tampoco lo son ya que son los primeros que se distraen y provocan accidentes con una mala conducción.

+ Info | Phantom of the ADAS: Phantom Attacks on Driving Assistance Systems [PDF], ZDNet

Compartir en:

Los comentarios están cerrados.

Últimos vídeos