Carros autônomos podem ser enganados por objetos virtuais

Pesquisadores da Universidade Ben-Gurion de Negev demonstraram como enganar carros autônomos exibindo objetos virtuais.

Um grupo de pesquisadores da Universidade Ben-Gurion do Negev demonstrou que é possível enganar carros autônomos exibindo objetos virtuais (fantasmas).

Os especialistas definem como fantasma um objeto visual sem profundidade usado para enganar ADASs e fazer com que esses sistemas o percebam como real. Um objeto fantasma pode ser criado por invasores usando um projetor ou apresentado por meio de uma tela digital (por exemplo, outdoor).

Boffins testou dois sistemas comerciais avançados de assistência ao motorista (ADASs) pertencentes ao Tesla X (versões HW2.5 e HW 3.0) e Mobileye 630, eles foram capazes de enganar esses sistemas exibindo objetos virtuais “fantasmas” na frente dos 2 veículos.

Os pesquisadores conseguiram simular a presença de objetos virtuais, como placas virtuais de trânsito, juntamente com a imagem de um pedestre exibida por meio de um projetor ou outdoor digital, em frente aos carros autônomos que os interpretam como reais. Em testes conduzidos pelos pesquisadores, o objeto sem profundidade é feito a partir de uma imagem de um objeto 3D (por exemplo, pedestre, carro, caminhão, motocicleta, sinal de trânsito). 

“Demonstramos como os invasores podem aplicar ataques fantasmas de fração de segundo remotamente incorporando sinais de trânsito fantasma em um anúncio apresentado em um outdoor digital que faz com que o piloto automático do Tesla pare repentinamente o carro no meio de uma estrada e o Mobileye 630 emita notificações falsas.” lê a postagem publicada pelos pesquisadores. “Também demonstramos como os invasores podem usar um projetor para fazer com que o piloto automático de Tesla aplique os freios em resposta a um fantasma de um pedestre que foi projetado na estrada e Mobileye 630 para emitir notificações falsas em resposta a um sinal de trânsito projetado.”

Os especialistas também testaram ataques fantasmas de fração de segundo que usam um fantasma que aparece por alguns milissegundos e é tratado como um objeto / obstáculo real por um ADAS.

Abaixo da duração mínima que um fantasma precisa aparecer para enganar o ADAS.

carros autônomos

Os carros que dirigem sozinhos podem ser enganados exibindo objetos virtuais; em um cenário do mundo real, esse ataque pode resultar em acidentes e congestionamentos.

Os objetos virtuais acionaram uma resposta dos sistemas ADAS, no caso do Tesla, o veículo parou em 0,42 segundos, enquanto o Mobileye 360 ​​parou em 0,125 segundos.

Os pesquisadores também propuseram contra-medidas, batizadas de GhostBusters, para evitar esse ataque, como o uso do sensor da câmera. A medida GhostBusters implementa uma abordagem de “comitê de especialistas” e combina os resultados obtidos a partir de quatro redes neurais convolucionais profundas e leves que permitem analisar cada objeto com base em sua luz, contexto, superfície e profundidade.

“Demonstramos a eficácia de nossa contramedida (ela obtém um TPR de 0,994 com um FPR de zero) e testamos sua robustez para ataques de aprendizado de máquina adversários.” continua a postagem.

Ao contrário de outros ataques contra carros autônomos planejados por outras equipes de especialistas, esse ataque requer menos experiência e menos recursos.

Fonte: https://securityaffairs.co/wordpress/109697/hacking/self-driving-cars-hacking.html