Publicidade

"Excesso de zelo" de carros autônomos pode causar acidentes graves

Por| Editado por Douglas Ciriaco | 27 de Maio de 2022 às 11h43

Link copiado!

Reprodução/UCI
Reprodução/UCI

Pesquisadores da Universidade da Califórnia, Irvine (UCI), nos Estados Unidos, descobriram que veículos autônomos podem ser induzidos a tomarem decisões perigosas no trânsito, por causa do comportamento conservador do software que controla suas principais funções.

Segundo os cientistas, a maioria dos sistemas de direção automatizada disponíveis atualmente no mercado, não consegue fazer uma distinção precisa entre objetos que caíram acidentalmente na estrada e aqueles que foram deixados propositalmente ali para obstruir uma via e causar um acidente.

“Uma caixa, uma bicicleta ou um cone de trânsito podem ser tudo o que é necessário para assustar um veículo sem motorista e fazer com que ele pare perigosamente no meio da rua ou em uma rampa de saída de uma rodovia, criando um perigo para outros motoristas e pedestres”, explica o professor de ciência da computação Qi Alfred Chen, coautor do estudo.

Continua após a publicidade

Excesso de zelo

Os pesquisadores se concentraram nas vulnerabilidades de segurança do módulo de planejamento — uma parte do código de software que controla os sistemas de direção autônoma — para entender como um veículo sem motorista se comporta diante de situações inesperadas no trânsito.

Esses componentes eletrônicos supervisionam os processos de tomada de decisão do veículo autônomo que determinam, por exemplo, quando ele deve atravessar um cruzamento, parar ou avançar um semáforo, mudar de faixa, desacelerar ou frear, entre outras funções básicas de navegação.

Continua após a publicidade

“O módulo de planejamento do veículo é projetado com muita cautela, logicamente, porque você não quer carros sem motorista circulando fora de controle por aí. O problema é que nossos testes descobriram que esse programa pode errar por ser muito conservador, levando a acidentes graves por excesso de zelo”, acrescenta o estudante de informática Ziwen Wan, autor principal do estudo.

PlanFuzz

Para provar essa teoria, os cientistas criaram uma ferramenta de testes, apelidada de PlanFuzz, capaz de detectar vulnerabilidades em sistemas de direção automatizada. Eles usaram o software para avaliar três implementações diferentes de planejamento comportamental em programas de navegação autônoma de código aberto.

Continua após a publicidade

Os resultados mostraram que caixas de papelão e bicicletas colocadas na beira da estrada faziam com que os veículos parassem permanentemente nas vias, mesmo com os cruzamentos estando vazios. Em outro teste, os carros autônomos, percebendo uma ameaça inexistente, deixaram de mudar de faixa conforme planejado.

“Veículos autônomos já se envolveram em colisões fatais, causando grandes danos financeiros e de reputação para empresas como Uber e Tesla. Por isso, fabricantes e prestadores de serviços querem ter tanta cautela. Entretanto, precisamos achar um meio termo, pois programas excessivamente conservadores também podem representar um sério risco para a segurança rodoviária”, encerra o professor Chen.

Fonte: University of California, Irvine