Dilema: carros autônomos devem ser programados para matar motorista ou pedestre?

Por Redação | 24 de Junho de 2016 às 18h40

Falar de inovações tecnológicas requer considerar o maior número de variáveis possíveis, até as não tão animadoras. Carros autônomos já estão circulando e sendo melhorados rapidamente, mas existem dilemas que vão além da tecnologia. Numa situação de risco, até que ponto o computador colocaria a vida de motoristas e passageiros em risco para proteger outros que estão do lado de fora? Um estudo conduzido por pesquisadores americanos e franceses aponta que 76% das pessoas concordam na programação moral dos veículos autônomos para minimizar mortes em casos como o de sacrificar o motorista para salvar 10 pedestres.

A pesquisa mostrou, no entanto, que as pessoas se mostraram hesitantes caso fossem comprar um carro com tal programação, preferindo um computador que protegesse a eles em vez de pedestres. "Isso mostra que todos acreditam que veículos autônomos deveriam operar de uma maneira, mas, por causa de decisões próprias, eles operam de um jeito menos seguro", observa Azim Shariff da Universidade de Oregon, que conduziu a pesquisa em conjunto com Iyad Rahwan da MIT e Jean-François Bonnefon do Institute for Advanced Study in Toulouse, França.

Contar com o superprocessamento de dados que os computadores são capazes é certamente uma chance de minimizar ocorrências. No entanto, em um cenário com milhões de carros autônomos nas ruas, é possível que as chances de acidentes aumentem. Havia a crença de que a melhor maneira de contornar essas situações seria por meio de novas legislações, mas outras pesquisas apontaram que as pessoas não aprovam a ideia de forçar as montadoras a instalarem algoritmos morais e que, por isso, optariam por comprar carros não regulados.

Carros autônomos podem aumentar a segurança das estradas e projetar um futuro mais sustentável, mas apenas se as pessoas permitirem isso. "A regulamentação pode afastar muita gente desses veículos, mantendo um grande número de motoristas e, por consequência, o número de acidentes causados por falha humana. Ao tentar criar um tráfego mais seguro pela regulamentação legal, acaba-se criando um ambiente menos seguro por afastar as pessoas da dos carros autônomos", complementa Shariff.

Mesmo numa situação de risco, são muitas as variáveis que o computador teria de levar em conta além do número de vítimas. Além do risco fatal e injúrias físicas, condições como idade e quem estava obedecendo regras de trânsito deveriam ser consideradas também. "Criar máquinas autônomas éticas é um dos desafios mais delicados atualmente. Por estarmos projetando milhões de veículos com autonomia, uma consideração séria do algoritmo da moralidade nunca foi tão urgente", acrescentou o cientista.

Para Alan Winfield, do laboratório Bristol Robotics, transparência e regulação são necessárias para o sucesso dos carros autônomos. "Sem transparência não é possível regular e sem regulação é improvável que haja confiança nos veículos", afirma. Winfrield compara a situação com aviões de passageiros, há confiança neles por ser uma indústria altamente regulada e com transparência até quando há acidentes. "Sem isso, dificilmente a tecnologia vai conquistar a confiança das pessoas", finaliza.

Fonte The Guardian

Fique por dentro do mundo da tecnologia!

Inscreva-se em nossa newsletter e receba diariamente as notícias por e-mail.