Ex-funcionários da Google estão com medo da ameaça de "robôs assassinos"

Por Natalie Rosa | 17 de Setembro de 2019 às 07h51
Reprodução: Technology Review

O medo de que os robôs um dia façam um grande estrago na humanidade já é discurso antigo, mas segundo uma ex-engenheira de software da Google a ameaça está maior que nunca.

Laura Nolan, que trabalhou na gigante da tecnologia por quatro anos, revela que o Projeto Maven, para o qual havia sido contratada nos seus últimos dias na empresa, pode ser extremamente perigoso para a humanidade.

A profissional deixou a companhia após receber o pedido para que aprimorasse drones militares, em protesto contra a possível criação de armas autônomas para os Estados Unidos. Agora, ela pede que qualquer "máquina de matar" que não seja operada por humanos seja banida.

Segundo a engenheira, a Google pediu a ela e a outros funcionários que construíssem uma inteligência artificial capaz de diferenciar pessoas e objetos a uma velocidade infinitamente mais rápida.

Imagem: Reprodução

Ao contrário dos drones militares, que podem ser controlados pelas equipes a longas distâncias, as armas autônomas podem causar grandes destruições caso não sejam usadas com o intuito para as quais foram programadas. Esses sistemas podem atingir o alvo inimigo sem a participação humana, sendo capaz também de distinguir entre objetos e pessoas.

Mas não foi só Nolan quem se revoltou contra o Project Maven. O projeto precisou ser pausado em maio deste ano quando milhares de funcionários assinaram uma petição contra ele, enquanto dezenas de outros também pediram demissão em protesto.

Nolan agora protesta junto à Campanha Para Parar Robôs Assassinos (Campaign to Stop Killer Robots), que aborda quais são os perigos que as armas autônomas podem trazer para a humanidade.

"A probabilidade de um desastre é proporcional a como muitas dessas máquinas estarão em uma área particular de uma só vez", conta a ex-engenheira de software da Google. "O que vocês estão vendo são possíveis atrocidades e matanças ilegais mesmo dentro das leis de guerra, principalmente se centenas de milhares dessas máquinas forem lançadas", completa, dizendo ainda que os sistemas são muito imprevisíveis e perigosos.

De acordo com o The Guardian, no entanto, não há provas de que a Google esteja envolvida no desenvolvimento de sistemas de armas autônomas. Em um debate da ONU ocorrido no mês passado, governantes disseram que a Google estava evitando o uso da inteligência artificial em armas, optando pelas melhores práticas.

Fonte: The Guardian

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.