Robôs assassinos: o futuro das armas autônomas

Por Joyce Macedo | 28 de Julho de 2015 às 16h42

Enquanto você pensa que tecnologias como a dos “Sentinelas” – robôs assassinos construídos para localizar, capturar e exterminar inimigos específicos (neste caso, mutantes) – são apenas fruto da mente fértil de escritores das histórias em quadrinhos do Universo Marvel e nunca poderiam existir na vida real, saiba que você está enganado.

Deixando a parte dos mutantes de lado, o mundo já está alerta em relação ao avanço no desenvolvimento de armas autônomas capazes de matar sem a intervenção humana. Um bom exemplo desses robôs de guerra é o chamado “Super aEgis II”.

Super aEgis II

Projetada e construída em 2010 na cidade de Daejeon, Coreia do Sul, pela fabricante de armas DoDAAM, a Super aEgis II é uma arma capaz de identificar, rastrear e abater seus alvos, teoricamente, sem a necessidade de uma mediação humana. Elogiada pela sua fabricante como uma "solução de segurança total", essa arma fica sobre uma plataforma automatizada e utiliza imagens térmicas para encontrar seus alvos a até 3 km de distância. Ela é capaz de funcionar durante a noite e independentemente das condições meteorológicas. A plataforma fica em cima de um giroscópio estabilizador para garantir a precisão dos tiros em meio a fortes ventos e após recuos.

Em uma análise mais completa sobre essa poderosa arma, a BBC Future nos mostrou que ela possui o tamanho de um cachorro de grande porte e, na ocasião, estava equipada com um cinto de balas calibre .50 com uma metralhadora poderosa o suficiente para parar um caminhão. A tecnologia não para por aí, pois um cabo ethernet sai da arma e vai até uma tenda instalada próxima à plataforma, onde se conecta a um computador cuja tela exibe um mosaico colorido alimentado pela câmera com imagens térmicas do Super aEgis II.

Super aEgis II

Super aEgis II (Imagem: Simon Parkin / BBC Future)

A arma conta ainda com uma visão de satélite, como uma espécie de Google Maps, para ajudar na localização de um alvo. A Super aEgis II também é bastante versátil, pois praticamente qualquer arma no arsenal da Coreia do Sul pode ser integrada ao dispositivo, desde lançadores de granada a mísseis.

Outro robô sempre acompanha a plataforma em suas expedições: um robô de saudação acústico. Sua voz é capaz de chegar a uma distância de 3 km e o som é emitido com alta precisão. Ele, impreterivelmente, lança uma advertência a um potencial alvo antes que a arma dispare. "Um passo para trás. Se afaste ou vamos atirar", diz o robô no alerta.

A versão original do Super aEgis II possuía a opção de operar em modo totalmente autônomo, monitorando e disparando contra os alvos sem qualquer assistência humana, mas agora é preciso que um operador humano digite uma senha para destravar a arma de fogo.

A máquina provou ser popular e rentável. A DoDAAM afirma ter vendido mais de 30 unidades desde o seu lançamento, cada uma como parte de sistemas de defesa integrados que custam mais de US$ 40 milhões cada.

Atualmente, a Super aEgis II está sendo usada em vários locais do Oriente Médio, incluindo três bases aéreas nos Emirados Árabes Unidos, no Palácio Real, em Abu Dhabi, no Qatar e em vários outros aeroportos não especificados, usinas de energia, oleodutos e bases aéreas militares em outras partes do mundo.

Robôs assassinos: os soldados que nunca dormem

Um dos mestres da ficção científica, o escritor Isaac Asimov, criou no livro "Eu, Robô" as Três Leis da Robótica para proteger a humanidade dos possíveis perigos oferecidos pela inteligência artificial. A primeira lei dizia: “Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”. Mas parece que tal lei não tem mais validade.

Nos últimos 15 anos, temos visto diversos países desenvolvendo armas e drones automatizados. O Exército dos Estados Unidos, por exemplo, usa robôs semiautônomos destinados à eliminação e vigilância de bombas. Nos anos 2000, o Congresso norte-americano ordenou que um terço dos veículos terrestres e caças militares fosse substituído por veículos robóticos. Seis anos depois, centenas de robôs móveis foram mobilizados no Iraque e no Afeganistão para abrir portas em combates urbanos, colocar fibra óptica, desarmar bombas e executar outras tarefas perigosas que deveriam ter sido realizadas por seres humanos.

Em meados de 2005, o New York Times divulgou os planos do Pentágono para substituir soldados por robôs autônomos. Apesar da aparente complexidade da operação, é preciso lembrar que os robôs reduzem a necessidade da presença de seres humanos em combates e, portanto, salva a vida de muitos soldados, marinheiros e pilotos.

"Quando começamos este negócio, vimos uma oportunidade. Armas autônomas são o futuro. Nós estávamos certos", disse Yangchan Song, diretor de planejamento estratégico da DoDAAM. Ele ainda acrescentou que a ideia da fabricante de armas agora é criar dispositivos inteligentes capazes de tomar suas próprias decisões.

A Coreia do Sul justifica o seu empenho no desenvolvimento desse tipo de armamento devido à proximidade de um de seus maiores inimigos: a Coreia do Norte. "Por causa desta ameaça constante, temos uma tradição de desenvolvimento de tecnologias militares e suporte à inovação nesse país", disse o CEO da DoDAAM, Myung Kwang Chang. "Nossas armas não dormem, como os seres humanos. Elas podem enxergar no escuro, e os seres humanos não podem. Portanto, nossa tecnologia preenche lacunas na capacidade humana", completou.

Apesar dessa declaração enaltecendo o lado positivo de seu produto, o CEO da DoDAAM esqueceu de dizer que, uma vez que a arma está apontada na direção certa, ela enxergará todos os alvos em movimento na área designada como inimigos. As coisas podem ficar ainda mais complicadas quando a máquina é colocada em um local onde civis e inimigos estão misturados. Atualmente, o Super aAegis II não tem como distinguir quem é quem.

Porém, a empresa alega que seu próximo passo é evoluir seu software para que ele seja capaz de discernir se um alvo é amigo ou inimigo, civil ou militar. Isso poderia ser feito, por exemplo, com a ajuda das câmeras térmicas, que verificaria se um potencial alvo está com explosivos sob sua roupa. A DoDAAM vai além e diz que o software deve ser capaz de identificar um inimigo até mesmo pelo uniforme que ele usa.

Fato é que os robôs assassinos não estão chegando; eles já estão aqui. A questão agora é: o que vamos ensinar para eles?

Regulação e aprendizado de máquina

Um dos grandes dilemas que cercam esse polêmico tema é a regulação. Quem será responsabilizado por erros, já que robôs não podem ser julgados por crimes de guerra? Atualmente, essas armas já são vendidas no mercado, mas sem regulamentos internacionais claros. Isso significa que a única coisa que parece ter a capacidade de impedir esse comércio é a consciência dos clientes.

Outra dúvida importante sobre a adoção de armas autônomas é: a máquina vai conseguir decidir se deve ou não abrir fogo contra em uma casa onde estão abrigados civis e soldados inimigos?

Esse tipo de questão envolve um grande dilema ético que, em breve, pode ser respondido não pelos seres humanos, mas sim pelas máquinas. Isso porque uma versão totalmente autônoma de uma arma de fogo deve ter o poder de tomar suas próprias decisões baseadas naquilo que ela aprendeu.

Mas é possível programar uma máquina para pensar por si mesma? Alguns especialistas em inteligência artificial acreditam que a saída é imitar a maneira pela qual os seres humanos constroem um quadro ético e aprendem a refletir sobre diferentes regras morais. Em outras palavras, nós aprendemos o que é e não é aceitável, eticamente falando.

Fazer com que as máquinas tenham uma capacidade de aprendizagem semelhante a essa não é uma tarefa fácil e mais pesquisas sobre o tema são extremamente necessárias. Pesquisas sobre a ética em máquinas é um campo excepcionalmente novo – as primeiras ideias começaram a surgir no final da década de 1990. Especialistas acreditam que a chave para tudo isso é um trabalho interdisciplinar entre filósofos, sociólogos, engenheiros e até mesmo economistas. Pois, ao que tudo indica, apenas a teoria não é suficiente; é preciso estar envolvido com a concepção e implantação desses sistemas.

O próprio físico Stephen Hawking já alertou: "Olhando lá na frente, não há limites fundamentais para o que pode ser alcançado: não há lei da física que impeça partículas de serem organizadas em maneiras que possibilitem computações ainda mais avançadas do que as realizadas no cérebro humano".

O relógio está correndo quanto a estas questões e empresas como a DoDAAM continuam abrindo novos caminhos no campo de criação de armas autônomas, mesmo antes de termos respostas adequadas. Nós deveríamos estar investindo agora na tentativa de descobrir como regular o software, como fazer valer esses regulamentos, e como verificar se o software fará o que queremos que ele faça.

De olho no perigo das armas autônomas

Diversos especialistas ligados à tecnologia estão de olho na evolução assustadora da inteligência artificial. O empreendedor bilionário sul-africano Elon Musk, fundador da Tesla e da Space X, por exemplo, nunca escondeu o seu medo em relação ao avanço desenfreado da inteligência artificial. No ano passado, ele chegou a dizer que "há o risco de algo muito perigoso acontecer nos próximos cinco anos".

Stephen Hawking tem sua própria opinião sobre o assunto e a compartilhou com o mundo. Em 2014, o físico disse: "Será que se criássemos inteligência artificial e essa inteligência decidisse viver, o desejo de viver seria algo irrelevante, pré-programado, mesmo que involuntariamente, ou algo espontâneo a ser respeitado? E o que as máquinas achariam disso?".

Para Bill Gates, a humanidade deve se preocupar com a inteligência artificial, pois ela pode ser uma ameaça para o nosso futuro. O criador da Microsoft diz que eles podem substituir os trabalhadores, além de se tornarem mais inteligentes do que os humanos.

Em 2013 a ONU pediu aos Estados que aplicassem moratórias nacionais para parar os testes, a produção, a montagem, a transferência, a aquisição e o uso de robôs assassinos. Há alguns meses, especialistas e representantes de 60 países membros da ONU se reuniram para debater os limites legais e éticos das armas autônomas.

A tacada mais recente contra a criação de robôs assassinos aconteceu nesta terça-feira (28), quando cerca de mil cientistas, pesquisadores e especialistas assinaram uma carta aberta alertando sobre os riscos do uso da inteligência artificial em armas. O documento foi anunciado durante a Conferência Internacional sobre Inteligência Artificial, que está ocorre entre os dias 25 e 31 de julho em Buenos Aires, na Argentina.

Além dos já citados Elon Musk e Stephen Hawking, outros nomes que estão entre os signatários da carta são Steve Wozniak, da Apple, Demis Hassabis, do Google e o professor do MIT Noam Chomsky. Eles afirmam acreditar que a inteligência artificial tem muito potencial para beneficiar a humanidade de diversas maneiras, mas que a fabricação de armas autônomas para o uso militar é uma péssima ideia.

Eles também alertam que o desenvolvimento de armas inteligentes será uma questão “de anos, não de décadas”, assim como não deve demorar até que apareçam “no mercado negro e acabem nas mãos de terroristas, ditadores ou senhores da guerra com vontade de levar a cabo uma limpeza étnica”.

“A tecnologia relacionada à inteligência artificial chegou a um ponto no qual a disposição desses sistemas é possível em questão de anos, não décadas, e as expectativas são altas: as armas autônomas foram descritas como a terceira revolução para as guerras, após a pólvora e as armas nucleares. A pergunta chave para a humanidade hoje é se devemos dar início a uma corrida de armas feitas com inteligência artificial ou se devemos prevenir que ela sequer comece”, diz o documento.

Siga o Canaltech no Twitter!

Não perca nenhuma novidade do mundo da tecnologia.