Robôs estão aprendendo táticas com games e isso está preocupando as autoridades

Por Jessica Pinheiro | 25 de Maio de 2018 às 07h09
Techxiler

Pesquisadores estão utilizando jogos de estratégia em tempo real (RTS), como StarCraft II, para ensinar sistemas a resolverem problemas complexos por si próprios. Tudo bem até aqui, afinal é em prol dos avanços tecnológicos, certo? Não é exatamente isso que o Ministério da Defesa (MoD) do Reino Unido pensa sobre o assunto.

O ministério está particularmente preocupado com a capacidade dos Estados desonestos e dos terroristas de realizarem ataques avançados utilizando programas de inteligência artificial para basicamente travarem uma guerra cibernética. Nesse hipotético cenário, os softwares poderiam ser usados para desabilitar a infraestrutura crítica e roubar informações confidenciais, por exemplo.

Em uma advertência liberada pelo MoD em seu site oficial, é dito que a inteligência artificial não apenas aumentará a variedade e o ritmo dos ataques cibernéticos, mas também diminuirá o custo e, ao mesmo tempo, aumentará a variedade de atores capazes de realizar essa atividade. Ainda no artigo, as autoridades exigem que seja imposto um limite ao acesso aos algoritmos necessários para conduzir qualquer tipo de ataque através de uma IA, uma vez que qualquer indivíduo, mesmo um ignorante no segmento, poderia colocar em risco a segurança da internet a partir do momento que possui recursos financeiros para acessar esse tipo de tecnologia.

Participe do nosso GRUPO CANALTECH DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

O documento também considera que existe uma probabilidade quase nula de replicar o software, mas cita que isso pode se tornar um problema nos próximos anos. As inteligências artificiais sendo treinadas em raciocínio tático jogando jogos de estratégia de computador também são citadas, e o alerta se estende à alegação de que “IAs como estas poderiam, então, ser prontamente adaptadas para conduzir táticas de ataque cibernética APT (ameaça persistente avançada), em que a IA está competindo contra humanos ou defensores cibernéticos não-automatizados e não-adaptativos”.

Em StarCraft, é necessário defender a sua base, sempre angariando recursos para ela, ao mesmo tempo em que é preciso derrotar os inimigos que ameaçam o seu território (Imagem: Blizzard)

Esse método provém de uma pesquisa de inteligência artificial da Google, que usa StarCraft II para treinar programas para pensar por si mesmos. A DeepMind, sediada em Londres, que havia prometido tornar o mundo em um lugar melhor através do uso de IA, se comprometendo a resolver problemas complexos como a mudança climática, por exemplo, também já utilizou jogos de Atari e Go para treinar seus sistemas.

Os pesquisadores da DeepMind também passaram a adotar este método de aprendizado, e alegou que era crucial testar o desenvolvimento de seus seus agentes de inteligência artificial em jogos que não são exatamente voltados para a pesquisa de IA, além de serem um campo onde os humanos geralmente se saem bem (jogando). Em StarCraft, os jogadores precisam construir bases e reunir recursos para fortalecer seus centros de comando ao mesmo tempo em que buscam destruir seus oponentes em um campo.

E colocar robôs para jogar games de estratégia em tempo real não é exatamente uma novidade, uma vez que outras empresas de tecnologia já testaram o método.

Perigo distante, mas a vista

O pesquisador de segurança da informação do University College London, Steven Murdoch, comentou que bots de inteligência artificial com capacidade para realizar ataques cibernéticos sofisticados sozinhos ainda estão longe de existirem. E mesmo os sistemas que conseguem jogar Go (uma espécie de xadrez japonês) ou o game StarCraft contra humanos não são muito criativos. Para ele, esses softwares confiavam apenas em seguir as regras, e nada além disso.

O algoritmo AlphaGo foi capaz de derrotar o melhor jogador do mundo no esporte (Imagem: Shearanimation)

Em sua entrevista à BBC, o pesquisador disse que o avanço da tecnologia e disponibilização da automação são constantes na evolução, mas em se tratando de ataques e desenvolvimento de softwares maliciosos, existe uma preparação de táticas que exige experiência humana. Isso significa que, embora o MoD alegue em seu artigo que os programas de inteligência artificial possam ser roubados e mal utilizados, ainda assim eles são bastante metódicos, seguindo tarefas específicas, de modo que “são necessárias habilidades e consideráveis conhecimentos para adaptar um sistema para uma nova execução”.

Além disso, o ministério aponta para a liderança do setor privado no setor de pesquisas com inteligência artificial e comenta da relutância desse grupo em se aproximar muito das agências de defesa ou de segurança. Por tabela, isso vai criando um vácuo nas habilidades das forças armadas, o que pode prejudicar as autoridades de proteção do país em seus desafios.

Essas declarações públicas das empresas de tecnologia criam um “contraste com outros estados, que consagraram os direitos de acesso a conhecimentos, tecnologia e dados em sua legislação nacional”. Para resolver essa questão, o artigo do MoD propõe a criação de um registro “de segurança habilitado para cidadãos do Reino Unido com habilidades em inteligência artificial e em robótica”, os quais serão convocados quando houverem tempos de crise.

O artigo completo do Ministério de Defesa pode ser lido no site do Governo do Reino Unido.

Fonte: BBC

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.