Cientistas criam robô capaz de rejeitar ordens humanas

Por Redação | 26 de Novembro de 2015 às 11h23

Se tem uma coisa que a ficção já nos mostrou várias vezes é que você não ensina as máquinas a dizerem não para o ser humano. A inteligência artificial HAL-9000, de 2001: Uma Odisseia no Espaço, é o maior exemplo de como as coisas podem dar errado quando os computadores aprendem a negar os comandos dados pelas pessoas. E, por alguma razão, um grupo de cientistas está fazendo exatamente isso. A rebelião das máquinas já começou.

Pesquisadores da Universidade de Tufts, nos Estados Unidos, estão estudando a relação e as interações entre seres humanos e robôs e um dos pontos que eles querem analisar são as respostas a determinados comandos. Para isso, eles pretendem simular as chamadas "condições de conveniência", que fazem com que as pessoas aceitem ou não uma ordem a partir de uma série de pequenos contextos. Assim, do mesmo modo que você analisa sua capacidade de exercer uma tarefa, sua necessidade ou mesmo seu relacionamento com o outro indivíduo, a ideia dos especialistas é fazer com que as máquinas também "pensem" da mesma forma.

Para isso, os robôs deverão trabalhar com cinco variáveis que funcionam como parâmetros básicos para o que podem e o que não podem fazer. Na prática, elas funcionam como perguntas que vão determinar se eles sabem fazer o que lhes foi mandado ou se aquela ação é mesmo necessária ou permitida. No caso de uma resposta negativa a uma dessas questões, o robô simplesmente se nega a executar aquela tarefa.

As diretrizes são:

  • O robô sabe fazer isso?
  • Ele é fisicamente capaz de executar essa ação?
  • Ele consegue fazer isso agora?
  • Ele é obrigado a cumprir essa ordem baseado em seu papel social?
  • Isso viola algum tipo de princípio ou comando de programação?

Olhando assim, parecem questões simples e que servem mais para determinar se a máquina consegue ou não executar a ordem, mas os dois últimos tópicos são os que mais chamam a atenção. Ao falar sobre papel social, os pesquisadores querem que o robô tenha uma figura de autoridade a quem responder, ou seja, as demais ordens não devem contradizer o que aquela pessoa indicou inicialmente. Além disso, a quinta regra entra na questão da própria segurança, impedindo que o sistema se destrua ou mesmo fira alguém no processo.

Olhando assim, parece que estamos cada vez mais próximos das Leis da Robótica propostas por Isaac Asimov em seus livros. Por mais fantasioso que tudo isso pareça, um vídeo liberado pelos pesquisadores mostra esse conceito já em ação. No caso, a pessoa manda o robô andar para frente, mas ele identifica que vai cair da mesa se fizer isso e simplesmente ignora o comando.

Via: The Next Web

Fique por dentro do mundo da tecnologia!

Inscreva-se em nossa newsletter e receba diariamente as notícias por e-mail.