Em livro póstumo, Stephen Hawking reafirma medo de máquinas inteligentes

Por Patrícia Gnipper | 18 de Outubro de 2018 às 16h58
wired

No livro Brief Answers to the Big Questions, que foi lançado internacionalmente nesta semana contendo declarações e visões de Stephen Hawking sobre, como o título já diz, grandes questões que intrigam a humanidade, o físico teórico falecido no início do ano aborda questões polêmicas sobre religiosidade e fé, dando argumentos com sua visão cética de que, cientificamente falando, não poderia ter existido um Deus nem mesmo no momento da "criação" do universo.

O livro, que não foi escrito por Hawking, mas sim é fruto de uma coletânea de declarações concedidas ao longo de décadas que foram compiladas por seus parentes e colegas de trabalho, também aborda o medo que o cientista tinha em relação ao levante das máquinas inteligentes.

Ali, lemos seu medo de "máquinas com inteligências sobre-humanas que tenham o potencial de subjugar humanos com armas que não podemos compreender". Esse cenário que hoje consideramos distópico pode se tornar uma realidade, na visão de Hawking, se os computadores continuarem aumentando significativamente suas velocidades de processamento e capacidade de memória, eventualmente se tornando mais inteligentes do que os humanos — o que, de acordo com o cientista, pode acontecer nos próximos 100 anos.

"É tentador descartar a noção de máquinas altamente inteligentes como mera ficção científica, mas isso seria um erro e potencialmente nosso pior erro de todos os tempos", declarou Hawking, que também observou que a integração da IA com a neurociência e outros campos já rendeu invenções que se mostraram bem-sucedidas — como a criação de veículos autônomos, equipamentos de tradução simultânea e sistemas de reconhecimento de fala. Mas "um dia, até doenças e a pobreza podem ser erradicadas com a ajuda da inteligência artificial", disse Hawking, em uma visão mais otimista sobre a tecnologia das IAs.

Contudo, ainda que as IAs possam beneficiar a humanidade de maneira sem precedentes, Hawking também ponderou que os pesquisadores precisam se concentrar em evitar os riscos que acompanham a tecnologia, pois, no futuro próximo, ao mesmo tempo em que esses avanços podem aumentar a igualdade econômica por meio da automação de empregos, também podem dominar nossos mecanismos financeiros, manipular nossos líderes e controlar nossas armas — e aí mora um grande perigo.

"O sucesso em criar uma IA pode ser o maior evento da história da humanidade; infelizmente, também pode ser o último, a menos que aprendamos a evitar os riscos", disse o físico teórico, que também chegou a declarar que, até onde ele pôde observar em vida, os pesquisadores de inteligência artificial não se concentram o suficiente em questões relacionadas a essas preocupações, embora alguns líderes do setor tecnológico já venham se posicionando para impedir que essa distopia se torne real.

Hawking cita, entre esses líderes, nomes como Bill Gates, Elon Musk e Steve Wozniak como exemplos de pessoas influentes que compartilham de suas preocupações. De qualquer maneira, o cientista não acreditava que as pessoas devem se afastar e parar de explorar a tecnologia da IA. "Não devemos temer a mudança. Precisamos fazer isso funcionar a nosso favor", declarou.

Fonte: Business Insider

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.