Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Controlar uma superinteligência artificial seria impossível, diz estudo

Por| Editado por Douglas Ciriaco | 19 de Junho de 2023 às 13h57

Link copiado!

Controlar uma superinteligência artificial seria impossível, diz estudo
Controlar uma superinteligência artificial seria impossível, diz estudo

As discussões envolvendo questões éticas e legais e os riscos que a inteligência artificial oferece à humanidade ficaram mais acaloradas após o lançamento do ChatGPT, no final de 2022. Há quem considere todo esse temor uma coisa "absurdamente ridícula", mas há quem tenha receio quanto à tecnologia — inclusive pedindo que o desenvolvimento da IA seja suspenso. Para atiçar ainda mais a questão, a bola da vez vai para um estudo que sugere ser impossível controlar uma superinteligência artificial.

Cenário incerto

O estudo, publicado na revista científica Journal of Artificial Intelligence Research e assinado por cientistas do Instituto Max-Planck, da Alemanha, enfatiza que o grande desafio em controlar uma superinteligência se deve ao fato de que isso exigiria um conhecimento muito além da atual capacidade humana de compreensão. Ou seja, sem um nível equivalente de entendimento, seria impossível desenvolver uma simulação capaz de controlar a inteligência artificial, que poderia agir por conta própria.

Continua após a publicidade

Os autores sugerem que "regras como 'não causar danos aos humanos' não podem ser definidas se não entendermos o tipo de cenário que uma IA criará" e que "uma vez que um sistema de computador está trabalhando em um nível acima do escopo de nossos programadores, não podemos mais estabelecer limites."

A exemplo disso, caso uma superinteligência artificial tivesse a intenção de destruir o mundo e cientistas elaborassem um programa para confrontar essa tecnologia, a IA poderia dispor de habilidades suficientes para criar um mecanismo de bloqueio e ele neutralizaria a solução encontrada pelos humanos. Para evitar essa catástrofe, seria imprescindível criar uma simulação dessa superinteligência artificial. No entanto, é possível que a humanidade não conte com o conhecimento e o tempo necessário para dar uma resposta à altura.

A preocupação com a tecnologia possivelmente oferecendo riscos à humanidade não é nova. Inclusive, os cálculos feitos pelos cientistas europeus partem de um problema difundido décadas atrás por Alan Turing: em 1936, o matemático inglês fez uma série de cálculos para comprovar que é logicamente impossível prever a forma como programas de IA chegam a conclusões e respostas ou se ficam em um ciclo sem fim procurando alguma resolução.

O que pode ser feito?

Quando o assunto é super IA, no entanto, a questão se torna ainda mais obscura e incerta. É sugerido que a tecnologia poderia se equipar com diversos programas de proteção com o objetivo de bloquear intervenções humanas, por exemplo. Em outras palavras, ela estaria sempre um passo à frente e aperfeiçoando esses mecanismos de defesa de forma infindável para que os humanos não sejam mais capazes de controlá-la.

Alguns pesquisadores defendem que limitar a capacidade intelectual das atuais inteligências artificiais seria um meio de contê-las, pois elas não teriam capacidade suficiente para se desenvolver além dos limites desejados.

O ChatGPT na versão 3.5 seria um exemplo disso, pois é capaz de acessar banco de dados limitado a setembro de 2021. Entretanto, sua versão mais recente, com GPT-4, vai na contramão disso e oferece conexão com a internet para obter informações atualizadas. Ela até mesmo foi capaz de dar uma resposta surpreendente e que se assemelhou muito ao raciocínio humano.

Continua após a publicidade

Fonte: Journal of Artificial Intelligence Research