Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

IA poderia destruir a humanidade, diz relatório do governo dos EUA

Por| Editado por Douglas Ciriaco | 13 de Março de 2024 às 17h48

Link copiado!

Reprodução/Freepik
Reprodução/Freepik

Um relatório encomendado pelo Departamento de Estado dos Estados Unidos alertou sobre a necessidade de o governo do país norte-americano criar medidas para controlar o desenvolvimento da IA. De acordo com o documento, a tecnologia apresentaria uma “ameaça do nível de extinção para a espécie humana” e teria riscos similares a uma arma de destruição em massa. 

O texto foi desenvolvido pela empresa especializada Gladstone AI, contratada pelo órgão governamental dos EUA em outubro de 2022, antes do lançamento do ChatGPT. A companhia afirma ter entrevistado cerca de 200 especialistas nas áreas de tecnologia e segurança, além de nomes de empresas importantes no segmento, como Anthropic, DeepMind, Meta e OpenAI.

A pesquisa reforça que a “pressão competitiva” do mercado faz com que muitas empresas acelerem a criação de novos produtos de IA sem considerar padrões de segurança. Com o avanço para uma possível inteligência artificial geral (AGI), ou uma IA capaz de pensar como um humano, a empresa destaca dois riscos principais: a possibilidade de transformá-la numa arma e a perda do controle sobre a tecnologia.

Continua após a publicidade

A combinação desses dois problemas teria o potencial de “consequências devastadoras para a segurança global” e poderia causar em incidentes na escala de uma arma de destruição em massa.

Plano de ação sugerido

O relatório aponta os riscos e elabora um plano de ação indicado para o governo dos EUA. Vale lembrar que a empresa foi consultada pelo Departamento de Estado, mas não necessariamente compartilha a mesma visão da administração do país nesse sentido.

O plano é dividido em cinco etapas:

Continua após a publicidade
  1. Estabelecer mecanismos de segurança interinos para estabilizar o desenvolvimento de IA, com a criação de uma força-tarefa e controles na cadeia de suprimentos do mercado;
  2. Fortalecer as capacidades e habilidades de segurança, aumentar o treinamento e criar mais planos de contingência para possíveis incidentes com IA;
  3. Apoio a pesquisas mais seguras sobre IA com uma série de padrões de desenvolvimento responsável;
  4. Formalizar mecanismos de segurança com leis e uma agência regulatória;
  5. Internacionalizar todos os esforços com leis internacionais, agência internacional de controle e mais regras na cadeia de suprimentos.

O que isso significa na prática?

O relatório serve apenas como um material de apoio sobre o estado da IA a curto e longo prazo, apontando riscos e a necessidade de providências. Cabe ao governo dos EUA analisar o material e tomar futuras decisões sobre o tema — porém, em ano eleitoral, é improvável que medidas tão delicadas sejam tomadas.

Continua após a publicidade

O atual presidente, Joe Biden, já publicou uma ordem executiva com uma série de diretrizes que devem ser tomadas no campo da regulação da IA. No entanto, isso não funciona como uma lei e deu um prazo de 270 dias, iniciados em outubro de 2023, para que diversos órgãos do governo norte-americano tracem um plano. Logo, não há nada previsto a curto prazo.

Muitas empresas reconhecem a necessidade de uma regulamentação da tecnologia, mas ainda não existem ações concretas sobre o assunto. Por outro lado, a OpenAI (criadora do ChatGPT) possui equipes de segurança que já trabalham na possibilidade de evitar um apocalipse causado pela IA.