Publicidade

Especialistas da ONU querem "linhas vermelhas" contra riscos inaceitáveis da IA

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
kjpargeter/freepik
kjpargeter/freepik

Neste mês de setembro, durante a 80ª Assembleia Geral das Nações Unidas, foi lançado o movimento Global Call for AI Red Lines, uma iniciativa que pede limites claros e universais para o desenvolvimento da inteligência artificial. Mais de 200 laureados com o Prêmio Nobel, além de especialistas em tecnologia e 70 organizações ligadas à IA assinaram uma carta pública pedindo que governos do mundo estabeleçam “linhas vermelhas” para prevenir riscos inaceitáveis da IA até 2026.

Embora a IA tenha potencial para promover avanços significativos no bem-estar humano, seu crescimento descontrolado pode trazer ameaças sem precedentes. Entre os riscos citados estão:

  • Pandemias artificiais ou armas biológicas criadas com auxílio de IA;
  • Disseminação de desinformação em larga escala;
  • Manipulação psicológica de indivíduos, incluindo crianças;
  • Violações sistemáticas de direitos humanos;
  • Desafios à segurança nacional e internacional;
  • Desemprego em massa causado pela automação.
Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Segundo a carta, “alguns sistemas de IA avançada já demonstraram comportamentos enganosos e prejudiciais, e ainda assim recebem mais autonomia para agir no mundo real”. Por isso, os especialistas defendem que é preciso agir rapidamente antes que seja impossível manter o controle humano significativo sobre essas tecnologias.

O apelo reúne nomes de peso no debate sobre inteligência artificial. Entre os mais destacados estão Geoffrey Hinton, conhecido como “padrinho da IA”, que desde 2022 alerta sobre os riscos da chamada inteligência artificial geral (AGI), Gary Marcus, cientista cognitivo que, apesar de cético quanto à chegada próxima da AGI, reconhece a necessidade de limites globais e Wojciech Zaremba, cofundador da OpenAI. Ahmet Üzümcü, ex-diretor-geral da Organização para a Proibição de Armas Químicas também assina.

Linhas vermelhas

Apesar de a carta oficial não listar regras específicas, menciona que esses parâmetros "devem se basear e aplicar as estruturas globais existentes e os compromissos corporativos voluntários, garantindo que todos os provedores de IA avançada sejam responsáveis ​​por limites compartilhados".

Alguns especialistas já propuseram exemplos práticos, como o professor Stuart Russell, da Universidade da Califórnia em Berkeley, defende que sistemas de IA deveriam:

  • Não tentar se replicar;
  • Nunca invadir outros sistemas computacionais;
  • Não fornecer instruções para fabricar armas biológicas;
  • Evitar produzir declarações falsas e prejudiciais sobre pessoas reais.

Russell ressalta que as empresas de tecnologia, em geral, tentam corrigir falhas após a criação do sistema. Para ele, o foco deveria estar em segurança embutida desde o design, evitando que comportamentos nocivos surjam em primeiro lugar.

Continua após a publicidade

Prazo e próximos passos

O movimento pede que os governos negociem e firmem um acordo internacional até o final de 2026, com mecanismos de aplicação e fiscalização. Para os especialistas, regulamentar a IA deve seguir o exemplo de áreas críticas como energia nuclear e medicina, nas quais a dificuldade de cumprir normas não é desculpa para deixar de proteger a sociedade.

Leia também:

Continua após a publicidade

VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita?

Fonte: AI Red Lines, Mashable