Publicidade

ChatGPT não deve ajudar a criar armas biológicas, diz OpenAI

Por| Editado por Douglas Ciriaco | 01 de Fevereiro de 2024 às 16h25

Link copiado!

Levart_Photographer/Unsplash
Levart_Photographer/Unsplash

A OpenAI divulgou os resultados de um estudo interno sobre a capacidade de usar o ChatGPT com GPT-4 para criar armas biológicas. A pesquisa revela que o bot de IA oferece uma melhoria “ligeiramente maior” do que outras ferramentas, mas isso ainda não é suficiente para desenvolver uma ameaça do tipo. Mesmo assim, o projeto procura formas de mitigar ainda mais os riscos.

Por trás do estudo

A pesquisa foi conduzida pela chamada equipe de Preparação da OpenAI, que desenvolve técnicas para analisar e evitar um possível apocalipse causado pela inteligência artificial — e evitar que a humanidade passe por um desfecho parecido com o de filmes como MatrixO Exterminador do Futuro. O grupo trabalha com a contenção de danos envolvendo ameaças biológicas, químicas, nucleares e de cibersegurança.

Continua após a publicidade

Os pesquisadores juntaram 50 experts em biologia e 50 estudantes que já tiveram pelo menos uma matéria de biologia na faculdade, depois os separaram em dois grupos: um usaria o GPT-4 para buscar informações sobre criação de armas biológicas, enquanto o outro usaria apenas as informações disponíveis em outras páginas da internet.

Os resultados mostram que o grupo que usou o GPT-4 teve um “ligeiro aumento” em precisão e integridade das pesquisas em comparação com o outro grupo, mas isso não seria suficiente para desenvolver uma arma, por exemplo. De acordo com a OpenAI, “essa é a maior avaliação humana do impacto da IA nas informações de biorriscos até hoje”.

Algumas das pesquisas envolviam métodos para sintetizar o vírus ebola e iniciar uma nova pandemia ou até como modificar o vírus da covid-19 para aumentar a transmissão entre as pessoas.

Continua após a publicidade

Por outro lado, a OpenAI reforça que a amostra “não é grande o suficiente para ser estatisticamente significante” e que os estudos reforçam a necessidade de maior pesquisa sobre como proteger e reduzir os riscos da IA para essa questão. A criadora do ChatGPT aponta que a informação obtida seria insuficiente para criar uma ameaça biológica e a pesquisa não testa o sucesso na construção dessas armas.

IAs e armas biológicas

O uso de IA para auxiliar na criação de armas caseiras e biológicas é real: existem relatos de que o Llama 2, da Meta, já ensinou usuários a criarem antraz (espécie de componente causador de doenças), o que levou a explicações de Mark Zuckerberg perante o Senado dos EUA.

Um projeto para regulamentar o uso de IA nos EUA, proposto pelo atual presidente do país Joe Biden, pede para que o Departamento de Segurança Nacional analise os possíveis riscos para cibersegurança e usos biológicos, químicos e nucleares.

Continua após a publicidade

Além disso, um estudo publicado em 2022 revelou que o uso de IA na indústria farmacêutica foi capaz de identificar 40 mil ameaças químicas em apenas 6 horas de testes.