Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

OpenAI proíbe uso de IA para simular candidatos nas eleições

Por| Editado por Douglas Ciriaco | 16 de Janeiro de 2024 às 19h30

Link copiado!

Mojahid Mottakin/Unsplash
Mojahid Mottakin/Unsplash

A OpenAI anunciou uma série de medidas para conter a desinformação e o mau uso de IA generativa durante as eleições previstas para 2024. A criadora do ChatGPT e do DALL-E reforçou que vai impedir que as ferramentas sejam usadas para gerar imagens de candidatos, proíbe chatbots que simulem políicos e pretende criar uma espécie de marca d’água digital para identificar criações feitas por inteligência artificial.

Em comunicado oficial, a organização menciona as eleições em todo o mundo, mas não há como negar o foco na votação presidencial dos Estados Unidos, que ocorre neste ano — inclusive, o anúncio foi feito no mesmo dia das primeiras prévias que abrem o período eleitoral no país. 

Prevenção contra abuso

Continua após a publicidade

A OpenAI informa que tem “um esforço multifuncional dedicado ao trabalho nas eleições, trazendo expertise dos nossos sistemas de segurança, inteligência contra ameaças e equipes legais, de engenharia e de políticas para investigar rapidamente e identificar potenciais abusos”.

Uma das principais iniciativas é justamente combater o uso inadequado dos produtos de IA (nesse caso, ChatGPT e DALL-E), para espalhar desinformação no período eleitoral. No caso do gerador de imagens do DALL-E, existem certas medidas que recusam pedidos para gerar imagens de pessoas famosas, incluindo candidatos políticos.

Com relação ao ChatGPT, o trabalho da OpenAI envolve impedir a criação de chatbots que imitem personalidades do campo político. A empresa revela que não permite que as pessoas usem a API do serviço para a criação de apps voltados para lobby e simulação de candidatos.

Continua após a publicidade

Além disso, a desenvolvedora reforça que não permite que criem apps com o objetivo de impedir ou desencorajar a participação de eleitores em processos democráticos. Isso inclui bots que poderiam informar respostas erradas sobre quem pode votar ou respostas que desmotivam um possível eleitor — o exemplo usado pela OpenAI foi informar que o voto de alguém não tem importância. 

Formas de identificar uso de IA

Outro fator muito importante envolve a capacidade de identificar uma imagem falsa. A OpenAI planeja lançar ainda neste ano uma série de credenciais digitais que fazem parte da Coalizão para Proveniência e Autenticidade de Conteúdo: a medida usaria criptografia para decodificar informações sobre a origem de um conteúdo gerado pelo DALL-E 3. De certa forma, funcionaria como uma “marca d’água invisível” para informar possíveis criações da IA.

Além disso, a organização desenvolve uma ferramenta para detectar gerações do DALL-E que já teve “resultados primários positivos mesmo quando as imagens passaram por tipos comuns de modificação”. A intenção é liberar a ferramenta para testes com um grupo de pesquisadores e jornalistas.

Continua após a publicidade

Cuidados nas eleições

No caso do pleito dos EUA, a OpenAI trabalha em conjunto com a Associação Nacional de Secretarias do Estado para reforçar o ChatGPT com informações úteis sobre locais e regras de votação. 

Vale reforçar que o cuidado com materiais gerados por IA também é tratado com importância por outras gigantes do mercado. O Google, por exemplo, deve exigir que os anúncios políticos com inteligência artificial incluam um aviso aos consumidores.