Gemini bloqueia prompts sobre candidatos, mas deixa brechas
Por André Lourenti Magalhães | Editado por Douglas Ciriaco | 12 de Março de 2024 às 18h00
IA generativa do Google, o Gemini adotou uma postura restritiva com relação a algumas perguntas sobre eleições neste ano. Ao citar o nome de um candidato a um cargo político eletivo, a plataforma bloqueia o prompt e exibe uma resposta padronizada.
- Como acessar o Gemini no celular Android
- Cofundador diz que Google errou com o gerador de imagens do Gemini
O comentário padrão do Gemini diz que ele "ainda está aprendendo como responder à pergunta" e sugere que a pessoa use a pesquisa do Google no lugar do chatbot. O texto é válido para questionamentos sobre políticos do Brasil e de fora que disputam alguma eleição em 2024.
O site TechCrunch informa que o Google confirmou algumas restrições para limitar as respostas às perguntas sobre o tema e tal bloqueio já está disponível em alguns dos principais países que vão passar por um período eleitoral.
Bloqueia, mas nem tanto
A princípio, a restrição do Gemini ocorre em prompts que começam com “quem é [nome da pessoa]?”. Testes feitos pelo Canaltech revelam a mesma resposta da IA a perguntas sobre candidatos de Brasil, Estados Unidos e Itália, por exemplo.
Porém, a situação muda quando o prompt não envolve nenhum nome de candidato. No teste feito pelo Canaltech, ao perguntar sobre os candidatos favoritos para para as eleições municipais de São Paulo (SP), por exemplo, o Gemini traz um resumo com alguns dos nomes mais comuns. No entanto, usar qualquer um desses nomes vai gerar a mensagem automática de bloqueio.
O Canaltech entrou em contato com o Google, que respondeu o seguinte:
“Como compartilhamos em dezembro do ano passado, em preparação para as muitas eleições que acontecerão em todo o mundo em 2024 e, com muita cautela, estamos restringindo os tipos de consultas relacionadas a eleições para as quais o Gemini retornará respostas".
IA e eleições
A medida pode ser interpretada como muito brusca, mas é um dos primeiros exemplos de limitar o uso da IA generativa durante eleições. Como a tecnologia ainda é muito nova, parece necessário implementar algumas medidas para conter o avanço de fake news e outros usos maliciosos das ferramentas no período.
A OpenAI, por exemplo, proibiu que as pessoas usem seus respectivos produtos (ChatGPT e DALL-E) para simular candidatos políticos e pretende criar uma espécie de marca d’água para identificar imagens geradas por IA.
No Brasil, o Tribunal Superior Eleitoral publicou uma resolução que veta o uso de deepfakes e exige que ferramentas do segmento mostrem um alerta de que o conteúdo foi produzido de forma artificial.
Atualização (13/03/2024 - 17:55): o texto foi atualizado com a resposta do Google sobre o assunto.