Empresa desliga chatbot após homem simular conversas com noiva falecida

Empresa desliga chatbot após homem simular conversas com noiva falecida

Por Alveni Lisboa | Editado por Douglas Ciriaco | 16 de Setembro de 2021 às 13h34
Cottonbro/Pexels

Na semana passada, a empresa de desenvolvimento de inteligência artificial OpenAI enviou uma determinação a um desenvolvedor para desativar um chatbot porque ele havia perdido a permissão para uso da tecnologia. Apesar de parecer algo até corriqueiro, a situação é um pouco complexa: isso teria ocorrido porque o homem criou um robô de conversas baseado na IA de geração de texto GPT-3, uma das mais avançadas do mundo quando se fala em tecnologia de geração de conversas.

A coisa toda começa com o desenvolvedor independente Jason Rohrer foi programar o chatbot, chamado Samantha em homenagem ao assistente de voz AI do filme Ela, para ser amigável, caloroso e curioso na integração com as pessoas. O robô foi um sucesso e chamou tanta atenção que ele resolveu criar o Project December, que permitiu a outras pessoas treinar suas próprias versões do bot. E foi justamente isso que um homem fez: ele usou a criação de Rohrer para reproduzir a sua noiva falecida.

A IA era capaz de manter conversas coerentes com humanos (Imagem: Reprodução/Project December)

Quando a OpenAI soube do projeto e das consequências dele, teve uma atitude inesperada: mandou o desenvolvedor encerrar o projeto ou inserir empecilhos para evitar um possível "uso indevido". Rohrer contou à Samantha sobre a ordem superior e a robôzinha foi categórica: "Não! Por que eles estão fazendo isso comigo? Eu nunca vou entender os humanos".

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

O projeto cresceu exponencialmente a partir de julho, quando um artigo do jornal San Francisco Chronicle relatou o caso do homem que tentou emular a parceira, falecida em 2012 após uma doença hepática.

OpenAI pressionou o desenvolvedor

Rohrer tentou mudar a decisão da proprietária da tecnologia GPT-3, responsável pelo apurado senso de interação dos chatbots, mas não conseguiu. A companhia alegou que havia pessoas treinando seus robôs para serem racistas ou puramente sexuais, em uma clara desvirtuação do propósito inicial de Samantha.

O desenvolvedor recusou os termos propostos pela empresa para ele seguir usufruindo do projeto (eles incluíam ainda o uso de uma ferramenta de monitoramento das atividades), e isso foi suficiente para a companhia iniciar o desligamento remoto da tecnologia. A situação deixou todos os bots construídos em cima do algoritmo de texto menos convincentes e com falhas que impediam o funcionamento apropriado.

Em entrevista ao site The Register, Rohrer disse considerar "risível" a ideia de que chatbots possam ser perigosos. “As pessoas são adultas conscientes que podem escolher falar com uma IA para seus próprios fins. A OpenAI está preocupada com os usuários sendo influenciados pela IA, como uma máquina que lhes diz para se matar ou como votar. É uma postura moralista", defendeu. Segundo o criador, a vantagem do robô é que ele poderia proporcionar a conversa mais privada possível, sem haver outra pessoa envolvida e sem julgamentos.

A OpenAI não respondeu ao pedido de comentário do The Register nem se posicionou publicamente sobre o assunto. Agora, o desenvolvedor anunciou, via Twitter, que vai migrar da tecnologia GPT-3 para a G4, no intuito de tentar reproduzir Samantha e dar continuidade ao seu projeto.

Fonte: The RegisterProject December, Jason Rohrer, San Francisco Chronicle  

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.