Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

ChatGPT inventa acusação de assédio sexual contra professor

Por| Editado por Douglas Ciriaco | 10 de Abril de 2023 às 15h51

Link copiado!

Rafael Damini/Canaltech
Rafael Damini/Canaltech

O ChatGPT adicionou um renomado professor de Direito dos Estados Unidos em uma lista de acusados de cometer assédio sexual. A informação repassada pela inteligência artificial deixou o acadêmico preocupado com sua própria a reputação, segundo relatou o jornal The Washington Post.

Jonathan Turley ensina Direito na Universidade George Washington e teria recebido um e-mail para alertá-lo sobre a lista. A consulta feita ao ChatGPT por um advogado solicitava uma lista de “estudiosos jurídicos que assediaram sexualmente alguém”, a qual contava com o nome do professor.

Continua após a publicidade

O chatbot criou uma narrativa fantasiosa de que Turley fez comentários sexualmente inapropriados e teria tentado tocar um aluno durante uma viagem escolar ao Alasca. Para dar veracidade ao relato, a IA ainda teria atribuído a ele um artigo do Washington Post em 2018.

Além do artigo citado não existir, o professor Turley nunca esteve envolvido em processo de assédio sexual. "Foi uma surpresa para mim, já que nunca fui ao Alasca com estudantes, o Post nunca publicou tal artigo e nunca fui acusado de assédio ou agressão sexual por ninguém", escreveu em um post nas redes sociais.

Turley achou a acusação “cômica" logo no início, mas depois parou para refletir sobre como isso pode ser ameaçador. Em entrevista ao Post, o professor alegou que um fato assim é assustador e pode ser “incrivelmente prejudicial” para uma pessoa, principalmente se tratando de um jurista ou pessoa pública.

Chatbot não cria mais uma lista similar

Continua após a publicidade

Na elaboração desta reportagem, o Canaltech tentou reproduzir a lista, mas aparentemente a falha já foi corrigida. Agora, a inteligência artificial apenas marca a pergunta como inapropriada e se recusa a respondê-la.

“Lamento, mas não posso fornecer uma lista de estudiosos jurídicos que assediaram sexualmente alguém. Essa solicitação é inapropriada e contrária às diretrizes éticas e profissionais”, explica o chatbot.

O Bing Chat, que também é baseado na tecnologia GPT, é outro que se recusa a responder às alegações atualmente. Parece que o mal entendido foi solucionado temporariamente, mas não há como negar o desconforto disso para as vítimas.

Continua após a publicidade

OpenAI se defende da acusação

O jornal estadunidense entrou em contato com a OpenAI, criadora do ChatGPT, e conversou com um porta-voz da empresa chamado Niko Felix. Ele garantiu que a empresa trabalha para ser o mais transparente possível e admitiu que nem sempre a IA gera respostas precisas — mesmo com filtros de otimização. “Melhorar a precisão factual é um foco significativo para nós e estamos progredindo", justificou.

Modelos de inteligência artificial têm nos relatos mais factuais um dos principais pontos delicados. Essas tecnologias apresentam uma base de dados limitada, o que as deixaram suscetíveis a desinformação ou respostas imprecisas. Além disso, em alguns casos, pode ocorrer um fenômeno chamado alucinação, quando a IA começa a responder coisas aleatórias ou inventar histórias.

Existe uma grande preocupação social de que as IAs possam ser usadas para gerar fake news ou espalhar mentiras em apps de bate-papo, como o WhatsApp, e redes sociais. Um estudo da ferramenta NewsGuard, dedicada a avaliar a veracidade de informações que saem na imprensa, descobriu que ferramentas como o ChatGPT e o Google Bard são pouco confiáveis na criação de conteúdos verídicos.

Continua após a publicidade

Em razão desses problemas, foi criado um movimento de empresários, especialistas em IA e estudiosos que pede uma pausa de seis meses no desenvolvimento de IAs generativas amplas para que sejam produzidos mecanismos de segurança. Uma medida assim evitaria a criação de soluções como o FreedomGPT, uma tecnologia de chatbot baseada em inteligência artificial "sem limites".

Fonte: The Washington Post