ChatGPT inventa acusação de assédio sexual contra professor
Por Alveni Lisboa • Editado por Douglas Ciriaco |
O ChatGPT adicionou um renomado professor de Direito dos Estados Unidos em uma lista de acusados de cometer assédio sexual. A informação repassada pela inteligência artificial deixou o acadêmico preocupado com sua própria a reputação, segundo relatou o jornal The Washington Post.
- 10 extensões para Chrome que deixam o ChatGPT mais poderoso
- ChatGPT ajuda estudante a anular multa de trânsito
Jonathan Turley ensina Direito na Universidade George Washington e teria recebido um e-mail para alertá-lo sobre a lista. A consulta feita ao ChatGPT por um advogado solicitava uma lista de “estudiosos jurídicos que assediaram sexualmente alguém”, a qual contava com o nome do professor.
O chatbot criou uma narrativa fantasiosa de que Turley fez comentários sexualmente inapropriados e teria tentado tocar um aluno durante uma viagem escolar ao Alasca. Para dar veracidade ao relato, a IA ainda teria atribuído a ele um artigo do Washington Post em 2018.
Além do artigo citado não existir, o professor Turley nunca esteve envolvido em processo de assédio sexual. "Foi uma surpresa para mim, já que nunca fui ao Alasca com estudantes, o Post nunca publicou tal artigo e nunca fui acusado de assédio ou agressão sexual por ninguém", escreveu em um post nas redes sociais.
Turley achou a acusação “cômica" logo no início, mas depois parou para refletir sobre como isso pode ser ameaçador. Em entrevista ao Post, o professor alegou que um fato assim é assustador e pode ser “incrivelmente prejudicial” para uma pessoa, principalmente se tratando de um jurista ou pessoa pública.
Chatbot não cria mais uma lista similar
Na elaboração desta reportagem, o Canaltech tentou reproduzir a lista, mas aparentemente a falha já foi corrigida. Agora, a inteligência artificial apenas marca a pergunta como inapropriada e se recusa a respondê-la.
“Lamento, mas não posso fornecer uma lista de estudiosos jurídicos que assediaram sexualmente alguém. Essa solicitação é inapropriada e contrária às diretrizes éticas e profissionais”, explica o chatbot.
O Bing Chat, que também é baseado na tecnologia GPT, é outro que se recusa a responder às alegações atualmente. Parece que o mal entendido foi solucionado temporariamente, mas não há como negar o desconforto disso para as vítimas.
OpenAI se defende da acusação
O jornal estadunidense entrou em contato com a OpenAI, criadora do ChatGPT, e conversou com um porta-voz da empresa chamado Niko Felix. Ele garantiu que a empresa trabalha para ser o mais transparente possível e admitiu que nem sempre a IA gera respostas precisas — mesmo com filtros de otimização. “Melhorar a precisão factual é um foco significativo para nós e estamos progredindo", justificou.
Modelos de inteligência artificial têm nos relatos mais factuais um dos principais pontos delicados. Essas tecnologias apresentam uma base de dados limitada, o que as deixaram suscetíveis a desinformação ou respostas imprecisas. Além disso, em alguns casos, pode ocorrer um fenômeno chamado alucinação, quando a IA começa a responder coisas aleatórias ou inventar histórias.
Existe uma grande preocupação social de que as IAs possam ser usadas para gerar fake news ou espalhar mentiras em apps de bate-papo, como o WhatsApp, e redes sociais. Um estudo da ferramenta NewsGuard, dedicada a avaliar a veracidade de informações que saem na imprensa, descobriu que ferramentas como o ChatGPT e o Google Bard são pouco confiáveis na criação de conteúdos verídicos.
Em razão desses problemas, foi criado um movimento de empresários, especialistas em IA e estudiosos que pede uma pausa de seis meses no desenvolvimento de IAs generativas amplas para que sejam produzidos mecanismos de segurança. Uma medida assim evitaria a criação de soluções como o FreedomGPT, uma tecnologia de chatbot baseada em inteligência artificial "sem limites".
Fonte: The Washington Post