Publicidade

ChatGPT faz acusação falsa contra radialista e OpenAI é processada

Por| Editado por Douglas Ciriaco | 09 de Junho de 2023 às 15h42

Link copiado!

ilgmyzin/Unsplash Montagem: Fabrício Calixto
ilgmyzin/Unsplash Montagem: Fabrício Calixto

A OpenAI está sendo processada por calúnia e difamação por uma resposta falsa do ChatGPT. A vítima é um apresentador de rádio dos Estados Unidos que teria sido acusado de fraudar e desviar fundos de uma organização sem fins lucrativos pelo chatbot de IA.

A vítima, Mark Walters, diz ter descoberto o caso por meio de um jornalista chamado Fred Riehl. O repórter teria solicitado ao ChatGPT um resumo sobre informações do radialista a partir de um PDF online e obteve as acusações como resposta.

Entre as acusações criadas pela IA estavam a apropriação indevida de mais de US$ 5 milhões de uma ONG chamada Second Amendment Foundation. Riehl estranhou o caso, apurou e não encontrou nenhuma denúncia sobre isso.

Continua após a publicidade

O ChatGPT não tem capacidade de abrir PDFs nem ler conteúdos de outros sites da web. A IA deveria dar essa resposta por padrão, como o faz quase sempre, mas preferiu inventar dados por uma razão desconhecida.

O caso de Walters tramita desde o dia 5 de junho no Tribunal Superior do Condado de Gwinnett, na Geórgia, região sul dos Estados Unidos. O processo pede a remoção das alegações e uma indenização financeira da OpenAI em valores não revelados.

Ação judicial contra IAs

Continua após a publicidade

O processo judicial parece ser o primeiro do gênero, embora não deva ser o último, visto que reclamações sobre informações falsas geradas pelo ChatGPT e outros chatbots crescem diariamente. Como os modelos não conseguem diferenciar verdade de ficção, alguns tendem a criar situações inexistentes quando não possuem informações precisas para fornecer.

É bem comum que as IAs inventem datas, criem fatos e até gerem números aleatórios como se fossem verdadeiros. O problema é quando isso vai além do mero aborrecimento do usuário e invade questões de reputação e honra.

Em abril, a tecnologia da OpenAI inventou uma acusação de assédio sexual contra professor da Universidade George Washington, também nos EUA. Em outro caso, um advogado também teria usado o chatbot para criar argumentos que ele não sabia serem falsos contra uma empresa.

OpenAI ainda terá problemas

Continua após a publicidade

A OpenAI tem avisos na página inicial e nos prompts de interação do ChatGPT sobre informações incorretas. O problema é que o próprio marketing diz que o serviço pode ser usado para obter respostas, tirar dúvidas ou aprender algo novo.

Diante do caso inédito, é provável que o sistema jurídico dos EUA adote uma postura balizadora para outras situações semelhantes. As leis norte-americanas já prevêem punição para casos de difamação, mas aplicado entre seres humanos.

Agora não existe uma pessoa por trás do conteúdo, e, sim, uma IA generativa com escrita humanizada. A questão é complexa porque o chatbot não apenas reproduz informações, embora tenha sido treinado com dados produzidos por pessoas na internet.

Empresas de internet são protegidas contra ações envolvendo a produção de conteúdos por terceiros ou hospedados em suas plataformas. A Seção 230 da legislação estadunidense existe para impedir que redes sociais ou Big Techs sejam punidas solidariamente por crimes cometidos por outras pessoas.

Continua após a publicidade

A OpenAI ainda não se manifestou oficialmente sobre o caso. É provável que a empresa de Sam Altman só o faça nos autos, quando for intimada a responder sobre as alegações.