ChatGPT é investigado por dar informações falsas sobre pessoas reais
Por Guilherme Haas • Editado por Douglas Ciriaco |

Empresa responsável pelo desenvolvimento do ChatGPT, a OpenAI está sendo investigada pela Comissão de Comércio (FTC) dos Estados Unidos devido às informações falsas que o chatbot fornece a respeito de pessoais reais.
- Temer IAs é absurdamente ridículo, diz um dos "padrinhos" da tecnologia
- Bard é inútil e perigoso, criticam funcionários do Google
De acordo com o Washington Post, a FTC solicitou à OpenAI informações mais precisas sobre como a companhia lida com os riscos potenciais de o ChatGPT produzir respostas “falsas, enganosas, depreciativas ou prejudiciais” sobre alguém.
Resposta do ChatGPT
Desde o lançamento do ChatGPT em novembro de 2022, surgiram vários relatos de erros e inconsistências que a IA generativa cometeu ao responder às solicitações dos usuários.
Em um dos casos mais emblemáticos, um renomado professor de direito dos Estados Unidos viu o seu nome ser marcado em uma lista de acusados de cometer assédio sexual. Na ocasião, a OpenAI explicou que a IA nem sempre dá respostas precisas e “alucina” de vez em quando.
O próprio CEO da OpenAI Sam Altman chegou a dizer que o ChatGPT é “um produto horrível”, em uma crítica ao layout do chatbot e aos problemas da ferramenta, e afirmou que a empresa espera corrigir completamente as “alucinações” da IA em um ano ou dois.
Após o questionamento da FTC a respeito das respostas falsas do ChatGPT, Altman desabafou no Twitter: “Protegemos a privacidade do usuário e projetamos nossos sistemas para aprender sobre o mundo, não sobre indivíduos particulares.”
O executivo se diz desapontado com as solicitações da FTC. Isso porque, no começo do ano, pediu para o governo norte-americano trabalhar em conjunto com a OpenAI na regulamentação da ferramenta. Apesar disso, Altman garante que vai trabalhar com a Comissão para que o ChatGPT seja “seguro e a favor do usuário”.
Além da questão sobre informações falsas a respeito de pessoas reais, a FTC também questiona a privacidade de dados dos usuários do chatbot e como a empresa obtém dados para o treinamento contínuo da IA generativa.
Uma das ações que a OpenAI realiza para o ChatGPT alucinar menos é utilizar um novo método de treinamento de inteligências artificiais chamado de "Supervisão de processo". Segundo a empresa, esse método pode gerar respostas mais robustas e fundamentadas, pois encoraja a máquina a seguir cadeias de raciocínio mais humanas.
Fonte: Washington Post