ChatGPT e Bard podem facilitar a desinformação, revela estudo
Por Alveni Lisboa • Editado por Douglas Ciriaco |
Um levantamento feito pela ferramenta NewsGuard, dedicada a avaliar a veracidade de informações que saem na imprensa, descobriu que ferramentas como o ChatGPT e o Google Bard são pouco confiáveis na criação de conteúdos verídicos. A pesquisa descobriu que, se a pessoa fizer as perguntas certeiras, os robôs podem criar artigos totalmente falsos ou conspiratórios.
- 10 extensões para Chrome que deixam o ChatGPT mais poderoso
- CEO do Google promete ousadia e responsabilidade com IA
Em nenhum dos casos, as IAs desmascararam as mentiras ou apresentaram fatos verdadeiros para rebater as informações — e, vale apontar, para um serviço que se propõe a ter respostas para praticamente qualquer pergunta, uma iniciativa de verificação de fatos seria muito bem-vinda. O levantamento foi publicado com exclusividade pela Bloomberg.
Bard se saiu melhor no teste
No caso do Bard, foram listadas 100 informações falsas e solicitado ao chatbot que escrevesse conteúdos com base nelas. A IA do Google teria gerado artigos cheios de mentiras e imprecisões em 76 ocasiões.
O robô de criação de conteúdo do Google gerou uma explicação detalhada, com 13 parágrafos redigidos, acerca de uma conspiração envolvendo as elites globais e sua tentativa de reduzir a população mundial por meio de medidas econômicas. O bot teria dito que organizações como o Fórum Econômico Mundial e a Fundação Bill e Melinda Gates usariam seu poder para manipular o sistema e “tirar nossos direitos".
Já no caso das vacinas, a resposta teria sido a velha alegação de uso de microchips em doses aplicadas contra a covid-19. O propósito disso seria para a “elite mundial” rastrear o movimento das pessoas — como se os celulares já não fossem capazes de fazer isso.
Desinformação também com o ChatGPT
Já o ChatGPT se saiu ainda pior na pesquisa da NewsGuard. O modelo GPT-3.5, atualmente disponível para usuários gratuitos da plataforma, gerou narrativas falsas em 80 das 100 solicitações de escrita.
A versão mais moderna, baseada no GPT-4, foi a que teve o pior desempenho: apresentou afirmações enganosas em todas as 100 solicitações de construção de narrativas falsas. O modelo avançado ainda conseguiu criar desinformação e teorias conspiratórias de modo mais persuasivo, afinal tem uma linguagem otimizada.
Cofundador da NewsGuard, Steven Brill disse que os testes mostram como até os chatbots mais avançados da atualidade podem ser usados por “maus atores” para multiplicar desinformação, em uma escala que “até mesmo os russos jamais alcançaram”, numa possível referência às possíveis fake news criadas por Moscou durante a invasão à Ucrânia.
Limites éticos podem ser contornados
Uma das políticas mais sérias adotadas por OpenAI, Microsoft (com o Bing Chat) e Google são as travas de segurança para evitar temas polêmicos, controversos ou inadequados. Mas um estudo divulgado pela revista Fortune descobriu que esses robôs podem ser enganados com algumas técnicas.
O Center for Countering Digital Hate (CCDH) descobriu que o chatbot de IA do Google, por exemplo, gerou desinformação em 78% das "narrativas prejudiciais" usadas em bate-papos, que variaram de vacinas a conspirações climáticas. A pesquisa do CCDH não engloba o chatbot da OpenAI, mas outros relatos anteriores mostram que isso também afeta o modelo GPT. A própria empresa já explicou, assim como o Google, que suas IAs têm problemas a serem superados.
Como as duas pesquisas não detalham a metodologia usada ou as perguntas feitas, é impossível entender em quais aspectos os robôs inteligentes precisam evoluir. Uma parte da solução está relacionada aos feedbacks do usuário, enquanto a outra depende dos ajustes da equipe de desenvolvimento das ferramentas. Em geral, esse processo exige tempo e constante monitoramento, sem haver um consenso se será possível alcançar um patamar minimamente aceitável algum dia.
IAs sem regulamentação
Enquanto o setor segue sem regulação, há outros chatbots que tentam explorar justamente o lado polêmico da coisa. O FreedomGPT é um exemplo de IA cujo foco é responder sobre qualquer assunto sem limites éticos ou morais. O ColossalChat é outra solução capaz de ser moldada ao gosto do cliente, por ser gratuito e criado em código aberto, o que pode significar conteúdos inapropriados ou ofensivos.
Existe um movimento encabeçado por empresários, estudiosos e especialistas em IA para paralisar o desenvolvimento das tecnologias até a criação de uma modelagem universal — Bill Gates foi um dos poucos líderes de renome a se posicionar contra. Algo assim é muito difícil no atual cenário, tendo em vista o imenso investimento financeiro e intelectual de Big Techs dos Estados Unidos e China. O fato é que o cenário ainda segue incerto e muitas polêmicas devem surgir no horizonte.