ChatGPT "sacrifica precisão em prol da simplicidade" e acha que tudo é inovador
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

Ferramentas de inteligência artificial como o ChatGPT ganharam espaço na educação e na comunicação científica. Um dos usos mais populares é pedir para que o chatbot explique artigos complexos em uma linguagem simples, principalmente no que diz respeito a pesquisas científicas, que costumam ser cheias de termos técnicos e difíceis de compreender. Porém, especialistas alertam: confiar apenas na IA para resumir descobertas pode ser arriscado.
- ONU vê os riscos da IA, mas reconhece ajuda no combate ao aquecimento global
- 5 dicas para você identificar se um vídeo foi gerado por Inteligência Artificial
A equipe do Science Press Package (SciPak) e da revista Science testou o ChatGPT Plus por um ano. O objetivo era verificar se o chatbot conseguia transformar pesquisas científicas densas em resumos acessíveis. O resultado? A ferramenta até entregou textos legíveis, mas pecou no mais importante: a precisão.
Segundo o relatório, o ChatGPT frequentemente trocava detalhes relevantes por generalizações e exageros. Além disso, mostrou um padrão curioso: usava constantemente palavras como “revolucionário” ou “inovador”, mesmo quando os estudos não justificavam esse tom. Isso exigia dos revisores humanos cortes e ajustes.
Os pesquisadores destacaram que, embora o ChatGPT consiga simplificar termos, ele falha em contextualizar limitações dos estudos. Em pesquisas cheias de informações e difíceis de ler, a tendência era voltar ao jargão técnico ou exagerar conquistas.
Para o jornalista científico, isso representa um risco: se o público receber informações distorcidas ou supervalorizadas, a confiança na comunicação científica pode se perder. Uma das redatoras envolvidas, Abigail Eisenstadt, afirmou que depender desses resumos poderia “quebrar a confiança” dos leitores.
O que isso significa para o futuro da IA na ciência
A avaliação não condena totalmente o uso do ChatGPT, mas mostra que ele ainda não substitui jornalistas e comunicadores especializados. A IA pode ser uma ferramenta de apoio, ajudando a tornar conceitos mais claros, mas precisa de supervisão humana para garantir que a informação chegue correta ao público. Em resumo, a tecnologia é poderosa, mas quando o assunto é ciência, precisão vale mais do que simplicidade.
Leia também:
- Britânicos veem a IA mais como um risco para a economia do que como oportunidade
- OpenAI faz testes e diz que ChatGPT-5 já se compara a humanos em várias funções
VÍDEO | Cuidado com o que você pede para o ChatGPT (tem jeito certo de perguntar para a IA?)
Fonte: Science, Digital Trends