Modelos de IA famosos estão usando artigos científicos retratados como fonte
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

Alguns modelos de inteligência artificial, incluindo chatbots populares como o ChatGPT, podem recorrer a artigos científicos retratados ao formular respostas. Isso levanta preocupações sobre a confiabilidade dessas ferramentas, especialmente em áreas críticas como saúde e ciência. O alerta vem do MIT Technology Review.
- Ilusão antropomórfica | A IA mente quando diz que “está pensando”; ela não está
- "Você está me testando" | Novo modelo de IA da Anthropic detecta a sua intenção
Os pesquisadores descobriram que, ao responder perguntas sobre estudos já invalidados, os modelos citam os artigos como fontes mesmo assim, e não alertam o usuário de que o material foi oficialmente retirado do registro científico. Isso pode induzir ao erro profissionais, estudantes e o público em geral que buscam informações de confiança.
A utilização de artigos retratados pode comprometer a qualidade da informação disponível e até influenciar decisões de saúde, investimentos ou políticas públicas.
Chatbots de IA já são usados por estudantes e cientistas para resumir artigos, revisar literatura e gerar hipóteses de pesquisa. Se a ferramenta basear sua resposta em um estudo inválido sem aviso prévio, os usuários podem ser levados a conclusões incorretas.
A situação é ainda mais delicada quando se trata de conselhos médicos, já que muitas pessoas recorrem a IA para compreender sintomas ou buscar diagnósticos preliminares.
Falta de padronização e atualização de dados
De acordo com o relatório do MIT, um dos grandes obstáculos para resolver o problema está na ausência de padronização entre editoras científicas. Termos como “retratado” ou “errata” são usados de formas diferentes, o que dificulta a detecção automática pelas ferramentas de IA.
Além disso, muitos artigos circulam em servidores de pré-publicação e repositórios independentes, espalhando versões antigas e sem marcações de retratação. Como os modelos de IA são treinados em grandes bases de dados que nem sempre estão atualizadas, acabam absorvendo esses materiais sem filtros adequados.
Caminhos para aumentar a confiabilidade
Os especialistas defendem que as empresas responsáveis por modelos de IA implementem mecanismos de verificação em tempo real, usando bases de dados como o Retraction Watch e catálogos acadêmicos atualizados. Algumas plataformas já anunciaram melhorias nesse sentido, reduzindo o número de artigos retratados citados.
Outra solução seria fornecer mais contexto nas respostas, incluindo alertas claros sobre retratações, revisões por pares e críticas publicadas em sites especializados como o PubPeer. Isso ajudaria usuários a distinguir entre ciência válida e conteúdo já desqualificado.
Leia também:
- Pesquisa mostra que uma IA pode ser mais persuasiva do que humanos em debates
- 5 formas de usar a inteligência artificial para turbinar os estudos
VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita?