Publicidade

Modelos de IA famosos estão usando artigos científicos retratados como fonte

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
DC Studio/Freepik
DC Studio/Freepik

Alguns modelos de inteligência artificial, incluindo chatbots populares como o ChatGPT, podem recorrer a artigos científicos retratados ao formular respostas. Isso levanta preocupações sobre a confiabilidade dessas ferramentas, especialmente em áreas críticas como saúde e ciência. O alerta vem do MIT Technology Review.

Os pesquisadores descobriram que, ao responder perguntas sobre estudos já invalidados, os modelos citam os artigos como fontes mesmo assim, e não alertam o usuário de que o material foi oficialmente retirado do registro científico. Isso pode induzir ao erro profissionais, estudantes e o público em geral que buscam informações de confiança.

A utilização de artigos retratados pode comprometer a qualidade da informação disponível e até influenciar decisões de saúde, investimentos ou políticas públicas.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Chatbots de IA já são usados por estudantes e cientistas para resumir artigos, revisar literatura e gerar hipóteses de pesquisa. Se a ferramenta basear sua resposta em um estudo inválido sem aviso prévio, os usuários podem ser levados a conclusões incorretas.

A situação é ainda mais delicada quando se trata de conselhos médicos, já que muitas pessoas recorrem a IA para compreender sintomas ou buscar diagnósticos preliminares.

Falta de padronização e atualização de dados

De acordo com o relatório do MIT, um dos grandes obstáculos para resolver o problema está na ausência de padronização entre editoras científicas. Termos como “retratado” ou “errata” são usados de formas diferentes, o que dificulta a detecção automática pelas ferramentas de IA.

Além disso, muitos artigos circulam em servidores de pré-publicação e repositórios independentes, espalhando versões antigas e sem marcações de retratação. Como os modelos de IA são treinados em grandes bases de dados que nem sempre estão atualizadas, acabam absorvendo esses materiais sem filtros adequados.

Caminhos para aumentar a confiabilidade

Os especialistas defendem que as empresas responsáveis por modelos de IA implementem mecanismos de verificação em tempo real, usando bases de dados como o Retraction Watch e catálogos acadêmicos atualizados. Algumas plataformas já anunciaram melhorias nesse sentido, reduzindo o número de artigos retratados citados.

Continua após a publicidade

Outra solução seria fornecer mais contexto nas respostas, incluindo alertas claros sobre retratações, revisões por pares e críticas publicadas em sites especializados como o PubPeer. Isso ajudaria usuários a distinguir entre ciência válida e conteúdo já desqualificado.

Leia também:

VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita?

Continua após a publicidade

Fonte: MIT Technology Review, Journal of Advanced Research