Publicidade

ChatGPT consegue enganar cientistas escrevendo resumos falsos de pesquisas

Por| Editado por Douglas Ciriaco | 11 de Janeiro de 2023 às 17h05

Link copiado!

(Imagem: Reprodução/Ron Lach/Pexels)
(Imagem: Reprodução/Ron Lach/Pexels)

Um estudo feito com pesquisadores revelou que o ChatGPT, inteligência artificial de conversa humanizada da OpenAI, conseguiu enganar os cientistas ao escrever resumos sobre estudos reais. O objetivo era descobrir se a IA era capaz produzir de modo semelhante a um estudioso, o que ligaria o alerta dos acadêmicos para evitar uso indevido.

Em quase um terço das vezes, a ferramenta conseguiu se passar por um humano ao redigir um abstract, aquela introdução usada em pesquisas e trabalhos científicos. Os resumos falsificados foram gerados a partir de informações sobre o trabalho do pesquisador em poucos segundos.

Os pesquisadores das universidades de Northwestern e de Chicago, ambas nos Estados Unidos, instruíram o ChatGPT a gerar resumos de pesquisas baseados em 10 conteúdos publicados em revistas médicas. A IA foi alimentada com dados dos estudos científicos para produzir um conteúdo referencial que se passasse por verdadeiro.

Continua após a publicidade

Quais os resultados da pesquisa com o ChatGPT?

O resultado foi submetido junto dos resumos originais a dois programas de detecção de plágio e identificação de conteúdos falsos. Os apps identificaram corretamente os resumos feitos pelo ChatGPT em apenas 68% das vezes.

Os cientistas tiveram o conteúdo rotulado incorretamente em 14% dos casos — resumos reais foram marcados como falsos. Embora os artigos falsos fossem considerados únicos quando medidos pelo programa de detecção de plágio, apenas 8% seguiram os requisitos de formatação exigidos pelos periódicos científicos.

Continua após a publicidade

Revisores humanos disseram que os documentos fake eram mais vagos e tinham uma "forma de escrever estereotipada". Mesmo assim, disseram ser muito difícil determinar quais eram reais e quais não eram sem ajuda da tecnologia.

O que deve mudar nos artigos científicos?

Os pesquisadores agora querem estabelecer regras ainda mais rígidas para periódicos, artigos e estudos científicos, pois assim os padrões ficarão mais elevados para dificultar a criação por IAs. Quem desenvolve programas de análise de plágio também deverá se preparar para implementarem algumas ferramentas de detecção de padrões típicos da escrita por robôs.

Existe o temor real de essa tecnologia ser usada de modo indevido por estudantes nos trabalhos escolares e até profissionais mais preguiçosos no mercado de trabalho. A criação de conteúdo poderia esbarrar em graves questões envolvendo o direito autoral, já que mais de uma pessoa poderia se declarar proprietária de um material gerado por uma máquina.

Continua após a publicidade

O ChatGPT tem uma interface simples de caixa de texto na qual as pessoas podem conversar, tirar dúvidas ou pedir a realização de tarefas básicas. A inteligência artificial consegue imitar o modo humano de escrever, possibilitando uma interação natural com as pessoas.

A ferramenta já se mostrou capaz de programar códigos de computador em Python, produzir posts para redes sociais e até escrever ensaios de nível universitário. Existe a possibilidade de ajudar a detectar Alzheimer, com até 80% de precisão na previsão dos estágios iniciais da demência.

A versatilidade chamou a atenção da internet nos últimos, tanto que a Microsoft já planeja introduzir a caixa de texto da IA no mecanismo de busca Bing. A empresa pretende incorporá-lo ao Word, PowerPoint e Outlook para otimizar a realização de atividades.