Publicidade

ChatGPT | IA não deve ser autora de estudos científicos, diz Nature

Por| Editado por Luciana Zaramela | 26 de Janeiro de 2023 às 12h00

Link copiado!

Reprodução/OpenAI (modificada)
Reprodução/OpenAI (modificada)

A popularização do modelo de inteligência artificial ChatGPT, desenvolvido pela empresa norte-americana OpenAI, acendeu um sinal de alerta vermelho na comunidade científica — afinal, a ferramenta já foi listada até como autora de estudos acadêmicos. Diante do atual cenário, uma das revistas mais conceituadas no ramo, a Nature, anunciou, nesta semana, que uma IA não pode e nem será considerada uma autora dentro de suas publicações.

"À medida que os pesquisadores mergulham no admirável mundo novo dos chatbots avançados de IA, os editores precisam reconhecer seus usos legítimos e estabelecer diretrizes claras para evitar abusos", afirma a Nature. Neste ponto, a revista defende que é necessário reconhecer os limites, como propõe.

Agora, a expectativa é que outras publicações relevantes na produção científica sigam a mesma posição. O interessante é que a Nature não nega a possibilidade de uso da IA nos trabalhos, mas defende a existência exclusiva de autores reais, já que, em casos de erros ou falhas, devem ser responsabilizados. Culpar uma IA, como ChatGPT, não faz sentido, porque não há compromisso explícito com a busca pela verdade.

Continua após a publicidade

Entenda o problema do efeito ChatGPT na comunidade científica

Segundo levantamento da Nature, o ChatGPT já foi incluído como autor em um preprint — estudo científico ainda não revisado por pares — publicado na plataforma MedRxiv em dezembro do ano passado. Além disso, foi creditado como coautor em artigos das revistas Nurse Education in Practice e Oncoscience.

"A grande preocupação na comunidade de pesquisa é que estudantes e cientistas possam usar, de forma enganosa, textos escritos por LLM [Modelo de Linguagem Grande, como o ChatGPT] como seus próprios, ou usar LLM de maneira simplista (como conduzir uma revisão incompleta da literatura) e produzir trabalhos que não sejam confiáveis", pontua a revista.

Continua após a publicidade

Neste cenário, duas regras foram definidas para regular tais práticas:

  • Nenhuma ferramenta será aceita como autor em um estudo. "Isso ocorre porque qualquer atribuição de autoria acarreta responsabilidade pelo trabalho, e as ferramentas de IA não podem assumir essa responsabilidade", esclarece a Nature.
  • O uso de ferramentas do tipo devem ser documentado nas seções de métodos ou agradecimentos de um artigo científico.

É possível saber se um estudo científico foi feito por uma IA?

Apesar das novas regras, cabe se perguntar: é possível identificar um texto escrito por uma IA? Segundo a Nature, a resposta é "talvez", já que depende de "uma inspeção cuidadosa" e tende a ser mais precisa "quando mais do que alguns parágrafos estão envolvidos". Inclusive, a equipe do Canaltech já fez a mesma pergunta para o ChatGPT.

Continua após a publicidade

Outro ponto é que a ferramenta não indica as fontes usadas na resposta, algo fundamental no mundo acadêmico. "Mas, no futuro, os pesquisadores de IA podem contornar esses problemas — já existem alguns experimentos ligando chatbots a ferramentas de citação de fontes, por exemplo, e outros treinando os chatbots para textos científicos especializados", avisa a Nature.

Em outra frente, a editora da Nature, a Springer, desenvolve uma tecnologia própria para identificar textos produzidos por IA com fins acadêmicos. Para os próximos anos, este embate pode representar o início de uma nova era na produção de saber científico e uma prova de fogo à criatividade e ao intelecto humano.

Fonte: Nature (1) e (2)