Sinais reveladores do uso de chatbots estão espalhados pela literatura acadêmica — e, em alguns casos, desapareceram sem deixar vestígios

Crédito: Laurence Dutton/Getty
Por Diane Kwon para a “Nature”
“De acordo com minha última atualização de conhecimento”, “regenerar resposta”, “como um modelo de linguagem de IA” — esses são apenas alguns dos sinais reveladores do uso de inteligência artificial (IA) por pesquisadores que observadores da integridade científica encontraram espalhados por artigos na literatura acadêmica.
Ferramentas de IA generativa, como o ChatGPT, transformaram rapidamente a publicação acadêmica. Cientistas as utilizam cada vez mais para preparar e revisar manuscritos, e as editoras têm se esforçado para criar diretrizes para seu uso ético. Embora as políticas variem, muitas editoras exigem que os autores divulguem o uso de IA na preparação de artigos científicos .
Mas cientistas investigadores identificaram centenas de casos em que ferramentas de IA parecem ter sido usadas sem divulgação . Em alguns casos, os artigos foram corrigidos silenciosamente — as frases características da IA foram removidas sem reconhecimento. Esse tipo de mudança silenciosa é uma ameaça potencial à integridade científica, afirmam alguns pesquisadores.
Essas mudanças apareceram em uma “pequena minoria de periódicos”, afirma Alex Glynn, instrutor de pesquisa e comunicação na Universidade de Louisville, no Kentucky. Mas, considerando que provavelmente também há muitos casos em que autores usaram IA sem deixar vestígios óbvios, “estou surpreso com a quantidade que existe”, acrescenta.
‘Eu sou um modelo de linguagem de IA’
Desde 2023, especialistas em integridade têm sinalizado artigos com sinais óbvios de uso não divulgado de IA, como aqueles que contêm a frase “regenerar resposta”, gerada por alguns chatbots com base em grandes modelos de linguagem quando um usuário deseja uma nova resposta para uma consulta. Essas frases podem aparecer em artigos quando um autor copia e cola as respostas de um chatbot.
Um dos primeiros casos que Glynn se lembra de ter visto foi em um artigo, agora retratado, publicado em 2024 na Radiology Case Reports 1 , que continha a frase do chatbot “Eu sou um modelo de linguagem de IA”. “Era o mais descarado possível”, diz Glynn. “De alguma forma, isso passou despercebido não apenas pelos autores, mas também pelos editores, revisores, compositores e todos os demais envolvidos no processo de produção.”
Desde então, Glynn encontrou centenas de outros artigos com características marcantes do uso de IA — incluindo alguns contendo sinais mais sutis, como as palavras “Certamente, aqui estão”, outra frase típica de chatbots de IA. Ele criou um rastreador online, o Academ-AI, para registrar esses casos — e tem mais de 700 artigos listados. Em uma análise dos primeiros 500 artigos sinalizados, publicada como pré-impressão em 2 de novembro , Glynn descobriu que 13% desses artigos apareceram em periódicos pertencentes a grandes editoras, como Elsevier, Springer Nature e MDPI.
Artur Strzelecki, pesquisador da Universidade de Economia de Katowice, Polônia, também reuniu exemplos de uso não divulgado de IA em artigos, com foco em periódicos respeitáveis. Em um estudo publicado em dezembro, ele identificou 64 artigos publicados em periódicos categorizados pela base de dados acadêmica Scopus como estando no quartil superior em sua área de atuação . “Esses são lugares onde esperaríamos um bom trabalho dos editores e revisões decentes”, diz Strzelecki.
A equipe de notícias da Nature contatou diversas editoras cujos artigos foram sinalizados por Glynn e Strzelecki, incluindo Springer Nature, Taylor & Francis e IEEE. ( A equipe de notícias da Nature é editorialmente independente de sua editora, a Springer Nature.) Todas disseram que os artigos sinalizados estão sob investigação. Elas também apontaram para suas políticas de IA — que, em alguns casos, não exigem a divulgação do uso de IA ou a exigem apenas para determinados usos. A Springer (de propriedade da Springer Nature), por exemplo, afirma que a edição de texto assistida por IA, que inclui alterações feitas para legibilidade, estilo e erros gramaticais ou ortográficos, não precisa ser sinalizada.
Kim Eggleton, chefe de revisão por pares e integridade em pesquisa da IOP Publishing em Bristol, Reino Unido, observa que, embora a editora tenha introduzido uma política que exige que os autores declarem o uso de IA em 2023, alterou as regras no ano passado para refletir a ubiquidade das ferramentas. “Embora incentivemos os autores a divulgar o uso de IA, isso não é mais obrigatório”, afirma Eggleton. “Estamos nos concentrando em garantir a precisão e a robustez do conteúdo por meio de uma combinação de verificações automatizadas e humanas, em vez de proibir completamente a IA.” A política da IOP, no entanto, proíbe o uso de IA para “criar, alterar ou manipular” dados ou resultados de pesquisa.
doi: https://doi.org/10.1038/d41586-025-01180-2
Referências
-
Bader, R. et al. Radiol. Case Rep. 19 , 2106–2111 (2024); retratação 19 , 3598 (2024) .
-
Glynn, A. Pré-impressão em arXiv https://doi.org/10.48550/arXiv.2411.15218 (2024).
-
Strzelecki, A. Aprenda. Publicação 28 , e1650 (2024).
-
Shoukat, R. et al. PLoS ONE 19 , e0298220 (2024); retratação 19 , e0302484 (2024).
-
Abdel-Rahman Mohamed, A. et al. Toxicologia 497–498 , 153629 (2023).
-
Aquarius, R., Schoeters, F., Wise, N., Glynn, A. & Cabanac, G. Learn. Publ. 38 , e1660 (2025).
Fonte: Nature