‘Uma quantidade inacreditável de poluição’: qual é a dimensão da ameaça da IA ​​para o clima?

Defensores da IA ​​afirmam que ela pode contribuir para o combate à crise climática. No entanto, o aumento vertiginoso dos custos de energia e água preocupa os especialistas

Um computador de grande porte consumindo toda a energia de um reservatório.

O custo ambiental do boom da IA ​​é difícil de mensurar, mesmo enquanto dispara. Imagem composta: Alex Mellon para o The Guardian: Getty Images

Por Ajit Niranjan para “The Guardian” 

“Foi de cair o queixo”, disse Wilson, um ex-trabalhador do setor de petróleo e gás do Texas que documenta emissões de metano há mais de uma década e estima que o data center Colossus da xAI estivesse expelindo mais desse gás que aquece o planeta do que uma grande usina de energia. “Uma quantidade inacreditável de poluição.”

Naquela mesma semana, o principal produto da empresa estava causando alvoroço nos noticiários. O chatbot irreverente de Musk, Grok, repetiu uma teoria da conspiração de que um “genocídio branco” estava ocorrendo na África do Sul quando questionado sobre assuntos tão aleatórios quanto beisebol e andaimes. As postagens foram rapidamente apagadas, mas Grok continuou elogiando Hitler , promovendo ideologias de extrema-direita e fazendo afirmações falsas.

Grok de Elon Musk

Grok, o chatbot de IA de Elon Musk, já elogiou Hitler e repetiu teorias da conspiração sobre o “genocídio branco”. Fotografia: Algi Febri Sugita/ZUMA Press Wire/Shutterstock

“É um desperdício horrível, horrível”, disse Wilson, diretor do grupo de campanha Oilfield Witness, apontando para imagens do Mickey Mouse nazista geradas pelo Grok como um exemplo do que o gás fóssil estava sendo queimado para produzir. “Que utilidade isso tem?”

Alguns especialistas temem que os centros de dados possam prejudicar a transição para uma economia limpa, adicionando um obstáculo desnecessário à tarefa inglória de impedir que o planeta aqueça 1,5°C (2,7°F). Outros se mostram otimistas em relação aos custos de energia, argumentando que eles são insignificantes em comparação não apenas com as indústrias poluentes, mas também com o poder da tecnologia de transformar a sociedade.

Qual é a dimensão da ameaça da IA ​​para o clima? E será que ela pode trazer mais benefícios do que prejuízos?

Quando Hannah Daly dirigia modelos para a Agência Internacional de Energia (IEA) em Paris e depois se tornou professora de energia sustentável na University College Cork, na Irlanda, ela dedicava pouco tempo a se preocupar com o custo de carbono dos computadores. Carros, vacas e aquecimento doméstico estavam entre os problemas complexos que consumiam o orçamento de carbono; as emissões dos serviços digitais eram pequenas e relativamente estáveis.

Mas na Irlanda, a demanda computacional por energia atingiu níveis impossíveis de ignorar. Os centros de dados consomem um quinto da eletricidade do país e a previsão é de que esse consumo chegue a quase um terço em poucos anos. A rápida expansão de armazéns repletos de chips, que surgiram em um ritmo mais acelerado do que a rede elétrica consegue suportar, levou à sua proibição efetiva de conexão à rede em 2021.

A trajetória de “crescimento enorme e exponencial” é o que preocupa, disse Daly. “Não sei se a Irlanda é uma exceção ou um prenúncio do que está por vir. Mas é definitivamente um conto de advertência.”

Os centros de dados consomem apenas 1% da eletricidade mundial, mas em breve poderão demandar muito mais. Sua participação no consumo de eletricidade dos EUA deverá mais que dobrar, chegando a 8,6% até 2035, segundo a BloombergNEF, enquanto a AIE (Agência Internacional de Energia) projeta que os centros de dados serão responsáveis ​​por pelo menos 20% do crescimento da demanda de eletricidade nos países desenvolvidos até o final da década.

Parte da demanda está sendo atendida por meio de contratos de longo prazo para a compra de energia renovável – apoiando a expansão da energia limpa mesmo quando a eletricidade que alimenta a instalação é poluente – enquanto algumas empresas de tecnologia assinaram acordos para usar energia nuclear.

Mas, num futuro próximo, os combustíveis fósseis deverão dominar o fornecimento. Os centros de dados da China estão concentrados no leste do país, região com forte presença do carvão. Nos EUA, onde se espera que o gás natural gere a maior parte da eletricidade nos centros de dados na próxima década, o governo Trump usou esse argumento para justificar a queima de mais carvão. “O carvão, bonito e limpo, será essencial para… vencer a corrida da IA”, disse o secretário de Energia, Chris Wright, em setembro, ao anunciar um pacote de investimentos de US$ 625 milhões (R$ 2,7 bilhões).

Um centro de dados da Amazon em Didcot, Oxfordshire.

Um datacenter da Amazon em Didcot, Oxfordshire. Fotografia: Horst Friedrichs/Alamy

Na Irlanda, que está construindo terminais para importar gás natural liquefeito (GNL) e usinas para queimá-lo, o boom dos data centers compensou os ganhos climáticos da expansão das energias renováveis ​​no setor elétrico, de acordo com uma análise que Daly realizou para a Friends of the Earth Ireland no ano passado. Países mais pobres também podem não estar imunes. A energia solar barata começou a substituir o carvão a um ritmo notável no Paquistão, mas os data centers estão prestes a ocupar a capacidade ociosa de usinas de energia desativadas, após o governo anunciar que dedicaria 2 GW de energia à inteligência artificial e ao bitcoin.

“Essa ideia de que o menor custo das energias renováveis ​​por si só impulsionará a descarbonização não é suficiente”, disse Daly. “Porque se houver uma enorme demanda de energia que queira crescer, ela recairá sobre esses ativos de combustíveis fósseis obsoletos.”

Isso significa que usar chatbots para redigir e-mails, escrever ensaios e planejar férias coloca o planeta em risco? As empresas de tecnologia têm resistido à pressão para fornecer dados detalhados sobre o consumo de energia de sua IA, mas estimativas populares giram em torno de 0,2 a 3 watts-hora (Wh) para uma simples consulta de texto e aumentam consideravelmente para “pesquisas complexas” e produção de vídeo. Em uma postagem de blog em julho, o CEO da OpenAI, Sam Altman, afirmou que uma consulta no ChatGPT usa tão pouca energia quanto uma lâmpada acesa por alguns minutos, em consonância com um relatório recente do Google sobre o consumo médio de texto para seu assistente de IA, Gemini.

Os números são insignificantes em comparação com atividades como voar, comer carne ou dirigir um carro. Ainda assim, os céticos se preocupam com a enorme escala da tecnologia – o ChatGPT afirma ter várias centenas de milhões de usuários semanais apenas três anos após seu lançamento – e com o fervor com que as empresas a inseriram em todos os aspectos da vida digital. O Google controla cerca de 90% do mercado global de mecanismos de busca e impôs a IA generativa em sua página de resultados. A ascensão de agentes de IA e serviços nos bastidores deve aumentar ainda mais esse burburinho.

“O que me preocupa é que estamos implementando IA de uma forma que não nos permite ter uma boa noção do consumo de energia”, disse Sasha Luccioni, líder de clima da empresa de IA Hugging Face, que se frustrou com as “divulgações seletivas” de grandes empresas que obscurecem o verdadeiro impacto climático de seus produtos. “Estamos essencialmente operando sob a hipótese de que não é um problema – ou que, se for um problema, será resolvido de alguma forma – em vez de nos anteciparmos a ele.”

Se a IA pudesse pagar suas dívidas energéticas economizando carbono em outros setores da economia? Essa é a tese apresentada em um relatório da AIE (Agência Internacional de Energia) em abril, que argumentou que as aplicações de IA existentes poderiam reduzir as emissões em uma proporção muito maior do que a produzida pelos data centers. Um artigo de pesquisadores da London School of Economics e da Systemiq chegou a uma conclusão semelhante em junho, após modelar cenários nos quais a IA ajudaria a integrar energia solar e eólica à rede elétrica, identificar proteínas alternativas que imitam a carne, melhorar a composição das baterias em carros elétricos e incentivar as pessoas a fazerem escolhas sustentáveis.

“A IA pode acelerar a implementação dessas tecnologias limpas, basicamente acelerando sua posição na curva de inovação e adoção”, disse a coautora Roberta Pierfederici, pesquisadora de políticas públicas do Instituto Grantham da LSE.

As projeções de redução de carbono trazem grandes incertezas – maior eficiência pode levar a um maior consumo, alerta a AIE (Agência Internacional de Energia), e efeitos rebote podem anular os ganhos, como carros autônomos prejudicando o transporte público – mas exemplos já existem. O Google afirma que a IA o ajudou a reduzir o resfriamento em data centers em 40%. A espanhola Iberdrola diz que a IA otimizou a manutenção e o desempenho de turbinas eólicas, aumentando a eficiência operacional em 25%. A francesa Engie afirma ter reduzido o tempo de inatividade em usinas solares usando IA para detectar falhas.

Como outros setores são muito poluentes, dizem os pesquisadores, a IA precisaria reduzir suas emissões em apenas uma pequena fração para compensar o custo de carbono de sua computação, que um estudo recente estimou em 0,1-0,2% das emissões globais, e está aumentando. “No setor de energia, já estamos vendo os resultados”, disse Pierfederici. “Já o setor de carne ainda não chegou lá.”

s defensores da tecnologia limpa não são os únicos que perceberam o potencial transformador da IA.

Quando Holly e Will Alpine decidiram deixar seus empregos na Microsoft no ano passado, sabiam que estavam abrindo mão de uma ótima oportunidade. O casal de millennials desfrutava de salários típicos do setor de tecnologia americano, graças às suas posições nas equipes de IA responsável e sustentabilidade da empresa, com colegas próximos e um trabalho que lhes dava um senso de propósito. Will estava entre as primeiras vozes a pressionar para que se enfrentasse a redução do custo de energia dos data centers.

Mas o trabalho da Microsoft para clientes do setor de petróleo e gás incomodava o casal, que começou a se preocupar mais com as emissões que a empresa possibilitava do que com as que ela produzia. Em 2019, a empresa anunciou uma parceria com a ExxonMobil com potencial para expandir a produção em até 50 mil barris por dia. No mesmo ano, iniciou um projeto digital com a Chevron que, segundo a petrolífera, reduziu em 30 dias o tempo de planejamento de seus poços em águas profundas. Com o surgimento de mais contratos, os Alpines começaram a pressionar a empresa por respostas.

“A resposta da empresa frequentemente apontava para sua própria pegada operacional, o que não é relevante”, disse Holly Alpine, que deixou a empresa com Will para fazer campanha para que a indústria de tecnologia combatesse as emissões que gera. “Após uma campanha interna de quatro anos, na qual recebemos muitas promessas, mas a maioria não foi cumprida, percebemos que a pressão interna não era suficiente.”

Um poço de petróleo no deserto

O diretor executivo da petrolífera Saudi Aramco afirmou recentemente que a empresa incorporou inteligência artificial “em tudo”. Fotografia: Bloomberg/Getty Images

A Agência Internacional de Energia (IEA) estima que a IA poderá aumentar as reservas tecnicamente recuperáveis ​​de petróleo e gás em 5% e reduzir o custo de um projeto em águas profundas em 10%. As grandes petrolíferas estão ainda mais otimistas. “A inteligência artificial será, em última análise, o próximo boom do fracking na indústria”, disse Mike Sommers, diretor do Instituto Americano de Petróleo, à Axios . Amin Nasser, CEO da Saudi Aramco, afirmou que a empresa incorporou IA “em tudo” em uma entrevista à Bloomberg Television no início deste ano. A maior petrolífera do mundo dobrou seus investimentos em tecnologia de 2023 para 2024, segundo Nasser, e a ampla adoção da IA ​​”aumentou a produtividade e, consequentemente, o número de poços”.

Ao mesmo tempo, a indústria de petróleo e gás afirma que a IA pode reduzir sua intensidade de carbono, por exemplo, analisando dados de satélite para detectar vazamentos de metano. Mas mesmo nesse aspecto, críticos apontam que existe uma lacuna entre as percepções digitais e as ações corporativas. Wilson, que viu “nuvens gigantescas de gás escapando por todos os lados” durante uma recente viagem de campo à Bacia Permiana, disse que a sofisticada rede de satélites da indústria obteve poucos resultados, pois os vazamentos representam um problema pequeno em comparação com as liberações intencionais de metano.

“Eles estão usando isso como desculpa para adiar a ação”, disse Wilson. “Observar o metano do espaço não vai impedir a emissão de metano.”

Talvez ainda mais preocupante do que a expansão da oferta de combustíveis fósseis seja o efeito sobre o consumo. Um estudo publicado em outubro revelou que anúncios gerados por IA superam os criados por humanos, e a facilidade com que podem ser prouzidos reduz drasticamente o custo de incentivar o consumo. O setor de marketing, já familiarizado com anúncios hiperpersonalizados e compras simplificadas, está se preparando para agentes de IA que poderão comprar presentes e reservar voos em nome do cliente. A Tui, maior operadora de viagens da Europa, afirma estar investindo fortemente em IA, à medida que as pessoas recorrem ao ChatGPT para reservar suas férias.

“A narrativa está realmente focada nessa comparação falsa entre a energia usada para operar a tecnologia e os casos de uso positivos”, disse Alpine. “Mas é perigoso omitir os casos de uso negativos.”

Algumas vozes pedem uma pausa, pelo menos até que regras melhores sejam implementadas. Em outubro, o relator especial da ONU para o direito humano à água potável pediu uma moratória no desenvolvimento de novos centros de dados, citando os impactos ambientais prejudiciais. Em dezembro, uma coalizão de mais de 230 grupos ambientalistas nos EUA exigiu uma moratória nacional até que esses centros de dados fossem regulamentados. A Comissão de Serviços Públicos da Irlanda suspendeu sua proibição de fato às conexões à rede elétrica, mas afirmou que 80% do consumo anual de eletricidade de um centro de dados deve vir, eventualmente, de novos projetos de energia renovável.

Outros defenderam que se pressione o setor para que faça o bem. A Espanha, único país a mencionar a IA em uma legislação climática, obriga o governo a promover a digitalização que possa ajudar a descarbonizar a economia. Laurence Tubiana, uma das arquitetas do Acordo de Paris sobre o clima, sugeriu a taxação da IA ​​para gerar os fundos necessários para impedir o aquecimento global.

Os alpinistas, que afirmam não ser contra a IA, mas apenas desejar “limites razoáveis” para a tecnologia, estão pressionando para que o projeto de lei da UE sobre IA classifique os combustíveis fósseis como uma aplicação de alto risco da tecnologia. Eles também querem que os investidores considerem as emissões geradas pela IA na avaliação das empresas em relação a métricas ambientais, sociais e de governança (ESG).

O Google e a xAI não responderam ao pedido de comentários. A OpenAI afirmou que dedica muita atenção à melhor utilização de seu poder computacional, apoia iniciativas com parceiros para atingir metas de sustentabilidade e acredita que a IA será fundamental no combate às mudanças climáticas.

A Microsoft afirmou que a transição energética é complexa e exige avançar de forma ética, com a tecnologia desempenhando um papel importante na descarbonização do setor. “Isso requer equilibrar as necessidades energéticas e as práticas industriais atuais, ao mesmo tempo que se inventam e implementam as do futuro”, disse um porta-voz.

Luccioni afirmou que, em vez de entrar em pânico com a IA, as pessoas deveriam pressionar as empresas para que criem ferramentas que sejam econômicas desde a sua concepção.

“Talvez eu seja um pouco ingênua, mas ainda acredito que a IA pode fazer bem no combate à crise climática – projetando a próxima geração de baterias, monitorando o desmatamento, prevendo furacões”, disse ela. “Há tantas coisas boas para as quais poderíamos usá-la – e, em vez disso, estamos criando sites de mídia social repletos de conteúdo gerado por IA, enquanto data centers são alimentados por geradores a diesel.”


Fonte: The Guardian

As análises de IA da Google colocam as pessoas em risco com conselhos de saúde enganosos

Investigação do Guardian revela informações imprecisas em resumos

Homem olhando para o smartphone na cama

O jornal The Guardian revelou diversos casos de informações de saúde imprecisas nos Resumos de IA do Google. Fotografia: Caia Image/Alamy

Por Andrew Gregory para “The Guardian” 

Uma investigação do jornal The Guardian revelou que as pessoas estão sendo expostas a riscos devido a informações de saúde falsas e enganosas nos resumos de inteligência artificial do Google.

A empresa afirmou que seus Resumos de IA, que usam IA generativa para fornecer instantâneos de informações essenciais sobre um tópico ou questão, são úteis ” e “confiáveis ”.

No entanto, alguns dos resumos, que aparecem no topo dos resultados de pesquisa, forneciam informações de saúde imprecisas e colocavam as pessoas em risco de sofrer danos.

Em um caso que especialistas descreveram como “realmente perigoso”, o Google aconselhou erroneamente pessoas com câncer de pâncreas a evitarem alimentos ricos em gordura. Especialistas afirmaram que isso era exatamente o oposto do que deveria ser recomendado e pode aumentar o risco de morte dos pacientes pela doença.

Em outro exemplo “alarmante”, a empresa forneceu informações falsas sobre testes cruciais de função hepática, o que poderia levar pessoas com doenças hepáticas graves a acreditarem erroneamente que estão saudáveis.

As buscas no Google por respostas sobre exames de câncer em mulheres também forneceram informações “completamente erradas”, o que, segundo especialistas, pode levar as pessoas a ignorar sintomas reais.

Um porta-voz do Google afirmou que muitos dos exemplos de saúde compartilhados com eles eram “capturas de tela incompletas”, mas, pelo que puderam avaliar, continham links “para fontes conhecidas e confiáveis ​​e recomendavam a busca por aconselhamento especializado”.

A investigação do The Guardian surge em meio à crescente preocupação de que os dados de IA possam confundir os consumidores, que podem presumir que sejam confiáveis. Em novembro do ano passado, um estudo descobriu que chatbots de IA em diversas plataformas forneciam conselhos financeiros imprecisos , enquanto preocupações semelhantes foram levantadas em relação a resumos de notícias .

Sophie Randall, diretora do Patient Information Forum, que promove informações de saúde baseadas em evidências para pacientes, público em geral e profissionais de saúde, afirmou que os exemplos mostram que “os Resumos de IA do Google podem colocar informações de saúde imprecisas no topo das buscas online, representando um risco para a saúde das pessoas”.

Stephanie Parker, diretora da área digital da Marie Curie, uma instituição de caridade que oferece cuidados paliativos, afirmou: “As pessoas recorrem à internet em momentos de preocupação e crise. Se as informações que recebem forem imprecisas ou estiverem fora de contexto, isso pode prejudicar seriamente a sua saúde.”

O jornal The Guardian revelou diversos casos de informações de saúde imprecisas nos Resumos de IA do Google, após várias organizações de saúde, instituições de caridade e profissionais expressarem preocupação.

Anna Jewell, diretora de apoio, pesquisa e influência da Pancreatic Cancer UK, afirmou que aconselhar pacientes a evitarem alimentos ricos em gordura é “completamente incorreto”. Fazer isso “pode ​​ser muito perigoso e comprometer as chances de uma pessoa estar bem o suficiente para receber tratamento”, acrescentou.

Jewell afirmou: “A resposta da IA ​​do Google sugere que pessoas com câncer de pâncreas evitem alimentos ricos em gordura e fornece uma lista de exemplos. No entanto, se alguém seguisse o que o resultado da pesquisa indica, poderia não ingerir calorias suficientes, ter dificuldade para ganhar peso e não tolerar a quimioterapia ou uma cirurgia que poderia salvar sua vida.”

Digitar “qual é a faixa normal para exames de sangue do fígado” também forneceu informações enganosas, com uma grande quantidade de números, pouco contexto e sem levar em consideração a nacionalidade, o sexo, a etnia ou a idade dos pacientes.

Pamela Healy, diretora executiva da British Liver Trust, afirmou que os resumos gerados por IA são alarmantes. “Muitas pessoas com doenças hepáticas não apresentam sintomas até os estágios avançados, por isso é tão importante que façam exames. Mas o que as análises de IA do Google consideram ‘normal’ pode variar drasticamente do que é realmente considerado normal.”

“É perigoso porque significa que algumas pessoas com doenças hepáticas graves podem achar que têm um resultado normal e, portanto, não se preocuparem em comparecer a uma consulta de acompanhamento com o profissional de saúde.”

Uma busca por “sintomas e exames para câncer vaginal” listou o exame de Papanicolau como um exame para detectar câncer vaginal, o que está incorreto.

Athena Lamnisos, diretora executiva da instituição de caridade para o câncer Eve Appeal, disse: “Não é um teste para detectar câncer e certamente não é um teste para detectar câncer vaginal – essa informação está completamente errada. Receber informações erradas como essa pode levar alguém a não procurar atendimento médico para sintomas de câncer vaginal por ter tido um resultado negativo em um exame preventivo recente de câncer do colo do útero.”

“Também nos preocupou o fato de o resumo da IA ​​mudar quando realizávamos exatamente a mesma pesquisa, apresentando uma resposta diferente a cada vez, baseada em fontes distintas. Isso significa que as pessoas recebem uma resposta diferente dependendo de quando pesquisam, e isso não é aceitável.”

Lamnisos disse estar extremamente preocupada. “Alguns dos resultados que vimos são realmente preocupantes e podem potencialmente colocar as mulheres em perigo”, afirmou.

O jornal The Guardian também descobriu que o Google AI Overviews fornecia resultados enganosos para pesquisas sobre transtornos mentais. “Isso é extremamente preocupante para nós como instituição de caridade”, afirmou Stephen Buckley, chefe de informações da Mind.

Alguns dos resumos de IA para condições como psicose e distúrbios alimentares ofereciam “conselhos muito perigosos” e eram “incorretos, prejudiciais ou poderiam levar as pessoas a evitar procurar ajuda”, disse Buckley.

Alguns também deixaram de considerar contextos ou nuances importantes, acrescentou. “Eles podem sugerir o acesso a informações de sites inadequados e sabemos que, quando a IA resume informações, muitas vezes pode refletir preconceitos, estereótipos ou narrativas estigmatizantes preexistentes.”

O Google afirmou que a grande maioria de seus Resumos de IA eram factuais e úteis, e que realiza melhorias contínuas na qualidade. A taxa de precisão dos Resumos de IA estava em pé de igualdade com seus outros recursos de busca, como os snippets em destaque, que já existiam há mais de uma década, acrescentou a empresa.

A empresa também afirmou que, quando o AI Overviews interpretasse erroneamente o conteúdo da web ou ignorasse o contexto, tomaria as medidas cabíveis de acordo com suas políticas.

Um porta-voz do Google afirmou: “Investimos significativamente na qualidade das Visões Gerais de IA, principalmente em tópicos como saúde, e a grande maioria fornece informações precisas.”


Fonte: The Guardian

Presos na bolha da Inteligência Artificial

Cada vez mais dinheiro está sendo investido no setor de Inteligência Artificial (IA). No entanto, o entusiasmo atual não se reflete nos lucros das empresas que aplicam a tecnologia 

9.JPG

Uma avaliação exorbitante no mercado de ações que supera em muito os lucros anuais. A Nvidia não está sozinha nessa situação, e muitas empresas de IA estão no mesmo barco.

Por Dominic Iten para o “JungeWelt”

No final de outubro, o CEO da Nvidia, Jensen Huang, foi visto com o vice-presidente da Samsung Electronics e o CEO da Hyundai Motor Company desfrutando de cerveja e frango frito no restaurante Kkanbu Chicken, em Seul – uma refeição com consequências: em poucos dias, o preço das ações de restaurantes e fornecedores de frango frito sul-coreanos disparou em até 20%. Essa anedota ilustra o que todos já sabem: os investidores estão despejando dinheiro em tudo que tenha o rótulo de IA e em qualquer coisa remotamente relacionada ao hype da IA.

Bill Gates está agora traçando paralelos com a bolha da internet que arrastou metade da economia global para baixo por volta da virada do milênio. Naquela época, os investidores também apostaram na formação de novos mercados, ganhos de produtividade e lucros correspondentes em função dos avanços tecnológicos. Então, como agora, as expectativas infladas levaram a investimentos equivocados – também em um contexto de crise de acumulação de capital: por décadas, houve um excesso de capital disponível em comparação com a escassez de oportunidades reais de investimento lucrativas.

Excesso crônico de capital

Essa configuração constitui a base de uma economia de bolha que se tornou crônica desde a década de 1980. Como a acumulação real já não é suficiente para estabilizar as taxas de lucro, o crescimento é repetidamente forçado pela especulação: primeiro com a bolha das empresas ponto-com, depois com a bolha imobiliária e, finalmente, com a bolha de liquidez inflada pelos bancos centrais durante os anos de juros zero. Em vez de resolver a crise, essas bolhas apenas adiam as consequências do excesso de capital. A inteligência artificial surge como a mais recente tentativa de mascarar esse problema estrutural com um novo mito do lucro: uma promessa final e grandiosa de que o capital fictício acumulado ainda pode ser transformado em lucros reais.

Já em meados de outubro, o Banco da Inglaterra e o Fundo Monetário Internacional alertaram para uma forte correção de mercado. Pouco depois, o jornal NZZ ( Neue Zürcher Zeitung) observou que a euforia em torno da IA ​​estava levando os investidores a um frenesi perigoso; todos estavam cientes do perigo, “mas não conseguiam sair”. Isso é verdade: é um desastre anunciado — mas enquanto o dinheiro continuar fluindo, nenhuma empresa, nenhum investidor consegue se retirar. A IA, como tecnologia do futuro, é “grande demais para ser ignorada”. Enquanto todos os outros continuarem investindo, ninguém se atreve a sair — aqueles que o fizerem podem perder a oportunidade. Essas decisões individuais forçadas vincularam, de forma fatídica, os fluxos de capital globais e toda a economia dos EUA ao desenvolvimento do setor de IA.

A bolha da IA ​​é 17 vezes maior que a bolha das empresas ponto-com e quatro vezes maior que a bolha dos empréstimos subprime, cujo estouro desencadeou a crise financeira de 2008. Oitenta por cento dos lucros gerados no mercado de ações dos EUA em 2025 foram obtidos por empresas de IA. O mercado de ações impulsionado pela IA está atraindo dinheiro do mundo todo: no segundo trimestre de 2025, fundos estrangeiros no valor de US$ 290 bilhões foram investidos em ações americanas, representando cerca de 30% do mercado – um nível não visto desde a Segunda Guerra Mundial.

Tecnicamente imaturo

Todo o mundo dos investimentos aposta que a IA aumentará a produtividade do trabalho e, consequentemente, os retornos, mas até agora há poucas evidências que sustentem essa ideia. Projetos isolados de sucesso não conseguem disfarçar o fato de que as receitas não acompanham os investimentos e que muitos sistemas ainda são tecnicamente imaturos. De acordo com um relatório recente do Instituto de Tecnologia de Massachusetts (MIT), cerca de 95% das empresas ainda não observaram um aumento mensurável nos lucros ou nas receitas, apesar de investirem bilhões em IA. A consultoria de gestão McKinsey chegou a conclusões semelhantes: 80% das empresas não veem nenhuma contribuição significativa para seus lucros proveniente do uso de IA generativa.

Antes da etapa final

Nesse contexto, estabeleceu-se uma dinâmica que sugere um fim iminente, ou pelo menos uma transição para o estágio final da bolha. A especulação está presa em uma espécie de ciclo vicioso. Por meio de fundos de índice e outras estratégias passivas, quantias cada vez maiores de dinheiro fluem para algumas poucas empresas de IA. Suas avaliações estão subindo e o capital está prontamente disponível. Para sustentar essas altas expectativas com crescimento tangível, elas estão canalizando cada vez mais esse dinheiro barato em negócios entre si: estão transferindo bilhões de dólares em chips e serviços em nuvem umas para as outras – essencialmente comprando suas próprias receitas futuras.

Por exemplo, a Microsoft aumentou sua participação na OpenAI e, em troca, garantiu que a OpenAI comprasse aproximadamente US$ 250 bilhões em serviços de nuvem da plataforma Azure da Microsoft. A Amazon está adotando uma abordagem semelhante com a Anthropic: bilhões em investimentos na startup estão atrelados à promessa de obter poder computacional e chips especializados principalmente da Amazon Web Services nos próximos anos. Isso cria a impressão de um crescimento enorme, embora parte dele esteja simplesmente sendo redistribuída dentro do setor. A bolha se perpetua.


Fonte: JungeWelt

A Springer Nature amplia seu portfólio de ferramentas de integridade em pesquisa

Shutterstock.com/Andrii Zastrozhnov

Por Research Information 

A Springer Nature lançou uma nova ferramenta para ser usada em submissões a seus periódicos e livros, com o objetivo de detectar frases não padronizadas em manuscritos submetidos.

A ferramenta funciona detectando frases incomuns, construídas de forma confusa ou excessivamente complexas, como por exemplo, “consciência falsificada” em vez de “inteligência artificial”. Essas frases indicam que os autores utilizaram ferramentas de paráfrase para burlar a detecção de plágio. Caso a ferramenta identifique diversas frases atípicas, o trabalho será retirado.

A ferramenta foi desenvolvida utilizando o catálogo público de frases problemáticas do  Problematic Paper Screener  (PPS), criado por Guillaume Cabanac, Cyril Labbé e Alexander Magazinov, e passou por múltiplas rodadas de testes e validação para fornecer uma avaliação confiável de trabalhos submetidos em diversas disciplinas acadêmicas.  

Tamara Welschot, Chefe de Integridade em Pesquisa e Prevenção da Springer Nature, comentou: “Pesquisas fraudulentas são um desafio que afeta a todos nós na indústria editorial e precisamos trabalhar juntos para combatê-las. O desenvolvimento desta ferramenta foi um projeto de longa duração que envolveu estreita colaboração entre o grupo de integridade em pesquisa e diversas equipes de tecnologia da Springer Nature, com base em importantes trabalhos de investigadores de integridade da comunidade acadêmica.

“Agradecemos a Cabanac, Labbé e Magazinov por seus esforços no desenvolvimento do Problematic Paper Screener e por destacarem artigos com frases confusas para a comunidade editorial em geral. Nossa ferramenta identifica esses artigos problemáticos no momento da submissão, impedindo sua publicação e economizando o valioso tempo de editores e revisores  .”

A ferramenta de detecção de frases não padronizadas é a mais recente adição ao conjunto de soluções de integridade científica da Springer Nature e complementa as ferramentas já existentes: um detector de textos sem sentido,   o Snappshot  (que identifica imagens duplicadas ou manipuladas) e uma  ferramenta de verificação de referências irrelevantes.   Essas ferramentas foram desenvolvidas internamente como parte do compromisso contínuo da Springer Nature em garantir a integridade do trabalho que publica. Esse compromisso inclui investimentos em uma equipe de especialistas em rápido crescimento e no desenvolvimento contínuo de tecnologia.

A Springer Nature também se comprometeu a colaborar com a comunidade editorial em geral, como uma organização contribuinte do STM Integrity Hub , que facilita a troca de conhecimento e dados e desenvolve ferramentas tecnológicas compartilhadas, e para o qual a Springer Nature  doou seu detector de textos sem sentido para uso em todo o setor.


Fonte: Research Information

Estamos perdendo a cabeça?

Um novo documento de posicionamento alerta contra a adoção acrítica da IA ​​no meio acadêmico

Por Kent Anderson para o “The Geyser” 

Vale a pena ler um recente documento de posicionamento de um grupo internacional composto por especialistas da Holanda, EUA, Alemanha e Dinamarca como um antídoto ao exagero em torno da Inteligência Artificial (IA) ​​— que parece estar perdendo força por muitos dos motivos explorados no trabalho, outro sinal de que “ o inverno da IA ” pode estar chegando.

O público-alvo do artigo é o meio acadêmico, incluindo cientistas e profissionais da ciência, um grupo que inclui editores científicos:

Neste documento de posicionamento, explicamos por que as universidades devem levar a sério seu papel de a) combater o marketing, o exagero e os danos da indústria de tecnologia; e b) proteger o ensino superior, o pensamento crítico, a expertise, a liberdade acadêmica e a integridade científica.

Tópicos pesados, mas esses são os dias em que vivemos.

Os autores sabem o que fazem e começam com uma citação surpreendentemente boa de 1985:

A cultura da IA ​​é imperialista e busca expandir o reino da máquina.

Sim, isso definitivamente ainda é verdade…

No entanto, os autores têm bastante munição própria:

IA sempre foi uma frase de marketing que corrói a integridade científica e a discussão acadêmica por natureza, deixando a porta aberta para pseudociência, exclusão e vigilância.

Eles lançam luz sobre os problemas de definição da expressão “inteligência artificial”, observando que um coração artificial bombearia sangue, fazendo a função que imita. A IA não faz isso. Eles também observam que o termo “inteligência” é vago e carregado de um histórico de eugenia, racismo e capacitismo, portanto, quando aceitamos as alegações antropomórficas da IA, estamos nos tornando suscetíveis a sermos enganados por um sistema que tem problemas em sua essência.

Termos como “frames falsos” e “software lixo” me fizeram querer comemorar lendo o artigo, já que este último foi um que usei outro dia para responder a um entusiasta de IA — afinal, IAs não conseguem somar de forma confiável, jogar xadrez sem quebrar as regras do próprio sistema de armazenamento e assim por diante. Um lixo completo.

Descrevendo a IA como uma “tecnologia colonizadora” — o que significa que ela busca dominar qualquer campo em que seja usada — os autores rejeitam a “degradação e o desmantelamento da expertise e a desumanização dos acadêmicos”, observando que os proponentes da IA ​​rejeitam tacitamente a “autodeterminação livre das forças da indústria”.

Quanto ao uso da IA ​​como uma muleta, eles escrevem: “Os LLMs não melhoram a capacidade de escrita de alguém, assim como pegar um táxi não melhora a capacidade de dirigir de alguém”.

  • Em uma nota relacionada, um autor gracejou sobre Bluesky: “Correlação não é cognição”.

Os autores também sabem que precisamos seguir em frente, então eles oferecem cinco princípios para um futuro melhor com a IA ainda viável, mas colocada em seu lugar:

  • Honestidade  não use IA secretamente e não faça afirmações sobre ela que você não pode provar
  • Escrupulosidade  usar a IA apenas de formas científicas bem especificadas e validadas
  • Transparência  tornar toda a IA de código aberto e computacionalmente reproduzível
  • Independência garantir que qualquer pesquisa seja imparcial em relação às agendas das empresas de IA
  • Responsabilidade  não use produtos de IA que prejudiquem animais, pessoas ou o meio ambiente

Com o ceticismo em relação à IA aumentando desde o lançamento do GPT-5 e como ele caiu com um estrondo apesar do enorme hype, é ótimo ler um artigo de posicionamento escrito por pessoas que tratam isso como tecnologia, uma tecnologia que deve ser avaliada a todo momento como uma tecnologia — e não como uma tecnologia particularmente boa, compatível, eficiente, inevitável ou segura.

Para a academia, a IA é parte de um ataque tecno-utópico a todo o sistema. Não é uma ótima tecnologia nova projetada para nos ajudar a evitar tarefas domésticas. Como escreve uma de suas fontes: “Quando você terceiriza o pensamento, terceiriza o aprendizado”.

Espero que este documento sirva como um alerta.


Fonte: The Geyser

IA sinaliza centenas de periódicos científicos como potencialmente predatórios, revela estudo

Acompanhar a proliferação dos chamados “periódicos predatórios” tem sido uma tarefa árdua para os humanos, que optaram por usar IA para vasculhar uma lista de quase 15.200 periódicos de acesso aberto na internet, afirma Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação da Universidade do Colorado em Boulder.

Acompanhar a proliferação dos chamados "periódicos predatórios" tem sido uma tarefa árdua para os humanos, então a equipe recorreu à IA para analisar uma lista de quase 15.200 periódicos de acesso aberto na internet, afirma Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação da Universidade do Colorado em Boulder. Foto

Foto: Europa Press / Arquivo

Por La Jornada

Madri. Uma plataforma de inteligência artificial (IA) que busca periódicos científicos questionáveis ​​sinalizou mais de 1.400 como “potencialmente problemáticos” em uma lista de quase 15.200 periódicos de acesso aberto na internet.

O estudo, publicado na Science Advances e liderado pela Universidade do Colorado em Boulder, aborda uma tendência alarmante no mundo da pesquisa.

Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação, recebe lembretes por e-mail várias vezes por semana: essas mensagens de spam vêm de pessoas que se passam por editores de periódicos científicos, geralmente aqueles dos quais Acuña nunca ouviu falar, oferecendo-se para publicar seus artigos por uma taxa alta.

Essas publicações são às vezes chamadas de periódicos “predatórios”. Elas têm como alvo cientistas, convencendo-os a pagar centenas ou até milhares de dólares para publicar suas pesquisas sem a devida verificação.

“Tem havido um esforço crescente entre cientistas e organizações para verificar esses periódicos”, disse Acuña. “Mas é como brincar de caça-toupeiras. Você pega um, e logo aparece outro, geralmente da mesma empresa. Eles simplesmente criam um novo site e dão um novo nome.”

A nova ferramenta de IA de seu grupo filtra automaticamente periódicos científicos, avaliando seus sites e outros dados online com base em certos critérios: os periódicos têm um conselho editorial com pesquisadores renomados? Seus sites contêm muitos erros gramaticais? Acuña enfatiza que a ferramenta não é perfeita. Em última análise, ele acredita que especialistas humanos, e não máquinas, devem tomar a decisão final sobre a reputação de um periódico.

Mas, em um momento em que figuras proeminentes questionam a legitimidade da ciência, conter a proliferação de publicações questionáveis ​​se tornou mais importante do que nunca, disse ele.

“Na ciência, você não começa do zero. Você constrói com base na pesquisa de outros”, disse Acuña. “Então, se a fundação daquela torre desabar, tudo desaba.”

Extorsão

Quando cientistas submetem um novo estudo a uma revista de prestígio, ele normalmente passa por uma prática chamada revisão por pares. Especialistas externos leem o estudo e avaliam sua qualidade — ou, pelo menos, esse é o objetivo.

Um número crescente de empresas tem tentado burlar esse processo para lucrar. Em 2009, Jeffrey Beall, bibliotecário da Universidade do Colorado, cunhou o termo “periódicos predatórios” para descrever essas publicações.

Eles geralmente têm como alvo pesquisadores de fora dos Estados Unidos e da Europa, como na China, Índia e Irã, países onde as instituições científicas podem ser jovens e a pressão e os incentivos para que os pesquisadores publiquem são altos.

“Eles dizem: ‘Se você pagar US$ 500 ou US$ 1.000, nós revisaremos seu artigo'”, explicou Acuña. “Na verdade, eles não oferecem nenhum serviço. Eles apenas pegam o PDF e publicam no site deles.”

Vários grupos têm tentado coibir essa prática. Entre eles está uma organização sem fins lucrativos chamada Directory of Open Access Journals (DOAJ). Desde 2003, voluntários sinalizaram milhares de periódicos como suspeitos com base em seis critérios. (Publicações respeitáveis, por exemplo, frequentemente incluem uma descrição detalhada de suas políticas de revisão por pares em seus sites.)

Mas acompanhar a proliferação dessas publicações tem sido uma tarefa assustadora para os humanos.

Para acelerar o processo, Acuña e seus colegas recorreram à IA. A equipe treinou o sistema com dados do DOAJ e, em seguida, pediu à IA que examinasse uma lista de quase 15.200 periódicos de acesso aberto na internet.

Dessas postagens, a IA sinalizou inicialmente mais de 1.400 como potencialmente problemáticas.

Acuña e seus colegas pediram a especialistas humanos que revisassem um subconjunto dos periódicos suspeitos. A IA cometeu erros, segundo os humanos, sinalizando aproximadamente 350 publicações como questionáveis ​​quando provavelmente eram legítimas. Isso ainda deixou mais de 1.000 periódicos que os pesquisadores identificaram como questionáveis. “Acredito que isso deveria ser usado para ajudar a pré-selecionar um grande número de periódicos”, explicou ele. “Mas a análise final deveria ser feita por profissionais humanos.”

Não é uma caixa preta

Acuña acrescentou que os pesquisadores não queriam que seu sistema fosse uma “caixa preta” como outras plataformas de IA.

“Com o ChatGPT, por exemplo, muitas vezes é difícil entender por que ele sugere algo”, disse Acuña. “Tentamos tornar o nosso o mais fácil de entender possível.”

A equipe descobriu, por exemplo, que periódicos questionáveis ​​publicaram um número anormalmente alto de artigos. Eles também incluíam autores com mais afiliações do que periódicos mais legítimos, e autores que citavam suas próprias pesquisas, em vez das de outros cientistas, com frequência anormalmente alta.


Fonte: La Jornada

IA, a bolha

Is an AI Bubble Inevitable?

Quando se pensa que a crise sistêmica do Capitalismo não pode ficar mais ruim do que já está, a realidade vem mostrar que, como na primeira Lei de Murphy, que aquilo que há sempre espaço para piora.

Vejam abaixo extratos de uma reportagem assinada pela jornalista Tamires Vitorio para a revista Exame sobre o que está exarando no movimento das bolsas estadunidenses em relação às empresas de tecnologia que produzem a chamada Inteligência Artificial (IA).

Segundo Vitorio,  as gigantes de tecnologia não conseguiram escapar do mal-estar dos mercados em elação a elas nesta semana.  Isto ocorreu por causa dos temores de uma possível bolha, as ações das big techs, juntas, acumulam queda de 5,6% até esta quinta-feira, 21, enquanto o Nasdaq Composite, principal índice de tecnologia nos Estados Unidos, caiu 2,1% em dois dias. Assim, empresas como Palantir, Nvidia, Apple e Microsoft lideram as quedas, com investidores começando a questionar se as expectativas de crescimento do setor são, de fato, sustentáveis.

A repórter da Exame também informou que um estudo recente do Massachusetts Institute of Technology (MIT) intensificou as preocupações ao apontar que 95% das empresas que investem em inteligência artificial ainda não viram retornos sobre esses investimentos.  Segundo o MIT, a maioria das startups e empresas que estão na vanguarda da IA queimam mais dinheiro do que geram receita. Em média, de acordo com a pesquisa, as companhias gastam US$ 5 para cada US$ 1 de receita. Outro ponto destacado pelo MIT foi a dificuldade de muitos projetos de IA de se traduzirem em soluções concretas e escaláveis, com uma grande parte dos produtos de IA ainda não gerando nenhum faturamento. Em 2024, uma análise de 600 empresas B2B revelou que 42% dos produtos de IA ainda não tinham gerado receita alguma.

Por outro lado, a reportagem afirma que Sam Altman, CEO da OpenAI, dona do ChatGPT, também adicionou tensão ao mercado ao afirmar que a IA está “em uma bolha”. Altman destacou que, embora a IA tenha o potencial de ser uma revolução tecnológica, o entusiasmo atual cria expectativas inflacionadas sobre os retornos que essas empresas podem gerar no futuro. Para ele, a situação atual reflete uma “euforia” que pode não ser sustentada, já que o desenvolvimento de IA em larga escala ainda enfrenta grandes desafios e, por enquanto, os lucros não acompanham o ritmo das valorizações das empresas.

O resultado dessa sensação de bolha da IA (sensação?) é que às 07h42 desta 5a. feira, no horário de Brasília, as principais ações de tecnologia operavam em queda no pré-mercado dos EUA.

Resumo da ópera: todo o frenesi em torno da IA e seus impactos futuros sobre o trabalho pode não passar de uma bolha, uma ilusão.

Ao “publicar ou perecer”, precisamos acrescentar “IA ou morrer”?

 A revolução da cointeligência está remodelando silenciosamente o que significa excelência acadêmica – e quem pode alcançá-la, afirma Jakub Drábik

Fonte: sompong_tom/Getty Images 

Por Jakub Drábik para o “Times of Higher Education”

Há uma sensação particular de desânimo com a qual muitos centro-europeus certamente estão familiarizados. Ela surge quando, ao ouvir um acadêmico britânico ou americano em uma conferência ou seminário, você percebe que, não importa quantos livros leia ou quão sólidas sejam suas ideias, você nunca falará ou escreverá em inglês com tanto estilo ou confiança quanto eles.

Fluência nativa na língua franca acadêmica, educação de elite e imersão precoce nas normas acadêmicas lhes dão um tipo de vantagem estrutural — uma com a qual os outros aprendem a conviver, mas que raramente conseguem superar.  

Ou assim eu pensava.

Ultimamente, tenho experimentado IA (Inteligência Artificial) generativa – não para terceirizar meu pensamento, mas para aprimorar a forma como o comunico. O resultado? Minha escrita ficou mais rápida, clara e precisa. É uma sensação estranha: ainda sou eu, mas com uma espécie de exoesqueleto intelectual.

Minha experiência — que certamente está longe de ser única — levanta uma questão desconfortável: a regra de ouro da sobrevivência acadêmica — publicar ou perecer — foi agora complementada por outra — IA ou morrer?  

Não quero dizer que a IA substituirá os acadêmicos (pelo menos, espero que não). Mas ela pode remodelar fundamentalmente a excelência acadêmica, como ela é alcançada e quem tem o direito de apresentar um desempenho de alto nível. E isso merece uma análise mais aprofundada.

Uma das mudanças mais visíveis trazidas pelas ferramentas de cointeligência é a redistribuição silenciosa do trabalho cognitivo. Tarefas que antes exigiam um esforço meticuloso – reformular frases incômodas, traduzir ideias para o inglês acadêmico, elaborar esboços – agora podem ser semiautomatizadas. Clareza e velocidade não estão mais vinculadas apenas à habilidade pessoal ou à fluência linguística, mas à fluência com que você consegue direcionar e moldar a produção de grandes modelos de linguagem. E se o que atualmente chamamos de “excelência” é, em parte, a capacidade de produzir textos claros e persuasivos com eficiência, então a excelência tem o potencial de ser compartilhada de forma mais equitativa. 

No entanto, o impacto da IA ​​na equidade tem limites. Acadêmicos em instituições com poucos recursos podem ter dificuldades para acessar os mesmos benefícios. O mesmo pode acontecer com aqueles que trabalham em idiomas pouco suportados pelos modelos tradicionais de IA. E aqueles que não têm proficiência técnica ou que se incomodam com a ausência de normas claras para o uso da IA ​​também podem ficar para trás.

Em relação a essas normas, todos parecem concordar que o autor deve permanecer responsável pelo conteúdo, independentemente do nível de IA envolvido. Mas não há consenso sobre como integrar essas ferramentas ao processo de escrita ou como – ou mesmo se – reconhecer sua contribuição.  

Na minha opinião, a alfabetização em IA deve ser tratada não como um acréscimo técnico, mas como uma competência acadêmica essencial – a par da alfabetização informacional ou da avaliação de fontes. Algumas universidades, especialmente no Reino Unido e nos EUA, já aceitaram isso e estabeleceram programas de alfabetização em IA para ajudar colegas mais cautelosos ou sobrecarregados a acompanhar os pioneiros – a iniciativa da Universidade Estadual do Arizona é frequentemente citada.

Mas outras instituições, particularmente na Europa Central e Oriental, permanecem hesitantes, ainda considerando o uso da IA ​​como suspeito ou até mesmo antiético. Alguns periódicos e conselhos de ética também têm se mostrado cautelosos. E em meio a tanta incerteza, a política não oficial passou a ser: use se quiser, mas não fale sobre isso em voz alta – pelo menos, não em reuniões.

Mas se aceitarmos, como devemos, que o uso da IA ​​é inevitável, precisamos lidar com a questão fundamental do que, exatamente, ainda é “nosso” no trabalho que produzimos quando a formulação, a estrutura e até mesmo parte da estrutura intelectual são cogeradas com a IA.  

Como argumentaram filósofos da tecnologia, como Shannon Vallor ou David J. Gunkel , o conhecimento coproduzido desafia a estrutura profundamente individualista da autoria, na qual se baseia o prestígio acadêmico. Talvez também precisemos repensar os conceitos de originalidade e até mesmo de contribuição intelectual.

Centrá-los em síntese, julgamento e direção pode fazer sentido, mas não tenho respostas. Aliás, nem tenho certeza se compreendo completamente o terreno em que estamos entrando. Mas se não mantivermos os olhos abertos e nos envolvermos com as implicações de para onde estamos indo – éticas, pedagógicas e institucionais –, podemos descobrir que não apenas a distribuição, mas o próprio significado da excelência acadêmica já mudou, enquanto ainda estamos discutindo se deveria mudar.

Jakub Drábik é professor de história na Universidade Anglo-Americana de Praga e pesquisador sênior no Instituto de História da Academia Eslovaca de Ciências


Fonte: Times of Higher Education

Artigos falsos estão contaminando a literatura científica mundial, ameaçando o futuro da Ciência

Artigos falsos estão alimentando uma indústria corrupta e retardando pesquisas médicas legítimas que salvam vidas

Por Frederik Joelving, Cyril Labbé e Guillaume Cabanac, para The Conversation  

Na última década, entidades comerciais furtivas ao redor do mundo industrializaram a produção, venda e disseminação de pesquisas acadêmicas falsas, minando a literatura na qual todos, de médicos a engenheiros, confiam para tomar decisões sobre vidas humanas.

É extremamente difícil entender exatamente o tamanho do problema. Cerca de 55.000 artigos acadêmicos foram retirados até o momento , por uma variedade de razões, mas cientistas e empresas que examinam a literatura científica em busca de sinais reveladores de fraude estimam que há muito mais artigos falsos circulando — possivelmente até várias centenas de milhares . Essa pesquisa falsa pode confundir pesquisadores legítimos que devem percorrer equações densas, evidências, imagens e metodologias apenas para descobrir que foram inventadas.

Mesmo quando os artigos falsos são descobertos — geralmente por detetives amadores em seu próprio tempo — os periódicos acadêmicos geralmente demoram a retirar os artigos, permitindo que eles manchem o que muitos consideram sacrossanto: a vasta biblioteca global de trabalhos acadêmicos que apresentam novas ideias, analisam outras pesquisas e discutem descobertas.

Esses artigos falsos estão atrasando a pesquisa que ajudou milhões de pessoas com medicamentos e terapias que salvam vidas, do câncer à COVID-19. Dados de analistas mostram que campos relacionados ao câncer e à medicina são particularmente atingidos, enquanto áreas como filosofia e arte são menos afetadas. Alguns cientistas abandonaram o trabalho de suas vidas porque não conseguem acompanhar o ritmo, dada a quantidade de artigos falsos que precisam rebater.

O problema reflete uma mercantilização mundial da ciência. As universidades e seus financiadores de pesquisa há muito usam a publicação regular em periódicos acadêmicos como requisitos para promoções e segurança no emprego, gerando o mantra “publique ou pereça”.

Mas agora, fraudadores se infiltraram na indústria de publicação acadêmica para priorizar lucros em vez de bolsas de estudo. Equipados com proezas tecnológicas, agilidade e vastas redes de pesquisadores corruptos , eles estão produzindo artigos sobre tudo, desde genes obscuros até inteligência artificial na medicina .

Esses artigos são absorvidos pela biblioteca mundial de pesquisa mais rápido do que podem ser eliminados. Cerca de 119.000 artigos de periódicos acadêmicos e artigos de conferências são publicados globalmente a cada semana , ou mais de 6 milhões por ano. Os editores estimam que, na maioria dos periódicos, cerca de 2% dos artigos submetidos — mas não necessariamente publicados — são provavelmente falsos, embora esse número possa ser muito maior em algumas publicações.

Embora nenhum país seja imune a essa prática, ela é particularmente pronunciada em economias emergentes onde os recursos para fazer ciência genuína são limitados – e onde os governos, ansiosos para competir em escala global, promovem incentivos particularmente fortes de “publicar ou perecer”.

Como resultado, há uma movimentada economia subterrânea online para todas as coisas de publicação acadêmica. Autoria, citações, até mesmo editores de periódicos acadêmicos , estão à venda. Essa fraude é tão prevalente que tem seu próprio nome: fábricas de papel, uma frase que remonta a term-paper mills , onde os alunos trapaceiam fazendo com que outra pessoa escreva um trabalho de classe para eles.

O impacto sobre os editores é profundo. Em casos de alto perfil, artigos falsos podem prejudicar os resultados financeiros de um periódico . Índices científicos importantes – bancos de dados de publicações acadêmicas nos quais muitos pesquisadores confiam para fazer seu trabalho – podem remover periódicos que publicam muitos artigos comprometidos . Há uma crítica crescente de que editores legítimos poderiam fazer mais para rastrear e colocar na lista negra periódicos e autores que publicam regularmente artigos falsos que às vezes são pouco mais do que frases geradas por inteligência artificial encadeadas .

Para entender melhor o escopo, as ramificações e as possíveis soluções desse ataque metastático à ciência, nós — um editor colaborador do Retraction Watch , um site que relata retratações de artigos científicos e tópicos relacionados, e dois cientistas da computação da Université Toulouse III–Paul Sabatier e da Université Grenoble Alpes , na França, especializados em detectar publicações falsas — passamos seis meses investigando fábricas de papel.

Isso incluiu, por alguns de nós em diferentes momentos, vasculhar sites e postagens de mídia social, entrevistar editores, especialistas em integridade de pesquisa, cientistas, médicos, sociólogos e detetives científicos envolvidos na tarefa sisífica de limpar a literatura. Também envolveu, por alguns de nós, a triagem de artigos científicos em busca de sinais de falsificação.

O que surgiu é uma crise profunda que fez com que muitos pesquisadores e formuladores de políticas clamassem por uma nova maneira para as universidades e muitos governos avaliarem e recompensarem acadêmicos e profissionais de saúde em todo o mundo.

Assim como sites altamente tendenciosos, disfarçados para parecerem reportagens objetivas, estão corroendo o jornalismo baseado em evidências e ameaçando eleições , a ciência falsa está destruindo a base de conhecimento na qual a sociedade moderna se baseia.

Como parte do nosso trabalho de detecção dessas publicações falsas, o coautor Guillaume Cabanac desenvolveu o Problematic Paper Screener , que filtra 130 milhões de artigos acadêmicos novos e antigos toda semana, procurando por nove tipos de pistas de que um artigo pode ser falso ou conter erros. Uma pista-chave é uma frase torturada – uma formulação estranha gerada por software que substitui termos científicos comuns por sinônimos para evitar plágio direto de um artigo legítimo.

Frank Cackowski, da Universidade Estadual Wayne de Detroit, ficou confuso.

O oncologista estava estudando uma sequência de reações químicas em células para ver se elas poderiam ser um alvo para medicamentos contra o câncer de próstata. Um artigo de 2018 no American Journal of Cancer Research despertou seu interesse quando ele leu que uma molécula pouco conhecida chamada SNHG1 poderia interagir com as reações químicas que ele estava explorando. Ele e seu colega pesquisador da Wayne State, Steven Zielske, começaram uma série de experimentos para aprender mais sobre a ligação. Surpreendentemente, eles descobriram que não havia uma ligação.

Enquanto isso, Zielske começou a suspeitar do artigo. Dois gráficos mostrando resultados para diferentes linhas celulares eram idênticos, ele notou, o que “seria como despejar água em dois copos com os olhos fechados e os níveis saindo exatamente os mesmos”. Outro gráfico e uma tabela no artigo também continham inexplicavelmente dados idênticos.

Zielske descreveu suas dúvidas em uma postagem anônima em 2020 no PubPeer , um fórum online onde muitos cientistas relatam potenciais más condutas em pesquisas, e também contatou o editor do periódico. Pouco depois, o periódico retirou o artigo, citando “materiais e/ou dados falsificados”.

“A ciência já é difícil o suficiente se as pessoas estão realmente sendo genuínas e tentando fazer um trabalho real”, diz Cackowski, que também trabalha no Karmanos Cancer Institute em Michigan. “E é realmente frustrante desperdiçar seu tempo com base nas publicações fraudulentas de alguém.”

Dois homens sentados frente a frente em uma mesa cheia de papéis
Os cientistas Frank Cackowski e Steven Zielske, da Wayne State, realizaram experimentos baseados em um artigo que mais tarde descobriram conter dados falsos. Amy Sacka , CC BY-ND

Ele se preocupa que as publicações falsas estejam retardando “pesquisas legítimas que, no futuro, impactarão o atendimento ao paciente e o desenvolvimento de medicamentos”.

Os dois pesquisadores finalmente descobriram que o SNHG1 parecia desempenhar um papel no câncer de próstata , embora não da maneira que o artigo suspeito sugeria. Mas era um tópico difícil de estudar. Zielske vasculhou todos os estudos sobre SNHG1 e câncer — cerca de 150 artigos, quase todos de hospitais chineses — e concluiu que “a maioria” deles parecia falsa. Alguns relataram o uso de reagentes experimentais conhecidos como primers que eram “apenas rabiscos”, por exemplo, ou tinham como alvo um gene diferente do que o estudo dizia, de acordo com Zielske. Ele contatou vários periódicos, disse ele, mas recebeu pouca resposta. “Eu simplesmente parei de acompanhar.”

Os muitos artigos questionáveis ​​também dificultaram a obtenção de financiamento, disse Zielske. A primeira vez que ele enviou uma solicitação de bolsa para estudar SNHG1, ela foi rejeitada, com um revisor dizendo que “o campo estava lotado”, Zielske lembrou. No ano seguinte, ele explicou em sua solicitação como a maior parte da literatura provavelmente veio de fábricas de papel. Ele conseguiu a bolsa.

Hoje, disse Zielske, ele aborda novas pesquisas de forma diferente do que costumava: “Você não pode simplesmente ler um resumo e ter fé nele. Eu meio que presumo que tudo está errado.”

Periódicos acadêmicos legítimos avaliam artigos antes de serem publicados, fazendo com que outros pesquisadores da área os leiam cuidadosamente. Esse processo de revisão por pares é projetado para impedir que pesquisas falhas sejam disseminadas, mas está longe de ser perfeito.

Os revisores oferecem seu tempo como voluntários, geralmente assumem que a pesquisa é real e, portanto, não procuram sinais de fraude. E alguns editores podem tentar escolher revisores que considerem mais propensos a aceitar artigos , porque rejeitar um manuscrito pode significar perder milhares de dólares em taxas de publicação.

“Até mesmo bons e honestos revisores se tornaram apáticos” por causa do “volume de pesquisa ruim que passa pelo sistema”, disse Adam Day, que dirige a Clear Skies, uma empresa em Londres que desenvolve métodos baseados em dados para ajudar a identificar artigos e periódicos acadêmicos falsificados. “Qualquer editor pode contar ter visto relatórios onde é óbvio que o revisor não leu o artigo.”

Com a IA, eles não precisam fazer isso: uma nova pesquisa mostra que muitas avaliações agora são escritas pelo ChatGPT e ferramentas semelhantes.

Para agilizar a publicação do trabalho uns dos outros, alguns cientistas corruptos formam círculos de revisão por pares . As fábricas de papel podem até criar revisores por pares falsos se passando por cientistas reais para garantir que seus manuscritos cheguem à publicação. Outros subornam editores ou plantam agentes em conselhos editoriais de periódicos .

María de los Ángeles Oviedo-García, professora de marketing na Universidade de Sevilha, na Espanha, passa seu tempo livre caçando revisões por pares suspeitas de todas as áreas da ciência, centenas das quais ela sinalizou no PubPeer. Algumas dessas revisões têm o tamanho de um tuíte, outras pedem aos autores que citem o trabalho do revisor, mesmo que não tenha nada a ver com a ciência em questão, e muitas se assemelham muito a outras revisões por pares para estudos muito diferentes — evidência, aos olhos dela, do que ela chama de “ fábricas de revisão ”.

Captura de tela mostrando relatórios destacados
Comentário do PubPeer de María de los Ángeles Oviedo-García apontando que um relatório de revisão por pares é muito semelhante a dois outros relatórios. Ela também aponta que os autores e citações para todos os três são anônimos ou a mesma pessoa – ambas as marcas registradas de artigos falsos. Captura de tela por The Conversation , CC BY-ND

“Uma das lutas mais exigentes para mim é manter a fé na ciência”, diz Oviedo-García, que diz a seus alunos para procurar artigos no PubPeer antes de confiar muito neles. Sua pesquisa foi desacelerada, ela acrescenta, porque agora ela se sente compelida a procurar relatórios de revisão por pares para estudos que ela usa em seu trabalho. Muitas vezes não há nenhum, porque “muito poucos periódicos publicam esses relatórios de revisão”, diz Oviedo-García.

Um problema ‘absolutamente enorme’

Não está claro quando as fábricas de papel começaram a operar em escala. O primeiro artigo retratado devido à suspeita de envolvimento de tais agências foi publicado em 2004, de acordo com o Retraction Watch Database , que contém detalhes sobre dezenas de milhares de retratações. (O banco de dados é operado pelo The Center for Scientific Integrity, a organização sem fins lucrativos controladora do Retraction Watch.) Também não está claro exatamente quantos artigos de baixa qualidade, plagiados ou inventados as fábricas de papel geraram.

Mas o número provavelmente será significativo e crescente, dizem os especialistas. Uma fábrica de papel ligada à Rússia na Letônia, por exemplo, afirma em seu site ter publicado “mais de 12.650 artigos” desde 2012.

Uma análise de 53.000 artigos submetidos a seis editoras — mas não necessariamente publicados — descobriu que a proporção de artigos suspeitos variou de 2% a 46% entre os periódicos. E a editora americana Wiley, que retirou mais de 11.300 artigos comprometidos e fechou 19 periódicos fortemente afetados em sua antiga divisão Hindawi, disse recentemente que sua nova ferramenta de detecção de fábrica de papel sinaliza até 1 em 7 submissões .

Anúncio predominantemente azul com escrita branca, corações vermelhos e brancos e preço proposto destacado em amarelo
Anúncio do Facebook de uma fábrica de papel indiana vendendo coautoria de um artigo. Captura de tela por The Conversation

Day, da Clear Skies, estima que até 2% dos vários milhões de trabalhos científicos publicados em 2022 foram moídos. Alguns campos são mais problemáticos do que outros. O número está mais próximo de 3% em biologia e medicina, e em alguns subcampos, como câncer, pode ser muito maior, de acordo com Day. Apesar da conscientização crescente hoje, “não vejo nenhuma mudança significativa na tendência”, disse ele. Com métodos aprimorados de detecção, “qualquer estimativa que eu fizer agora será maior”.

O problema das fábricas de papel é “absolutamente enorme”, disse Sabina Alam , diretora de Ética e Integridade de Publicações na Taylor & Francis, uma grande editora acadêmica. Em 2019, nenhum dos 175 casos de ética que os editores escalaram para sua equipe era sobre fábricas de papel, disse Alam. Os casos de ética incluem submissões e artigos já publicados. Em 2023, “tivemos quase 4.000 casos”, disse ela. “E metade deles eram fábricas de papel.”

Jennifer Byrne, uma cientista australiana que agora lidera um grupo de pesquisa para melhorar a confiabilidade da pesquisa médica , apresentou depoimento para uma audiência do Comitê de Ciência, Espaço e Tecnologia da Câmara dos Representantes dos EUA em julho de 2022. Ela observou que 700, ou quase 6%, de 12.000 artigos de pesquisa sobre câncer examinados tinham erros que poderiam indicar envolvimento de uma fábrica de papel. Byrne fechou seu laboratório de pesquisa sobre câncer em 2017 porque os genes sobre os quais ela passou duas décadas pesquisando e escrevendo se tornaram alvo de um número enorme de artigos falsos. Um cientista desonesto falsificando dados é uma coisa, ela disse, mas uma fábrica de papel poderia produzir dezenas de estudos falsos no tempo que sua equipe levou para publicar um único legítimo.

“A ameaça das fábricas de papel à publicação científica e à integridade não tem paralelo em minha carreira científica de 30 anos… Somente no campo da ciência genética humana, o número de artigos potencialmente fraudulentos pode exceder 100.000 artigos originais”, ela escreveu aos legisladores, acrescentando: “Essa estimativa pode parecer chocante, mas provavelmente é conservadora.”

Em uma área da pesquisa genética – o estudo do RNA não codificador em diferentes tipos de câncer – “Estamos falando de mais de 50% dos artigos publicados são de moinhos”, disse Byrne. “É como nadar em lixo.”

Em 2022, Byrne e colegas, incluindo dois de nós, descobriram que pesquisas genéticas suspeitas, apesar de não terem impacto imediato no atendimento ao paciente, ainda informam o trabalho de outros cientistas , incluindo aqueles que conduzem ensaios clínicos. Os editores, no entanto, geralmente demoram a retratar artigos contaminados , mesmo quando alertados sobre sinais óbvios de fraude. Descobrimos que 97% dos 712 artigos problemáticos de pesquisa genética que identificamos permaneceram sem correção na literatura.

Quando retratações acontecem, geralmente é graças aos esforços de uma pequena comunidade internacional de detetives amadores como Oviedo-García e aqueles que postam no PubPeer.

Jillian Goldfarb, professora associada de engenharia química e biomolecular na Universidade Cornell e ex-editora do periódico Fuel, da Elsevier, lamenta a forma como a editora lidou com a ameaça das fábricas de papel.

“Eu estava avaliando mais de 50 artigos todos os dias”, ela disse em uma entrevista por e-mail. Embora ela tivesse tecnologia para detectar plágio, envios duplicados e alterações suspeitas de autores, não era o suficiente. “Não é razoável pensar que um editor — para quem esse não é geralmente seu trabalho de tempo integral — pode pegar essas coisas lendo 50 artigos por vez. A falta de tempo, mais a pressão dos editores para aumentar as taxas de envio e citações e diminuir o tempo de revisão, coloca os editores em uma situação impossível.”

Em outubro de 2023, Goldfarb renunciou ao cargo de editora da Fuel. Em uma publicação no LinkedIn sobre sua decisão, ela citou a falha da empresa em dar andamento a dezenas de artigos potenciais de fábricas de papel que ela havia sinalizado; sua contratação de um editor principal que supostamente “se envolveu em moinhos de papel e citações”; e sua proposta de candidatos para cargos editoriais “com perfis PubPeer mais longos e mais retratações do que a maioria das pessoas tem artigos em seus currículos, e cujos nomes aparecem como autores em sites de artigos para venda”.

“Isso me diz, à nossa comunidade e ao público, que eles valorizam mais a quantidade de artigos e o lucro do que a ciência”, escreveu Goldfarb.

Em resposta a perguntas sobre a renúncia de Goldfarb, um porta-voz da Elsevier disse ao The Conversation que ela “leva todas as alegações sobre má conduta em pesquisa em nossos periódicos muito a sério” e está investigando as alegações de Goldfarb. O porta-voz acrescentou que a equipe editorial da Fuel tem “trabalhado para fazer outras mudanças no periódico para beneficiar autores e leitores”.

Não é assim que funciona, amigo

Propostas de negócios acumulavam-se há anos na caixa de entrada de João de Deus Barreto Segundo, editor-chefe de seis periódicos publicados pela Escola Bahiana de Medicina e Saúde Pública em Salvador, Brasil. Várias vinham de editoras suspeitas em busca de novos periódicos para adicionar aos seus portfólios. Outras vinham de acadêmicos sugerindo acordos duvidosos ou oferecendo propinas para publicar seus artigos.

Em um e-mail de fevereiro de 2024, um professor assistente de economia na Polônia explicou que ele dirigia uma empresa que trabalhava com universidades europeias. “Você estaria interessado em colaborar na publicação de artigos científicos por cientistas que colaboram comigo?”, perguntou Artur Borcuch . “Então discutiremos possíveis detalhes e condições financeiras .”

Um administrador universitário no Iraque foi mais franco: “Como incentivo, estou preparado para oferecer uma bolsa de US$ 500 para cada artigo aceito e submetido ao seu estimado periódico”, escreveu Ahmed Alkhayyat , chefe do Centro Universitário Islâmico de Pesquisa Científica, em Najaf, e gerente do “ranking mundial” da escola.

“Não é assim que funciona, amigo”, retrucou Barreto Segundo.

Em e-mail para The Conversation, Borcuch negou qualquer intenção imprópria. “Meu papel é mediar os aspectos técnicos e processuais da publicação de um artigo”, disse Borcuch, acrescentando que, ao trabalhar com vários cientistas, ele “solicitaria um desconto do escritório editorial em nome deles”. Informado de que a editora brasileira não tinha taxas de publicação, Borcuch disse que um “erro” ocorreu porque um “funcionário” enviou o e-mail para ele “para diferentes periódicos”.

Os periódicos acadêmicos têm diferentes modelos de pagamento. Muitos são baseados em assinatura e não cobram dos autores pela publicação, mas têm taxas pesadas para a leitura de artigos. Bibliotecas e universidades também pagam grandes somas pelo acesso.

Um modelo de acesso aberto de rápido crescimento – onde qualquer um pode ler o artigo – inclui taxas de publicação caras cobradas dos autores para compensar a perda de receita na venda dos artigos. Esses pagamentos não têm a intenção de influenciar se um manuscrito é aceito ou não.

A Faculdade Bahiana de Medicina e Saúde Pública, entre outras, não cobra dos autores ou leitores, mas o empregador de Barreto Segundo é um pequeno player no negócio de publicação acadêmica, que arrecada perto de US$ 30 bilhões por ano com margens de lucro de até 40% . Editoras acadêmicas ganham dinheiro principalmente com taxas de assinatura de instituições como bibliotecas e universidades, pagamentos individuais para acessar artigos com paywall e taxas de acesso aberto pagas por autores para garantir que seus artigos sejam gratuitos para qualquer um ler.

A indústria é lucrativa o suficiente para atrair atores inescrupulosos, ansiosos por encontrar uma maneira de desviar parte dessa receita.

Ahmed Torad , um palestrante da Universidade Kafr El Sheikh no Egito e editor-chefe do Egyptian Journal of Physiotherapy , pediu um retorno de 30% para cada artigo que ele repassasse à editora brasileira. “Essa comissão será calculada com base nas taxas de publicação geradas pelos manuscritos que eu enviar”, escreveu Torad, observando que ele se especializou “em conectar pesquisadores e autores com periódicos adequados para publicação”.

Captura de tela de texto com fundo amarelo
Trecho do e-mail de Ahmed Torad sugerindo um suborno. Captura de tela por The Conversation , CC BY-ND

Aparentemente, ele não percebeu que a Faculdade Bahiana de Medicina e Saúde Pública não cobra taxas de autoria.

Assim como Borcuch, Alkhayyat negou qualquer intenção imprópria. Ele disse que houve um “mal-entendido” por parte do editor, explicando que o pagamento que ele ofereceu era para cobrir supostas taxas de processamento de artigos. “Alguns periódicos pedem dinheiro. Então isso é normal”, disse Alkhayyat.

Torad explicou que havia enviado sua oferta de artigos de origem em troca de uma comissão para cerca de 280 periódicos, mas não havia forçado ninguém a aceitar os manuscritos. Alguns haviam se recusado a aceitar sua proposta, ele disse, apesar de cobrar regularmente milhares de dólares dos autores para publicar. Ele sugeriu que a comunidade científica não se sentia confortável em admitir que a publicação acadêmica se tornou um negócio como qualquer outro, mesmo que seja “óbvio para muitos cientistas”.

Os avanços indesejados tiveram como alvo um dos periódicos administrados por Barreto Segundo, o Journal of Physiotherapy Research, logo após ele ter sido indexado no Scopus, um banco de dados de resumos e citações de propriedade da editora Elsevier.

Junto com o Web of Science da Clarivate, o Scopus se tornou um importante selo de qualidade para publicações acadêmicas globalmente. Artigos em periódicos indexados são dinheiro no banco para seus autores: eles ajudam a garantir empregos, promoções, financiamento e, em alguns países, até mesmo acionar recompensas em dinheiro. Para acadêmicos ou médicos em países mais pobres, eles podem ser uma passagem para o norte global .

Considere o Egito, um país atormentado  por  ensaios clínicos duvidosos . As universidades de lá geralmente pagam grandes somas aos funcionários por publicações internacionais, com o valor dependendo do fator de impacto do periódico . Uma estrutura de incentivo semelhante está embutida em regulamentações nacionais: para ganhar o posto de professor titular, por exemplo, os candidatos devem ter pelo menos cinco publicações em dois anos, de acordo com o Conselho Supremo de Universidades do Egito. Estudos em periódicos indexados no Scopus ou Web of Science não apenas recebem pontos extras, mas também são isentos de um exame mais aprofundado quando os candidatos são avaliados. Quanto maior o fator de impacto de uma publicação, mais pontos os estudos recebem.

Com tanto foco em métricas, tornou-se comum para pesquisadores egípcios cortarem custos, de acordo com um médico no Cairo que pediu anonimato por medo de retaliação. A autoria é frequentemente presenteada a colegas que depois retribuem o favor, ou estudos podem ser criados do nada. Às vezes, um artigo legítimo existente é escolhido da literatura, e detalhes importantes como o tipo de doença ou cirurgia são então alterados e os números ligeiramente modificados, explicou a fonte.

Isso afeta as diretrizes clínicas e os cuidados médicos, “então é uma pena”, disse o médico.

A ivermectina, um medicamento usado para tratar parasitas em animais e humanos, é um exemplo. Quando alguns estudos mostraram que era eficaz contra a COVID-19, a ivermectina foi aclamada como uma “droga milagrosa” no início da pandemia. As prescrições aumentaram e, junto com elas, as ligações para os centros de controle de intoxicações dos EUA ; um homem passou nove dias no hospital após tomar uma formulação injetável do medicamento que era destinada ao gado, de acordo com os Centros de Controle e Prevenção de Doenças. Como se viu, quase todas as pesquisas que mostraram um efeito positivo na COVID-19 tinham indícios de falsificação , a BBC e outros relataram – incluindo um estudo egípcio agora retirado . Sem nenhum benefício aparente , os pacientes ficaram apenas com efeitos colaterais.

A má conduta em pesquisa não se limita às economias emergentes, tendo recentemente derrubado presidentes de universidades cientistas de ponta em agências governamentais nos Estados Unidos. Nem a ênfase em publicações. Na Noruega, por exemplo, o governo aloca financiamento para institutos de pesquisa, hospitais e universidades com base em quantos trabalhos acadêmicos os funcionários publicam e em quais periódicos. O país decidiu interromper parcialmente essa prática a partir de 2025.

“Há um enorme incentivo acadêmico e motivo de lucro”, diz Lisa Bero, professora de medicina e saúde pública no Campus Médico Anschutz da Universidade do Colorado e editora sênior de integridade de pesquisa na Cochrane Collaboration, uma organização internacional sem fins lucrativos que produz revisões de evidências sobre tratamentos médicos. “Vejo isso em todas as instituições em que trabalhei.”

Mas no sul global, o decreto de publicar ou perecer esbarra em infraestruturas de pesquisa e sistemas educacionais subdesenvolvidos, deixando os cientistas em apuros. Para um Ph.D., o médico do Cairo que pediu anonimato conduziu um ensaio clínico inteiro sozinho – desde a compra do medicamento do estudo até a randomização de pacientes, coleta e análise de dados e pagamento de taxas de processamento de artigos. Em nações mais ricas, equipes inteiras trabalham em tais estudos, com a conta facilmente chegando a centenas de milhares de dólares.

“A pesquisa é bem desafiadora aqui”, disse o médico. É por isso que os cientistas “tentam manipular e encontrar maneiras mais fáceis para que eles façam o trabalho.”

As instituições também manipularam o sistema com um olho nas classificações internacionais. Em 2011, a revista Science descreveu como pesquisadores prolíficos nos Estados Unidos e na Europa receberam ofertas de pagamentos pesados ​​para listar universidades sauditas como afiliações secundárias em artigos. E em 2023, a revista, em colaboração com a Retraction Watch, descobriu um estratagema massivo de autocitação por uma escola de odontologia de primeira linha na Índia que forçou alunos de graduação a publicar artigos referenciando trabalhos do corpo docente.

A raiz – e as soluções

Esses esquemas desagradáveis ​​podem ser rastreados até a introdução de métricas baseadas em desempenho na academia, um desenvolvimento impulsionado pelo movimentNew Public Management que varreu o mundo ocidental na década de 1980, de acordo com o sociólogo canadense da ciência Yves Gingras, da Université du Québec à Montréal. Quando universidades e instituições públicas adotaram a gestão corporativa, os artigos científicos se tornaram “unidades contábeis” usadas para avaliar e recompensar a produtividade científica em vez de “unidades de conhecimento” que avançam nossa percepção do mundo ao nosso redor, escreveu Gingras .

Essa transformação levou muitos pesquisadores a competir em números em vez de conteúdo, o que tornou as métricas de publicação medidas ruins de proeza acadêmica. Como Gingras mostrou, o controverso microbiologista francês Didier Raoult, que agora tem mais de uma dúzia de retratações em seu nome, tem um índice h – uma medida que combina números de publicação e citação – que é duas vezes maior que o de Albert Einstein – “prova de que o índice é absurdo”, disse Gingras.

Pior, uma espécie de inflação científica, ou “ bolha cienciométrica ”, ocorreu, com cada nova publicação representando um incremento cada vez menor no conhecimento. “Publicamos cada vez mais artigos superficiais, publicamos artigos que precisam ser corrigidos e pressionamos as pessoas a cometer fraudes”, disse Gingras.

Em termos de perspectivas de carreira de acadêmicos individuais, também, o valor médio de uma publicação despencou, desencadeando um aumento no número de autores hiperprolíficos . Um dos casos mais notórios é o do químico espanhol Rafael Luque, que em 2023 teria publicado um estudo a cada 37 horas .

Em 2024, Landon Halloran, um geocientista da Universidade de Neuchâtel, na Suíça, recebeu uma candidatura incomum para uma vaga em seu laboratório. Um pesquisador com doutorado da China havia enviado seu currículo. Aos 31 anos, o candidato havia acumulado 160 publicações em periódicos indexados pela Scopus, 62 delas somente em 2022, o mesmo ano em que obteve seu doutorado. Embora o candidato não fosse o único “com uma produção suspeitamente alta”, de acordo com Halloran, ele se destacou. “Meus colegas e eu nunca encontramos nada parecido nas geociências”, disse ele.

De acordo com insiders e editores da indústria, há mais conscientização agora sobre ameaças de fábricas de papel e outros atores ruins. Alguns periódicos verificam rotineiramente se há fraude de imagem . Uma imagem ruim gerada por IA aparecendo em um artigo pode ser um sinal de um cientista tomando um atalho mal aconselhado, ou de uma fábrica de papel.

A Cochrane Collaboration tem uma política que exclui estudos suspeitos de suas análises de evidências médicas. A organização também vem desenvolvendo uma ferramenta para ajudar seus revisores a identificar ensaios médicos problemáticos, assim como os editores começaram a selecionar submissões e compartilhar dados e tecnologias entre si para combater fraudes.

Conjunto de seis imagens gráficas que lembram pulmões, bolas com espinhos e frascos cheios de pequenas bolas redondas
Esta imagem, gerada por IA, é um jargão visual de conceitos sobre transporte e administração de medicamentos no corpo. Por exemplo, a figura superior esquerda é uma mistura sem sentido de uma seringa, um inalador e pílulas. E a molécula transportadora sensível ao pH na parte inferior esquerda é enorme, rivalizando com o tamanho dos pulmões. Depois que cientistas detetives apontaram que a imagem publicada não fazia sentido, o periódico emitiu uma correção. Captura de tela por The Conversation , CC BY-ND
Conjunto de seis imagens gráficas de pulmões e moléculas
Este gráfico é a imagem corrigida que substituiu a imagem de IA acima. Neste caso, de acordo com a correção, o periódico determinou que o artigo era legítimo, mas os cientistas usaram IA para gerar a imagem que o descrevia. Captura de tela por The Conversation , CC BY-ND

“As pessoas estão percebendo, tipo, uau, isso está acontecendo na minha área, está acontecendo na sua área”, disse Bero, da Cochrane Collaboration. “Então, realmente precisamos nos coordenar e, você sabe, desenvolver um método e um plano geral para acabar com essas coisas.”

O que fez a Taylor & Francis prestar atenção, de acordo com Alam, o diretor de Ética e Integridade de Publicações, foi uma investigação de 2020 de uma fábrica de papel chinesa pela detetive Elisabeth Bik e três de seus colegas que atendem pelos pseudônimos Smut Clyde, Morty e Tiger BB8. Com 76 artigos comprometidos, a Artificial Cells, Nanomedicine, and Biotechnology da empresa sediada no Reino Unido foi o periódico mais afetado identificado na investigação.

“Isso abriu um campo minado”, diz Alam, que também copreside o United2Act , um projeto lançado em 2023 que reúne editores, pesquisadores e detetives na luta contra as fábricas de papel. “Foi a primeira vez que percebemos que as imagens de stock estavam sendo usadas essencialmente para representar experimentos.”

A Taylor & Francis decidiu auditar as centenas de artigos em seu portfólio que continham tipos semelhantes de imagens. Ela dobrou a equipe da Alam, que agora tem 14,5 posições dedicadas a fazer investigações, e também começou a monitorar as taxas de envio. As fábricas de papel, ao que parecia, não eram clientes exigentes.

“O que eles estão tentando fazer é encontrar um portão e, se conseguirem entrar, eles simplesmente começam a bater nas submissões”, disse Alam. Setenta e seis artigos falsos de repente pareciam uma gota no oceano. Em um periódico da Taylor & Francis, por exemplo, a equipe de Alam identificou quase 1.000 manuscritos que traziam todas as marcas de terem vindo de uma fábrica, disse ela.

E em 2023, rejeitou cerca de 300 propostas duvidosas para edições especiais. “Nós bloqueamos um monte de coisas de passarem”, disse Alam.

Verificadores de fraude

Uma pequena indústria de startups de tecnologia surgiu para ajudar editores, pesquisadores e instituições a identificar potenciais fraudes. O site Argos , lançado em setembro de 2024 pela Scitility , um serviço de alerta sediado em Sparks, Nevada, permite que autores verifiquem se novos colaboradores são rastreados por retratações ou preocupações com má conduta. Ele sinalizou dezenas de milhares de artigos de “alto risco” , de acordo com o periódico Nature.

Vermelho rejeitado carimbado em papel branco
Ferramentas de verificação de fraudes examinam documentos para apontar aqueles que devem ser verificados manualmente e possivelmente rejeitados. solidcolours/iStock via Getty Images

Morressier, uma empresa de conferências e comunicações científicas sediada em Berlim, “ visa restaurar a confiança na ciência ao melhorar a maneira como a pesquisa científica é publicada ”, de acordo com seu site. Ela oferece ferramentas de integridade que visam todo o ciclo de vida da pesquisa. Outras novas ferramentas de verificação de papel incluem Signals , da Research Signals sediada em Londres, e Papermill Alarm da Clear Skies .

Os fraudadores também não ficaram parados. Em 2022, quando a Clear Skies lançou o Papermill Alarm, o primeiro acadêmico a perguntar sobre a nova ferramenta foi um moinho de papel, de acordo com Day. A pessoa queria acesso para poder verificar seus artigos antes de enviá-los para as editoras, disse Day. “As fábricas de papel provaram ser adaptáveis ​​e também bastante rápidas no início.”

Dada a atual corrida armamentista, Alam reconhece que a luta contra as fábricas de papel não será vencida enquanto a crescente demanda por seus produtos permanecer.

De acordo com uma análise da Nature , a taxa de retração triplicou de 2012 a 2022 para perto de 0,02%, ou cerca de 1 em 5.000 artigos. Então, quase dobrou em 2023, em grande parte por causa dodesastre Hindawi da Wiley . A publicação comercial de hoje é parte do problema, disse Byrne. Por um lado, limpar a literatura é um empreendimento vasto e caro, sem nenhuma vantagem financeira direta. “Jornais e editoras nunca serão capazes, no momento, de corrigir a literatura na escala e na pontualidade necessárias para resolver o problema da fábrica de papel”, disse Byrne. “Ou temos que monetizar as correções de forma que as editoras sejam pagas por seu trabalho, ou esquecer as editoras e fazer isso nós mesmos.”

Mas isso ainda não consertaria o viés fundamental embutido na publicação com fins lucrativos: os periódicos não são pagos para rejeitar artigos. “Nós os pagamos para aceitar artigos”, disse Bodo Stern, ex-editor do periódico Cell e chefe de Iniciativas Estratégicas do Howard Hughes Medical Institute, uma organização de pesquisa sem fins lucrativos e grande financiadora em Chevy Chase, Maryland. “Quero dizer, o que você acha que os periódicos vão fazer? Eles vão aceitar artigos.”

Com mais de 50.000 periódicos no mercado, mesmo que alguns estejam se esforçando para acertar, artigos ruins que são vendidos por tempo suficiente eventualmente encontram um lar, Stern acrescentou. “Esse sistema não pode funcionar como um mecanismo de controle de qualidade”, disse ele. “Temos tantos periódicos que tudo pode ser publicado.”

Na visão de Stern, o caminho a seguir é parar de pagar periódicos para aceitar artigos e começar a vê-los como serviços públicos que atendem a um bem maior. “Devemos pagar por mecanismos de controle de qualidade transparentes e rigorosos”, disse ele.

A revisão por pares, enquanto isso, “deve ser reconhecida como um verdadeiro produto acadêmico, assim como o artigo original, porque os autores do artigo e os revisores por pares estão usando as mesmas habilidades”, disse Stern. Da mesma forma, os periódicos devem tornar todos os relatórios de revisão por pares publicamente disponíveis, mesmo para manuscritos que eles rejeitam. “Quando eles fazem o controle de qualidade, eles não podem simplesmente rejeitar o artigo e então deixá-lo ser publicado em outro lugar”, disse Stern. “Esse não é um bom serviço.”

Melhores medidas

Stern não é o primeiro cientista a lamentar o foco excessivo na bibliometria. “Precisamos de menos pesquisa, melhor pesquisa e pesquisa feita pelos motivos certos”, escreveu o falecido estatístico Douglas G. Altman em um editorial muito citado de 1994. “Abandonar o uso do número de publicações como uma medida de habilidade seria um começo.”

Quase duas décadas depois, um grupo de cerca de 150 cientistas e 75 organizações científicas divulgou a Declaração de São Francisco sobre Avaliação de Pesquisa , ou DORA, desencorajando o uso do fator de impacto do periódico e outras medidas como proxies para qualidade. A declaração de 2013 já foi assinada por mais de 25.000 indivíduos e organizações em 165 países.

Apesar da declaração, as métricas continuam sendo amplamente utilizadas hoje, e os cientistas dizem que há um novo senso de urgência.

“Estamos chegando ao ponto em que as pessoas realmente sentem que precisam fazer alguma coisa” por causa do grande número de artigos falsos, disse Richard Sever, diretor assistente da Cold Spring Harbor Laboratory Press, em Nova York, e cofundador dos servidores de pré-impressão bioRxiv e medRxiv.

Stern e seus colegas tentaram fazer melhorias em sua instituição. Pesquisadores que desejam renovar seus contratos de sete anos há muito tempo são obrigados a escrever um pequeno parágrafo descrevendo a importância de seus principais resultados. Desde o final de 2023, eles também são solicitados a remover nomes de periódicos de suas inscrições.

Dessa forma, “você nunca pode fazer o que todos os revisores fazem – eu já fiz – olhar a bibliografia e em apenas um segundo decidir, ‘Oh, essa pessoa foi produtiva porque publicou muitos artigos e eles foram publicados nos periódicos certos’”, diz Stern. “O que importa é: isso realmente fez a diferença?”

Mudar o foco de métricas de desempenho convenientes parece possível não apenas para instituições privadas ricas como o Howard Hughes Medical Institute, mas também para grandes financiadores governamentais. Na Austrália, por exemplo, o National Health and Medical Research Council lançou em 2022 a política “ top 10 em 10 ”, visando, em parte, “valorizar a qualidade da pesquisa em vez da quantidade de publicações”.

Em vez de fornecer sua bibliografia completa, a agência, que avalia milhares de solicitações de subsídios todos os anos, pediu aos pesquisadores que listassem no máximo 10 publicações da última década e explicassem a contribuição que cada uma delas havia feito para a ciência. De acordo com um relatório de avaliação de abril de 2024, quase três quartos dos revisores de subsídios disseram que a nova política permitiu que eles se concentrassem mais na qualidade da pesquisa do que na quantidade. E mais da metade disse que ela reduziu o tempo gasto em cada solicitação.

Gingras, o sociólogo canadense, defende dar aos cientistas o tempo de que precisam para produzir um trabalho que importe, em vez de um fluxo jorrando de publicações. Ele é signatário do Slow Science Manifesto : “Quando você obtém slow science, posso prever que o número de corrigendas, o número de retratações, diminuirá”, ele diz.

Em um ponto, Gingras estava envolvido na avaliação de uma organização de pesquisa cuja missão era melhorar a segurança no local de trabalho. Um funcionário apresentou seu trabalho. “Ele tinha uma frase que nunca esquecerei”, lembra Gingras. O funcionário começou dizendo: “’Sabe, tenho orgulho de uma coisa: meu índice h é zero.’ E foi brilhante.” O cientista havia desenvolvido uma tecnologia que prevenia quedas fatais entre trabalhadores da construção. “Ele disse: ‘Isso é útil, e esse é meu trabalho.’ Eu disse: ‘Bravo!’”

Saiba mais sobre como o Problematic Paper Screener descobre documentos comprometidos.


Fonte: The Conversation

DeepSeek, o modelo de IA barato e aberto da China, agita comunidade científica

O DeepSeek-R1 executa tarefas de raciocínio no mesmo nível que o o1 da OpenAI — e está aberto para análise por pesquisadores

A empresa chinesa DeepSeek estreou uma versão de seu grande modelo de linguagem no ano passado. Crédito: Koshiro K/Alamy 

Por Elizabeth Gibney para a “Nature”

Um grande modelo de linguagem desenvolvido na China, chamado DeepSeek-R1, está entusiasmando os cientistas como um rival acessível e aberto aos modelos de “raciocínio” como o o1 da OpenAI.

Esses modelos geram respostas passo a passo, em um processo análogo ao raciocínio humano. Isso os torna mais aptos do que os modelos de linguagem anteriores para resolver problemas científicos, e significa que eles podem ser úteis em pesquisas . Os testes iniciais do R1, lançado em 20 de janeiro, mostram que seu desempenho em certas tarefas em química, matemática e codificação está no mesmo nível do o1 — que impressionou os pesquisadores quando foi lançado pela OpenAI em setembro .

“Isso é selvagem e totalmente inesperado”, escreveu Elvis Saravia, pesquisador de inteligência artificial (IA) e cofundador da empresa de consultoria em IA sediada no Reino Unido, DAIR.AI, no X.

O R1 se destaca por outro motivo. A DeepSeek, a start-up em Hangzhou que construiu o modelo, o lançou como ‘open-weight’, o que significa que os pesquisadores podem estudar e construir sobre o algoritmo. Publicado sob uma licença do MIT, o modelo pode ser reutilizado livremente, mas não é considerado totalmente de código aberto, porque seus dados de treinamento não foram disponibilizados.

“A abertura do DeepSeek é bastante notável”, diz Mario Krenn, líder do Artificial Scientist Lab no Instituto Max Planck para a Ciência da Luz em Erlangen, Alemanha. Em comparação, o1 e outros modelos construídos pela OpenAI em São Francisco, Califórnia, incluindo seu último esforço, o3 , são “essencialmente caixas-pretas”, ele diz.

O DeepSeek não divulgou o custo total do treinamento do R1, mas está cobrando das pessoas que usam sua interface cerca de um trigésimo do que o o1 custa para executar. A empresa também criou mini versões ‘destiladas’ do R1 para permitir que pesquisadores com poder de computação limitado brinquem com o modelo. Um “experimento que custou mais de £ 300 [US$ 370] com o o1, custou menos de US$ 10 com o R1”, diz Krenn. “Esta é uma diferença dramática que certamente desempenhará um papel em sua adoção futura.”

Modelos de desafio

O R1 faz parte de um boom em modelos de linguagem chinesa (LLMs) . Desmembrado de um fundo de hedge, o DeepSeek emergiu da relativa obscuridade no mês passado quando lançou um chatbot chamado V3, que superou os principais rivais, apesar de ter sido construído com um orçamento apertado. Especialistas estimam que custou cerca de US$ 6 milhões para alugar o hardware necessário para treinar o modelo, em comparação com mais de US$ 60 milhões para o Llama 3.1 405B da Meta, que usou 11 vezes os recursos de computação.

Parte do burburinho em torno do DeepSeek é que ele conseguiu fazer o R1 apesar dos controles de exportação dos EUA que limitam o acesso das empresas chinesas aos melhores chips de computador projetados para processamento de IA. “O fato de ele vir da China mostra que ser eficiente com seus recursos importa mais do que apenas a escala de computação”, diz François Chollet, um pesquisador de IA em Seattle, Washington.

O progresso do DeepSeek sugere que “a liderança percebida [que os] EUA já tiveram diminuiu significativamente”, escreveu Alvin Wang Graylin, especialista em tecnologia em Bellevue, Washington, que trabalha na empresa de tecnologia imersiva HTC, sediada em Taiwan, no X. “Os dois países precisam buscar uma abordagem colaborativa para construir IA avançada em vez de continuar com a atual abordagem de corrida armamentista sem vitória.”

Cadeia de pensamento

Os LLMs treinam em bilhões de amostras de texto, cortando-as em partes de palavras, chamadas tokens, e padrões de aprendizagem nos dados. Essas associações permitem que o modelo preveja tokens subsequentes em uma frase. Mas os LLMs são propensos a inventar fatos, um fenômeno chamado alucinação , e muitas vezes lutam para raciocinar sobre problemas.

Assim como o o1, o R1 usa um método de ‘cadeia de pensamento’ para melhorar a capacidade de um LLM de resolver tarefas mais complexas, incluindo, às vezes, retroceder e avaliar sua abordagem. O DeepSeek fez o R1 ‘ajustando’ o V3 usando aprendizado por reforço, que recompensou o modelo por chegar a uma resposta correta e por trabalhar em problemas de uma forma que delineasse seu ‘pensamento’.

Rivais da IA: Gráfico de barras mostrando resultados de testes conduzidos pela DeepSeek, testando três versões de seus grandes modelos de linguagem contra os modelos o1 da OpenAI em tarefas de matemática, codificação e raciocínio. O DeepSeek-R1 venceu ou rivalizou com o o1 em benchmarks de matemática e codificação.

Fonte: DeepSeek

Ter poder de computação limitado levou a empresa a “inovar algoritmicamente”, diz Wenda Li, pesquisadora de IA na Universidade de Edimburgo, Reino Unido. Durante o aprendizado por reforço, a equipe estimou o progresso do modelo em cada estágio, em vez de avaliá-lo usando uma rede separada. Isso ajudou a reduzir os custos de treinamento e execução, diz Mateja Jamnik, cientista da computação na Universidade de Cambridge, Reino Unido. Os pesquisadores também usaram uma arquitetura de ‘mistura de especialistas’, que permite que o modelo ative apenas as partes de si mesmo que são relevantes para cada tarefa.

Em testes de benchmark, relatados em um artigo técnico que acompanha o modelo, o DeepSeek-R1 pontuou 97,3% no conjunto de problemas de matemática MATH-500 criado por pesquisadores da Universidade da Califórnia, Berkeley, e superou 96,3% dos participantes humanos em uma competição de programação chamada Codeforces. Isso está no mesmo nível das habilidades do o1; o o3 não foi incluído nas comparações (veja ‘IA rivais’).

É difícil dizer se os benchmarks capturam a verdadeira capacidade de um modelo de raciocinar ou generalizar, ou meramente sua proficiência em passar em tais testes. Mas como o R1 é aberto, sua cadeia de pensamento é acessível aos pesquisadores, diz Marco Dos Santos, um cientista da computação da Universidade de Cambridge. “Isso permite melhor interpretabilidade dos processos de raciocínio do modelo”, ele diz.

Os cientistas já estão testando as habilidades do R1. Krenn desafiou ambos os modelos rivais a classificar 3.000 ideias de pesquisa pelo quão interessantes elas são e comparou os resultados com classificações feitas por humanos. Nesta medida, o R1 teve um desempenho ligeiramente inferior ao do o1. Mas o R1 venceu o o1 em certos cálculos em óptica quântica, diz Krenn. “Isso é bastante impressionante.”

doi: https://doi.org/10.1038/d41586-025-00229-6


Fonte:  Nature