‘Uma quantidade inacreditável de poluição’: qual é a dimensão da ameaça da IA ​​para o clima?

Defensores da IA ​​afirmam que ela pode contribuir para o combate à crise climática. No entanto, o aumento vertiginoso dos custos de energia e água preocupa os especialistas

Um computador de grande porte consumindo toda a energia de um reservatório.

O custo ambiental do boom da IA ​​é difícil de mensurar, mesmo enquanto dispara. Imagem composta: Alex Mellon para o The Guardian: Getty Images

Por Ajit Niranjan para “The Guardian” 

“Foi de cair o queixo”, disse Wilson, um ex-trabalhador do setor de petróleo e gás do Texas que documenta emissões de metano há mais de uma década e estima que o data center Colossus da xAI estivesse expelindo mais desse gás que aquece o planeta do que uma grande usina de energia. “Uma quantidade inacreditável de poluição.”

Naquela mesma semana, o principal produto da empresa estava causando alvoroço nos noticiários. O chatbot irreverente de Musk, Grok, repetiu uma teoria da conspiração de que um “genocídio branco” estava ocorrendo na África do Sul quando questionado sobre assuntos tão aleatórios quanto beisebol e andaimes. As postagens foram rapidamente apagadas, mas Grok continuou elogiando Hitler , promovendo ideologias de extrema-direita e fazendo afirmações falsas.

Grok de Elon Musk

Grok, o chatbot de IA de Elon Musk, já elogiou Hitler e repetiu teorias da conspiração sobre o “genocídio branco”. Fotografia: Algi Febri Sugita/ZUMA Press Wire/Shutterstock

“É um desperdício horrível, horrível”, disse Wilson, diretor do grupo de campanha Oilfield Witness, apontando para imagens do Mickey Mouse nazista geradas pelo Grok como um exemplo do que o gás fóssil estava sendo queimado para produzir. “Que utilidade isso tem?”

Alguns especialistas temem que os centros de dados possam prejudicar a transição para uma economia limpa, adicionando um obstáculo desnecessário à tarefa inglória de impedir que o planeta aqueça 1,5°C (2,7°F). Outros se mostram otimistas em relação aos custos de energia, argumentando que eles são insignificantes em comparação não apenas com as indústrias poluentes, mas também com o poder da tecnologia de transformar a sociedade.

Qual é a dimensão da ameaça da IA ​​para o clima? E será que ela pode trazer mais benefícios do que prejuízos?

Quando Hannah Daly dirigia modelos para a Agência Internacional de Energia (IEA) em Paris e depois se tornou professora de energia sustentável na University College Cork, na Irlanda, ela dedicava pouco tempo a se preocupar com o custo de carbono dos computadores. Carros, vacas e aquecimento doméstico estavam entre os problemas complexos que consumiam o orçamento de carbono; as emissões dos serviços digitais eram pequenas e relativamente estáveis.

Mas na Irlanda, a demanda computacional por energia atingiu níveis impossíveis de ignorar. Os centros de dados consomem um quinto da eletricidade do país e a previsão é de que esse consumo chegue a quase um terço em poucos anos. A rápida expansão de armazéns repletos de chips, que surgiram em um ritmo mais acelerado do que a rede elétrica consegue suportar, levou à sua proibição efetiva de conexão à rede em 2021.

A trajetória de “crescimento enorme e exponencial” é o que preocupa, disse Daly. “Não sei se a Irlanda é uma exceção ou um prenúncio do que está por vir. Mas é definitivamente um conto de advertência.”

Os centros de dados consomem apenas 1% da eletricidade mundial, mas em breve poderão demandar muito mais. Sua participação no consumo de eletricidade dos EUA deverá mais que dobrar, chegando a 8,6% até 2035, segundo a BloombergNEF, enquanto a AIE (Agência Internacional de Energia) projeta que os centros de dados serão responsáveis ​​por pelo menos 20% do crescimento da demanda de eletricidade nos países desenvolvidos até o final da década.

Parte da demanda está sendo atendida por meio de contratos de longo prazo para a compra de energia renovável – apoiando a expansão da energia limpa mesmo quando a eletricidade que alimenta a instalação é poluente – enquanto algumas empresas de tecnologia assinaram acordos para usar energia nuclear.

Mas, num futuro próximo, os combustíveis fósseis deverão dominar o fornecimento. Os centros de dados da China estão concentrados no leste do país, região com forte presença do carvão. Nos EUA, onde se espera que o gás natural gere a maior parte da eletricidade nos centros de dados na próxima década, o governo Trump usou esse argumento para justificar a queima de mais carvão. “O carvão, bonito e limpo, será essencial para… vencer a corrida da IA”, disse o secretário de Energia, Chris Wright, em setembro, ao anunciar um pacote de investimentos de US$ 625 milhões (R$ 2,7 bilhões).

Um centro de dados da Amazon em Didcot, Oxfordshire.

Um datacenter da Amazon em Didcot, Oxfordshire. Fotografia: Horst Friedrichs/Alamy

Na Irlanda, que está construindo terminais para importar gás natural liquefeito (GNL) e usinas para queimá-lo, o boom dos data centers compensou os ganhos climáticos da expansão das energias renováveis ​​no setor elétrico, de acordo com uma análise que Daly realizou para a Friends of the Earth Ireland no ano passado. Países mais pobres também podem não estar imunes. A energia solar barata começou a substituir o carvão a um ritmo notável no Paquistão, mas os data centers estão prestes a ocupar a capacidade ociosa de usinas de energia desativadas, após o governo anunciar que dedicaria 2 GW de energia à inteligência artificial e ao bitcoin.

“Essa ideia de que o menor custo das energias renováveis ​​por si só impulsionará a descarbonização não é suficiente”, disse Daly. “Porque se houver uma enorme demanda de energia que queira crescer, ela recairá sobre esses ativos de combustíveis fósseis obsoletos.”

Isso significa que usar chatbots para redigir e-mails, escrever ensaios e planejar férias coloca o planeta em risco? As empresas de tecnologia têm resistido à pressão para fornecer dados detalhados sobre o consumo de energia de sua IA, mas estimativas populares giram em torno de 0,2 a 3 watts-hora (Wh) para uma simples consulta de texto e aumentam consideravelmente para “pesquisas complexas” e produção de vídeo. Em uma postagem de blog em julho, o CEO da OpenAI, Sam Altman, afirmou que uma consulta no ChatGPT usa tão pouca energia quanto uma lâmpada acesa por alguns minutos, em consonância com um relatório recente do Google sobre o consumo médio de texto para seu assistente de IA, Gemini.

Os números são insignificantes em comparação com atividades como voar, comer carne ou dirigir um carro. Ainda assim, os céticos se preocupam com a enorme escala da tecnologia – o ChatGPT afirma ter várias centenas de milhões de usuários semanais apenas três anos após seu lançamento – e com o fervor com que as empresas a inseriram em todos os aspectos da vida digital. O Google controla cerca de 90% do mercado global de mecanismos de busca e impôs a IA generativa em sua página de resultados. A ascensão de agentes de IA e serviços nos bastidores deve aumentar ainda mais esse burburinho.

“O que me preocupa é que estamos implementando IA de uma forma que não nos permite ter uma boa noção do consumo de energia”, disse Sasha Luccioni, líder de clima da empresa de IA Hugging Face, que se frustrou com as “divulgações seletivas” de grandes empresas que obscurecem o verdadeiro impacto climático de seus produtos. “Estamos essencialmente operando sob a hipótese de que não é um problema – ou que, se for um problema, será resolvido de alguma forma – em vez de nos anteciparmos a ele.”

Se a IA pudesse pagar suas dívidas energéticas economizando carbono em outros setores da economia? Essa é a tese apresentada em um relatório da AIE (Agência Internacional de Energia) em abril, que argumentou que as aplicações de IA existentes poderiam reduzir as emissões em uma proporção muito maior do que a produzida pelos data centers. Um artigo de pesquisadores da London School of Economics e da Systemiq chegou a uma conclusão semelhante em junho, após modelar cenários nos quais a IA ajudaria a integrar energia solar e eólica à rede elétrica, identificar proteínas alternativas que imitam a carne, melhorar a composição das baterias em carros elétricos e incentivar as pessoas a fazerem escolhas sustentáveis.

“A IA pode acelerar a implementação dessas tecnologias limpas, basicamente acelerando sua posição na curva de inovação e adoção”, disse a coautora Roberta Pierfederici, pesquisadora de políticas públicas do Instituto Grantham da LSE.

As projeções de redução de carbono trazem grandes incertezas – maior eficiência pode levar a um maior consumo, alerta a AIE (Agência Internacional de Energia), e efeitos rebote podem anular os ganhos, como carros autônomos prejudicando o transporte público – mas exemplos já existem. O Google afirma que a IA o ajudou a reduzir o resfriamento em data centers em 40%. A espanhola Iberdrola diz que a IA otimizou a manutenção e o desempenho de turbinas eólicas, aumentando a eficiência operacional em 25%. A francesa Engie afirma ter reduzido o tempo de inatividade em usinas solares usando IA para detectar falhas.

Como outros setores são muito poluentes, dizem os pesquisadores, a IA precisaria reduzir suas emissões em apenas uma pequena fração para compensar o custo de carbono de sua computação, que um estudo recente estimou em 0,1-0,2% das emissões globais, e está aumentando. “No setor de energia, já estamos vendo os resultados”, disse Pierfederici. “Já o setor de carne ainda não chegou lá.”

s defensores da tecnologia limpa não são os únicos que perceberam o potencial transformador da IA.

Quando Holly e Will Alpine decidiram deixar seus empregos na Microsoft no ano passado, sabiam que estavam abrindo mão de uma ótima oportunidade. O casal de millennials desfrutava de salários típicos do setor de tecnologia americano, graças às suas posições nas equipes de IA responsável e sustentabilidade da empresa, com colegas próximos e um trabalho que lhes dava um senso de propósito. Will estava entre as primeiras vozes a pressionar para que se enfrentasse a redução do custo de energia dos data centers.

Mas o trabalho da Microsoft para clientes do setor de petróleo e gás incomodava o casal, que começou a se preocupar mais com as emissões que a empresa possibilitava do que com as que ela produzia. Em 2019, a empresa anunciou uma parceria com a ExxonMobil com potencial para expandir a produção em até 50 mil barris por dia. No mesmo ano, iniciou um projeto digital com a Chevron que, segundo a petrolífera, reduziu em 30 dias o tempo de planejamento de seus poços em águas profundas. Com o surgimento de mais contratos, os Alpines começaram a pressionar a empresa por respostas.

“A resposta da empresa frequentemente apontava para sua própria pegada operacional, o que não é relevante”, disse Holly Alpine, que deixou a empresa com Will para fazer campanha para que a indústria de tecnologia combatesse as emissões que gera. “Após uma campanha interna de quatro anos, na qual recebemos muitas promessas, mas a maioria não foi cumprida, percebemos que a pressão interna não era suficiente.”

Um poço de petróleo no deserto

O diretor executivo da petrolífera Saudi Aramco afirmou recentemente que a empresa incorporou inteligência artificial “em tudo”. Fotografia: Bloomberg/Getty Images

A Agência Internacional de Energia (IEA) estima que a IA poderá aumentar as reservas tecnicamente recuperáveis ​​de petróleo e gás em 5% e reduzir o custo de um projeto em águas profundas em 10%. As grandes petrolíferas estão ainda mais otimistas. “A inteligência artificial será, em última análise, o próximo boom do fracking na indústria”, disse Mike Sommers, diretor do Instituto Americano de Petróleo, à Axios . Amin Nasser, CEO da Saudi Aramco, afirmou que a empresa incorporou IA “em tudo” em uma entrevista à Bloomberg Television no início deste ano. A maior petrolífera do mundo dobrou seus investimentos em tecnologia de 2023 para 2024, segundo Nasser, e a ampla adoção da IA ​​”aumentou a produtividade e, consequentemente, o número de poços”.

Ao mesmo tempo, a indústria de petróleo e gás afirma que a IA pode reduzir sua intensidade de carbono, por exemplo, analisando dados de satélite para detectar vazamentos de metano. Mas mesmo nesse aspecto, críticos apontam que existe uma lacuna entre as percepções digitais e as ações corporativas. Wilson, que viu “nuvens gigantescas de gás escapando por todos os lados” durante uma recente viagem de campo à Bacia Permiana, disse que a sofisticada rede de satélites da indústria obteve poucos resultados, pois os vazamentos representam um problema pequeno em comparação com as liberações intencionais de metano.

“Eles estão usando isso como desculpa para adiar a ação”, disse Wilson. “Observar o metano do espaço não vai impedir a emissão de metano.”

Talvez ainda mais preocupante do que a expansão da oferta de combustíveis fósseis seja o efeito sobre o consumo. Um estudo publicado em outubro revelou que anúncios gerados por IA superam os criados por humanos, e a facilidade com que podem ser prouzidos reduz drasticamente o custo de incentivar o consumo. O setor de marketing, já familiarizado com anúncios hiperpersonalizados e compras simplificadas, está se preparando para agentes de IA que poderão comprar presentes e reservar voos em nome do cliente. A Tui, maior operadora de viagens da Europa, afirma estar investindo fortemente em IA, à medida que as pessoas recorrem ao ChatGPT para reservar suas férias.

“A narrativa está realmente focada nessa comparação falsa entre a energia usada para operar a tecnologia e os casos de uso positivos”, disse Alpine. “Mas é perigoso omitir os casos de uso negativos.”

Algumas vozes pedem uma pausa, pelo menos até que regras melhores sejam implementadas. Em outubro, o relator especial da ONU para o direito humano à água potável pediu uma moratória no desenvolvimento de novos centros de dados, citando os impactos ambientais prejudiciais. Em dezembro, uma coalizão de mais de 230 grupos ambientalistas nos EUA exigiu uma moratória nacional até que esses centros de dados fossem regulamentados. A Comissão de Serviços Públicos da Irlanda suspendeu sua proibição de fato às conexões à rede elétrica, mas afirmou que 80% do consumo anual de eletricidade de um centro de dados deve vir, eventualmente, de novos projetos de energia renovável.

Outros defenderam que se pressione o setor para que faça o bem. A Espanha, único país a mencionar a IA em uma legislação climática, obriga o governo a promover a digitalização que possa ajudar a descarbonizar a economia. Laurence Tubiana, uma das arquitetas do Acordo de Paris sobre o clima, sugeriu a taxação da IA ​​para gerar os fundos necessários para impedir o aquecimento global.

Os alpinistas, que afirmam não ser contra a IA, mas apenas desejar “limites razoáveis” para a tecnologia, estão pressionando para que o projeto de lei da UE sobre IA classifique os combustíveis fósseis como uma aplicação de alto risco da tecnologia. Eles também querem que os investidores considerem as emissões geradas pela IA na avaliação das empresas em relação a métricas ambientais, sociais e de governança (ESG).

O Google e a xAI não responderam ao pedido de comentários. A OpenAI afirmou que dedica muita atenção à melhor utilização de seu poder computacional, apoia iniciativas com parceiros para atingir metas de sustentabilidade e acredita que a IA será fundamental no combate às mudanças climáticas.

A Microsoft afirmou que a transição energética é complexa e exige avançar de forma ética, com a tecnologia desempenhando um papel importante na descarbonização do setor. “Isso requer equilibrar as necessidades energéticas e as práticas industriais atuais, ao mesmo tempo que se inventam e implementam as do futuro”, disse um porta-voz.

Luccioni afirmou que, em vez de entrar em pânico com a IA, as pessoas deveriam pressionar as empresas para que criem ferramentas que sejam econômicas desde a sua concepção.

“Talvez eu seja um pouco ingênua, mas ainda acredito que a IA pode fazer bem no combate à crise climática – projetando a próxima geração de baterias, monitorando o desmatamento, prevendo furacões”, disse ela. “Há tantas coisas boas para as quais poderíamos usá-la – e, em vez disso, estamos criando sites de mídia social repletos de conteúdo gerado por IA, enquanto data centers são alimentados por geradores a diesel.”


Fonte: The Guardian

Resistindo à inconsistência da Inteligência Artificial

Burn it down: a license for AI resistance (opinion)

Por H. Holden Thorp para “Science”

É difícil falar sobre qualquer tópico em ciência ou educação hoje em dia sem que o assunto da inteligência artificial (IA) venha à tona — seja para permitir que grandes modelos de linguagem auxiliem na busca por artigos científicos ou até mesmo para escrever ou revisar o próprio artigo. Em algumas das especulações mais extravagantes, os humanos envolvidos na condução de estudos e experimentos científicos e na avaliação dos resultados para publicação serão gradualmente eliminados do processo. Mas quando essa retórica grandiosa começa a circular, nós da Science tentamos manter a calma e continuar contribuindo para uma literatura científica robusta, com curadoria humana, que resistirá ao teste do tempo.

As políticas mais recentes da Science permitem o uso de grandes modelos de linguagem para certos processos sem necessidade de divulgação, como a edição de textos em artigos científicos para melhorar a clareza e a legibilidade ou o auxílio na coleta de referências. No entanto, o uso de IA além disso — por exemplo, na redação do texto do manuscrito — deve ser declarado. E o uso de IA para criar figuras não é permitido. Todos os autores devem certificar e ser responsáveis ​​por todo o conteúdo, incluindo aquele gerado com o auxílio de IA. A Science também utiliza ferramentas de IA, como o iThenticate e o Proofig, para melhor identificar textos plagiados ou figuras alteradas. Ao longo do último ano, a Science colaborou com a DataSeer para avaliar a adesão à sua política que exige o compartilhamento dos dados e do código subjacentes de todos os artigos científicos publicados. Os resultados iniciais são encorajadores: de 2.680 artigos da Science publicados entre 2021 e 2024, 69% compartilharam dados. Para aumentar ainda mais a transparência, uma lista de verificação de reprodutibilidade do DataSeer, que a Science testou em um programa piloto em 2025, está sendo integrada aos protocolos da revista. A tecnologia de processamento de linguagem natural do DataSeer analisa o artigo e gera uma lista de verificação de reprodutibilidade preenchida previamente. Os autores são solicitados a confirmar as informações e fazer as revisões necessárias.

Embora a IA esteja ajudando a Science a detectar erros que podem ser corrigidos ou elementos ausentes em um artigo, mas que deveriam ser incluídos, como código de apoio ou dados brutos, seu uso e a avaliação dos resultados exigem mais esforço humano, e não menos. De fato, a IA está permitindo que a ciência identifique problemas com mais rigor do que antes, mas os relatórios gerados por essas ferramentas precisam ser avaliados por pessoas. Talvez o pânico em relação à IA substituir empregos se justifique a longo prazo, mas continuo cético. A maioria dos avanços tecnológicos não levou a perdas catastróficas de empregos.

Uma preocupação ainda maior em relação à IA é que seu uso na produção ou revisão de artigos científicos possa comprometer a confiabilidade da literatura científica. Ao contrário de algumas iniciativas recentes, a revista Science proíbe que os revisores utilizem qualquer parte de um artigo em um modelo de linguagem abrangente para gerar uma avaliação. No entanto, a Science permite que os revisores usem IA para refinar o texto, desde que o uso seja declarado.

A crescente vigilância da ciência contra a corrupção da literatura tornou-se mais um componente na busca incessante da verdade pela ciência e pela publicação científica. Publicar artigos cuidadosamente editados e submetidos ao julgamento de múltiplos seres humanos — e a retratação e correção de artigos quando os humanos envolvidos cometem erros — nunca foi tão importante. Como um pequeno grupo de periódicos que pode dedicar mais esforço humano a cada artigo, os periódicos da Science são menos suscetíveis — e contribuem menos — para o acúmulo de “erros de IA” na literatura, mas nenhum sistema, humano ou artificial, consegue detectar tudo. A potencial degradação da literatura pela tecnologia reforça o valor de um registro mantido com experiência e conhecimento científico humano.

Há 15 anos, o ensino superior parecia ameaçado pelas previsões de que os cursos online abertos e massivos (MOOCs) acabariam com as universidades. Isso não aconteceu, mas os cursos online se tornaram um elemento importante da educação e permitiram que as universidades crescessem, em vez de encolherem. A migração das revistas científicas para a publicação online provocou um resultado semelhante: aumentou o tamanho e a escala das publicações acadêmicas. A aceitação de afirmações bombásticas sobre os impactos da IA ​​na literatura científica deve aguardar verificação.

Assim como muitas ferramentas, a IA permitirá que a comunidade científica faça mais, desde que saiba utilizá-la corretamente. A comunidade precisa ter cautela e não se deixar levar pela euforia em torno de cada produto de IA.


Fonte: Science

As análises de IA da Google colocam as pessoas em risco com conselhos de saúde enganosos

Investigação do Guardian revela informações imprecisas em resumos

Homem olhando para o smartphone na cama

O jornal The Guardian revelou diversos casos de informações de saúde imprecisas nos Resumos de IA do Google. Fotografia: Caia Image/Alamy

Por Andrew Gregory para “The Guardian” 

Uma investigação do jornal The Guardian revelou que as pessoas estão sendo expostas a riscos devido a informações de saúde falsas e enganosas nos resumos de inteligência artificial do Google.

A empresa afirmou que seus Resumos de IA, que usam IA generativa para fornecer instantâneos de informações essenciais sobre um tópico ou questão, são úteis ” e “confiáveis ”.

No entanto, alguns dos resumos, que aparecem no topo dos resultados de pesquisa, forneciam informações de saúde imprecisas e colocavam as pessoas em risco de sofrer danos.

Em um caso que especialistas descreveram como “realmente perigoso”, o Google aconselhou erroneamente pessoas com câncer de pâncreas a evitarem alimentos ricos em gordura. Especialistas afirmaram que isso era exatamente o oposto do que deveria ser recomendado e pode aumentar o risco de morte dos pacientes pela doença.

Em outro exemplo “alarmante”, a empresa forneceu informações falsas sobre testes cruciais de função hepática, o que poderia levar pessoas com doenças hepáticas graves a acreditarem erroneamente que estão saudáveis.

As buscas no Google por respostas sobre exames de câncer em mulheres também forneceram informações “completamente erradas”, o que, segundo especialistas, pode levar as pessoas a ignorar sintomas reais.

Um porta-voz do Google afirmou que muitos dos exemplos de saúde compartilhados com eles eram “capturas de tela incompletas”, mas, pelo que puderam avaliar, continham links “para fontes conhecidas e confiáveis ​​e recomendavam a busca por aconselhamento especializado”.

A investigação do The Guardian surge em meio à crescente preocupação de que os dados de IA possam confundir os consumidores, que podem presumir que sejam confiáveis. Em novembro do ano passado, um estudo descobriu que chatbots de IA em diversas plataformas forneciam conselhos financeiros imprecisos , enquanto preocupações semelhantes foram levantadas em relação a resumos de notícias .

Sophie Randall, diretora do Patient Information Forum, que promove informações de saúde baseadas em evidências para pacientes, público em geral e profissionais de saúde, afirmou que os exemplos mostram que “os Resumos de IA do Google podem colocar informações de saúde imprecisas no topo das buscas online, representando um risco para a saúde das pessoas”.

Stephanie Parker, diretora da área digital da Marie Curie, uma instituição de caridade que oferece cuidados paliativos, afirmou: “As pessoas recorrem à internet em momentos de preocupação e crise. Se as informações que recebem forem imprecisas ou estiverem fora de contexto, isso pode prejudicar seriamente a sua saúde.”

O jornal The Guardian revelou diversos casos de informações de saúde imprecisas nos Resumos de IA do Google, após várias organizações de saúde, instituições de caridade e profissionais expressarem preocupação.

Anna Jewell, diretora de apoio, pesquisa e influência da Pancreatic Cancer UK, afirmou que aconselhar pacientes a evitarem alimentos ricos em gordura é “completamente incorreto”. Fazer isso “pode ​​ser muito perigoso e comprometer as chances de uma pessoa estar bem o suficiente para receber tratamento”, acrescentou.

Jewell afirmou: “A resposta da IA ​​do Google sugere que pessoas com câncer de pâncreas evitem alimentos ricos em gordura e fornece uma lista de exemplos. No entanto, se alguém seguisse o que o resultado da pesquisa indica, poderia não ingerir calorias suficientes, ter dificuldade para ganhar peso e não tolerar a quimioterapia ou uma cirurgia que poderia salvar sua vida.”

Digitar “qual é a faixa normal para exames de sangue do fígado” também forneceu informações enganosas, com uma grande quantidade de números, pouco contexto e sem levar em consideração a nacionalidade, o sexo, a etnia ou a idade dos pacientes.

Pamela Healy, diretora executiva da British Liver Trust, afirmou que os resumos gerados por IA são alarmantes. “Muitas pessoas com doenças hepáticas não apresentam sintomas até os estágios avançados, por isso é tão importante que façam exames. Mas o que as análises de IA do Google consideram ‘normal’ pode variar drasticamente do que é realmente considerado normal.”

“É perigoso porque significa que algumas pessoas com doenças hepáticas graves podem achar que têm um resultado normal e, portanto, não se preocuparem em comparecer a uma consulta de acompanhamento com o profissional de saúde.”

Uma busca por “sintomas e exames para câncer vaginal” listou o exame de Papanicolau como um exame para detectar câncer vaginal, o que está incorreto.

Athena Lamnisos, diretora executiva da instituição de caridade para o câncer Eve Appeal, disse: “Não é um teste para detectar câncer e certamente não é um teste para detectar câncer vaginal – essa informação está completamente errada. Receber informações erradas como essa pode levar alguém a não procurar atendimento médico para sintomas de câncer vaginal por ter tido um resultado negativo em um exame preventivo recente de câncer do colo do útero.”

“Também nos preocupou o fato de o resumo da IA ​​mudar quando realizávamos exatamente a mesma pesquisa, apresentando uma resposta diferente a cada vez, baseada em fontes distintas. Isso significa que as pessoas recebem uma resposta diferente dependendo de quando pesquisam, e isso não é aceitável.”

Lamnisos disse estar extremamente preocupada. “Alguns dos resultados que vimos são realmente preocupantes e podem potencialmente colocar as mulheres em perigo”, afirmou.

O jornal The Guardian também descobriu que o Google AI Overviews fornecia resultados enganosos para pesquisas sobre transtornos mentais. “Isso é extremamente preocupante para nós como instituição de caridade”, afirmou Stephen Buckley, chefe de informações da Mind.

Alguns dos resumos de IA para condições como psicose e distúrbios alimentares ofereciam “conselhos muito perigosos” e eram “incorretos, prejudiciais ou poderiam levar as pessoas a evitar procurar ajuda”, disse Buckley.

Alguns também deixaram de considerar contextos ou nuances importantes, acrescentou. “Eles podem sugerir o acesso a informações de sites inadequados e sabemos que, quando a IA resume informações, muitas vezes pode refletir preconceitos, estereótipos ou narrativas estigmatizantes preexistentes.”

O Google afirmou que a grande maioria de seus Resumos de IA eram factuais e úteis, e que realiza melhorias contínuas na qualidade. A taxa de precisão dos Resumos de IA estava em pé de igualdade com seus outros recursos de busca, como os snippets em destaque, que já existiam há mais de uma década, acrescentou a empresa.

A empresa também afirmou que, quando o AI Overviews interpretasse erroneamente o conteúdo da web ou ignorasse o contexto, tomaria as medidas cabíveis de acordo com suas políticas.

Um porta-voz do Google afirmou: “Investimos significativamente na qualidade das Visões Gerais de IA, principalmente em tópicos como saúde, e a grande maioria fornece informações precisas.”


Fonte: The Guardian

IA sinaliza centenas de periódicos científicos como potencialmente predatórios, revela estudo

Acompanhar a proliferação dos chamados “periódicos predatórios” tem sido uma tarefa árdua para os humanos, que optaram por usar IA para vasculhar uma lista de quase 15.200 periódicos de acesso aberto na internet, afirma Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação da Universidade do Colorado em Boulder.

Acompanhar a proliferação dos chamados "periódicos predatórios" tem sido uma tarefa árdua para os humanos, então a equipe recorreu à IA para analisar uma lista de quase 15.200 periódicos de acesso aberto na internet, afirma Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação da Universidade do Colorado em Boulder. Foto

Foto: Europa Press / Arquivo

Por La Jornada

Madri. Uma plataforma de inteligência artificial (IA) que busca periódicos científicos questionáveis ​​sinalizou mais de 1.400 como “potencialmente problemáticos” em uma lista de quase 15.200 periódicos de acesso aberto na internet.

O estudo, publicado na Science Advances e liderado pela Universidade do Colorado em Boulder, aborda uma tendência alarmante no mundo da pesquisa.

Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação, recebe lembretes por e-mail várias vezes por semana: essas mensagens de spam vêm de pessoas que se passam por editores de periódicos científicos, geralmente aqueles dos quais Acuña nunca ouviu falar, oferecendo-se para publicar seus artigos por uma taxa alta.

Essas publicações são às vezes chamadas de periódicos “predatórios”. Elas têm como alvo cientistas, convencendo-os a pagar centenas ou até milhares de dólares para publicar suas pesquisas sem a devida verificação.

“Tem havido um esforço crescente entre cientistas e organizações para verificar esses periódicos”, disse Acuña. “Mas é como brincar de caça-toupeiras. Você pega um, e logo aparece outro, geralmente da mesma empresa. Eles simplesmente criam um novo site e dão um novo nome.”

A nova ferramenta de IA de seu grupo filtra automaticamente periódicos científicos, avaliando seus sites e outros dados online com base em certos critérios: os periódicos têm um conselho editorial com pesquisadores renomados? Seus sites contêm muitos erros gramaticais? Acuña enfatiza que a ferramenta não é perfeita. Em última análise, ele acredita que especialistas humanos, e não máquinas, devem tomar a decisão final sobre a reputação de um periódico.

Mas, em um momento em que figuras proeminentes questionam a legitimidade da ciência, conter a proliferação de publicações questionáveis ​​se tornou mais importante do que nunca, disse ele.

“Na ciência, você não começa do zero. Você constrói com base na pesquisa de outros”, disse Acuña. “Então, se a fundação daquela torre desabar, tudo desaba.”

Extorsão

Quando cientistas submetem um novo estudo a uma revista de prestígio, ele normalmente passa por uma prática chamada revisão por pares. Especialistas externos leem o estudo e avaliam sua qualidade — ou, pelo menos, esse é o objetivo.

Um número crescente de empresas tem tentado burlar esse processo para lucrar. Em 2009, Jeffrey Beall, bibliotecário da Universidade do Colorado, cunhou o termo “periódicos predatórios” para descrever essas publicações.

Eles geralmente têm como alvo pesquisadores de fora dos Estados Unidos e da Europa, como na China, Índia e Irã, países onde as instituições científicas podem ser jovens e a pressão e os incentivos para que os pesquisadores publiquem são altos.

“Eles dizem: ‘Se você pagar US$ 500 ou US$ 1.000, nós revisaremos seu artigo'”, explicou Acuña. “Na verdade, eles não oferecem nenhum serviço. Eles apenas pegam o PDF e publicam no site deles.”

Vários grupos têm tentado coibir essa prática. Entre eles está uma organização sem fins lucrativos chamada Directory of Open Access Journals (DOAJ). Desde 2003, voluntários sinalizaram milhares de periódicos como suspeitos com base em seis critérios. (Publicações respeitáveis, por exemplo, frequentemente incluem uma descrição detalhada de suas políticas de revisão por pares em seus sites.)

Mas acompanhar a proliferação dessas publicações tem sido uma tarefa assustadora para os humanos.

Para acelerar o processo, Acuña e seus colegas recorreram à IA. A equipe treinou o sistema com dados do DOAJ e, em seguida, pediu à IA que examinasse uma lista de quase 15.200 periódicos de acesso aberto na internet.

Dessas postagens, a IA sinalizou inicialmente mais de 1.400 como potencialmente problemáticas.

Acuña e seus colegas pediram a especialistas humanos que revisassem um subconjunto dos periódicos suspeitos. A IA cometeu erros, segundo os humanos, sinalizando aproximadamente 350 publicações como questionáveis ​​quando provavelmente eram legítimas. Isso ainda deixou mais de 1.000 periódicos que os pesquisadores identificaram como questionáveis. “Acredito que isso deveria ser usado para ajudar a pré-selecionar um grande número de periódicos”, explicou ele. “Mas a análise final deveria ser feita por profissionais humanos.”

Não é uma caixa preta

Acuña acrescentou que os pesquisadores não queriam que seu sistema fosse uma “caixa preta” como outras plataformas de IA.

“Com o ChatGPT, por exemplo, muitas vezes é difícil entender por que ele sugere algo”, disse Acuña. “Tentamos tornar o nosso o mais fácil de entender possível.”

A equipe descobriu, por exemplo, que periódicos questionáveis ​​publicaram um número anormalmente alto de artigos. Eles também incluíam autores com mais afiliações do que periódicos mais legítimos, e autores que citavam suas próprias pesquisas, em vez das de outros cientistas, com frequência anormalmente alta.


Fonte: La Jornada

Qualidade de artigos científicos é questionada, com acadêmicos ‘sobrecarregados’ por milhões de publicações

Zombaria generalizada de rato gerado por IA com pênis gigante em um artigo traz problema à atenção pública

Pesquisador folheando pilha de papéis

O ganhador do Prêmio Nobel, André Geim, disse que “pesquisadores publicam muitos artigos inúteis”. Fotografia: Sigrid Gombert/Getty Images/Image Source

Por Ian Sample, Editor de ciência, para o “The Guardian” 

À primeira vista, era apenas mais um artigo científico, um dos milhões publicados todos os anos, e destinado a receber pouca ou nenhuma atenção fora do campo arcano da sinalização biológica em células-tronco destinadas a se tornarem espermatozoides.

Mas logo após a publicação online, no periódico Frontiers in Cell and Developmental Biology, o artigo conquistou um público global. Nem todos os leitores vieram pela ciência.

O motivo de seu apelo mais amplo? Uma imagem chamativa, que retratava um rato sentado ereto, com um pênis inacreditavelmente grande e muitos testículos. Partes do corpo eram rotuladas com palavras sem sentido, como “testtomcels” e “dck”.

Em vez de cair na obscuridade acadêmica, o artigo logo se tornou alvo de chacota na grande mídia. “Revista científica publica rato gerado por Inteligência Artificial (IA) com pênis gigantesco”, noticiou a Vice News. “Pode ser considerado um erro de IA em larga escala”, entoou o Daily Telegraph.

As imagens foram de fato geradas por IA, mas isso era permitido pelas regras do periódico. O problema era que os autores não haviam verificado a precisão do material gerado pela IA. Nem a equipe do periódico nem seus revisores especialistas notaram os erros gritantes. Três dias após a publicação, o artigo foi retratado.

O que diferencia a anedota de outras histórias de desastres com IA é o vislumbre que ela proporciona de problemas mais amplos no cerne de uma indústria importante. A publicação científica registra e atua como guardiã de informações que moldam o mundo e com base nas quais decisões de vida e morte são tomadas.

O primeiro periódico científico publicado continuamente foi publicado pela Royal Society em 1665. A edição inaugural da Philosophical Transactions contava aos leitores sobre um ponto em Júpiter, um minério de chumbo peculiar da Alemanha e um bezerro “monstruoso” encontrado por um açougueiro em Lymington.

Desde então, os periódicos têm sido a crônica do pensamento científico sério. Newton, Einstein e Darwin postularam teorias históricas ali; Marie Curie cunhou o termo “radioatividade” em um periódico.

Mas periódicos são mais do que registros históricos. Pesquisas inovadoras em campos críticos, desde genética e IA até ciência do clima e exploração espacial, são publicadas rotineiramente em um número crescente de periódicos, mapeando o progresso da humanidade. Tais estudos orientam o desenvolvimento de medicamentos, moldam a prática médica, fundamentam políticas governamentais e informam estratégias geopolíticas, chegando até mesmo a estimativas de fatalidades em campanhas militares sangrentas, como o ataque israelense a Gaza.

A natureza consequente dos periódicos e as potenciais ameaças à qualidade e à confiabilidade do trabalho que publicam levaram cientistas renomados a soar o alarme. Muitos argumentam que a publicação científica é fragmentada, insustentável e produz muitos artigos que beiram a inutilidade.

O alerta de laureados com o Nobel e outros acadêmicos surge no momento em que a Royal Society se prepara para lançar uma importante revisão da publicação científica no final do verão. A publicação se concentrará nas “disrupções” que a indústria enfrentará nos próximos 15 anos.

Sir Mark Walport, ex-cientista-chefe do governo e presidente do conselho editorial da Royal Society, disse que quase todos os aspectos da publicação científica estavam sendo transformados pela tecnologia, enquanto incentivos profundamente arraigados para pesquisadores e editores frequentemente favoreciam a quantidade em detrimento da qualidade.

“Volume é um fator ruim”, disse Walport. “O incentivo deve ser a qualidade, não a quantidade. Trata-se de reestruturar o sistema de forma a incentivar a boa pesquisa do início ao fim.”

Hoje, após a drástica expansão da ciência e das práticas de publicação, iniciada pelo magnata da imprensa Robert Maxwell, dezenas de milhares de periódicos científicos publicam milhões de artigos anualmente. Uma análise para o Guardian feita por Gordon Rogers, cientista-chefe de dados da Clarivate, uma empresa de análise, mostra que o número de estudos de pesquisa indexados no banco de dados Web of Science da empresa aumentou 48%, de 1,71 milhão para 2,53 milhões, entre 2015 e 2024. Somando todos os outros tipos de artigos científicos, o total chega a 3,26 milhões.

Em um artigo marcante do ano passado, o Dr. Mark Hanson, da Universidade de Exeter, descreveu como os cientistas estavam “cada vez mais sobrecarregados” com o volume de artigos publicados. Manter o ritmo de trabalho verdadeiramente original é apenas um dos problemas. As demandas da revisão por pares – na qual acadêmicos se voluntariam para avaliar o trabalho uns dos outros – são agora tão intensas que os editores de periódicos podem ter dificuldade para encontrar especialistas dispostos.

De acordo com um estudo recente , somente em 2020, acadêmicos em todo o mundo gastaram mais de 100 milhões de horas revisando artigos para periódicos. Para especialistas nos EUA, o tempo gasto na revisão naquele ano representou mais de US$ 1,5 bilhão em mão de obra gratuita.

“Todos concordam que o sistema está meio quebrado e insustentável”, disse Venki Ramakrishnan, ex-presidente da Royal Society e ganhador do Prêmio Nobel no Laboratório de Biologia Molecular do Conselho de Pesquisa Médica. “Mas ninguém sabe realmente o que fazer a respeito.”

No mundo acadêmico do “publique ou pereça”, onde e com que frequência um pesquisador publica, e quantas citações seus artigos recebem, são fatores que definem sua carreira. A justificativa é razoável: os melhores cientistas frequentemente publicam nos melhores periódicos. Mas o sistema pode levar os pesquisadores a perseguir métricas. Eles podem conduzir estudos mais fáceis, promover resultados chamativos ou publicar suas descobertas em mais artigos do que o necessário. “Eles são incentivados por seus institutos ou agências de financiamento governamentais a publicar artigos com seus nomes, mesmo que não tenham nada de novo ou útil a dizer”, disse Hanson.

A publicação científica possui um modelo de negócios único. Cientistas, normalmente financiados por contribuintes ou instituições de caridade, realizam as pesquisas, as escrevem e revisam o trabalho uns dos outros para manter os padrões de qualidade. Os periódicos gerenciam a revisão por pares e publicam os artigos. Muitos periódicos cobram pelo acesso por meio de assinaturas, mas as editoras estão adotando modelos de acesso aberto, nos quais os autores podem pagar até £ 10.000 para ter um único artigo disponibilizado gratuitamente online.

De acordo com uma análise recente , entre 2015 e 2018, pesquisadores em todo o mundo pagaram mais de US$ 1 bilhão em taxas de acesso aberto às cinco grandes editoras acadêmicas: Elsevier, Sage, Springer Nature, Taylor & Francis e Wiley.

O acesso aberto ajuda a disseminar pesquisas de forma mais ampla. Por não ter acesso pago, o trabalho pode ser lido por qualquer pessoa, em qualquer lugar. Mas o modelo incentiva editoras comerciais a publicar mais artigos. Algumas lançam novos periódicos para atrair mais estudos. Outras solicitam artigos para um grande número de edições especiais.

Para uma editora suíça, a MDPI, edições especiais de periódicos representam uma importante fonte de receita. Um único periódico da MDPI, o International Journal of Molecular Sciences, está aceitando submissões para mais de 3.000 edições especiais . A taxa de publicação, ou taxa de processamento de artigo (APC), para um artigo é de £ 2.600. Desde o ano passado, a Fundação Nacional de Ciências da Suíça se recusa a pagar taxas de publicação para edições especiais devido a preocupações com a qualidade . A MDPI não respondeu a um pedido de entrevista.

Incentivos inúteis em torno da publicação acadêmica são apontados como responsáveis por níveis recordes de retratações , pelo aumento de periódicos predatórios , que publicam qualquer coisa mediante pagamento, e pelo surgimento de estudos escritos por IA e de fábricas de papel, que vendem artigos falsos a pesquisadores inescrupulosos para que os submetam a periódicos. Todos esses fatores contaminam a literatura científica e correm o risco de prejudicar a confiança na ciência. No início deste mês, a Taylor & Francis suspendeu as submissões ao seu periódico Bioengineered enquanto seus editores investigavam 1.000 artigos que apresentavam indícios de manipulação ou de procedência de fábricas de papel.

Embora fraudes e falsificações sejam problemas importantes, Hanson está mais preocupado com a abundância de artigos científicos que pouco contribuem para o progresso do conhecimento científico. “O perigo muito maior, em volume e em números totais, é o material genuíno, mas desinteressante e pouco informativo”, disse ele.

Agora é possível publicar um artigo revisado por pares em um periódico que praticamente não traz nada de novo. Esses artigos representam um grande dreno para o sistema em termos do dinheiro usado para publicá-los e custeá-los, do tempo gasto em sua escrita e da revisão deles.

O professor Andre Geim, ganhador do Prêmio Nobel da Universidade de Manchester, afirmou: “Acredito que os pesquisadores publicam muitos artigos inúteis e, mais importante, não somos flexíveis o suficiente para abandonar temas em declínio, onde pouco se pode aprender de novo. Infelizmente, após atingir uma massa crítica, as comunidades de pesquisa se autoperpetuam devido aos interesses emocionais e financeiros dos envolvidos.”

Hanson acredita que o problema não é o acesso aberto e os APCs em si, mas sim as editoras com fins lucrativos que buscam publicar o maior número possível de artigos. Ele acredita que a pressão sobre a publicação acadêmica poderia ser substancialmente aliviada se as agências de financiamento estipulassem que o trabalho que apoiam deve ser publicado em periódicos sem fins lucrativos.

Hannah Hope, líder de pesquisa aberta do Wellcome Trust, afirmou que, em geral, pesquisas suficientemente boas para serem financiadas devem ser publicadas e que um maior investimento em ciência, especialmente fora da América do Norte e da Europa, contribuiu para o aumento de artigos científicos. No entanto, ela concordou que a revisão por pares poderia ser usada de forma mais seletiva. “Tenho certeza de que a revisão por pares leva à melhoria da pesquisa. Vale sempre a pena o tempo investido nela? Acho que é algo que devemos questionar como área, e se a revisão por pares acontece no formato atual para tudo”, disse ela.

Ritu Dhand, diretora científica da editora Springer Nature, rejeitou a narrativa de que “editoras de periódicos gananciosas” lucram publicando artigos de baixa qualidade e destacou o fato de que o cenário da pesquisa científica passou por uma “transformação radical”, quadruplicando de tamanho nos últimos 25 anos. Há muito dominada por países ocidentais, a pesquisa agora é muito mais globalizada e liderada pela China , e não pelos EUA.

“A solução é não permitir que o resto do mundo publique?”, disse ela. “Vivemos em um mundo digital. Certamente, não importa quantos artigos estejam sendo publicados.” Ela vê soluções em melhores filtros, ferramentas de busca e alertas para que os pesquisadores possam encontrar o trabalho que realmente lhes interessa, além de uma expansão global de revisores por pares para absorver a demanda.

Embora a tecnologia represente novos desafios para as editoras acadêmicas, Ramakrishnan concordou que ela pode ser a resposta para alguns dos problemas. “Eventualmente, todos esses artigos serão escritos por um agente de IA, e então outro agente de IA os lerá, analisará e produzirá um resumo para humanos. Eu realmente acredito que é isso que vai acontecer.”

Este artigo foi alterado em 14 de julho de 2025 para esclarecer que o periódico publicado pela Royal Society em 1665 é o periódico científico publicado continuamente mais antigo do mundo, não o primeiro a ser publicado.


Fonte: The Guardian

Ao “publicar ou perecer”, precisamos acrescentar “IA ou morrer”?

 A revolução da cointeligência está remodelando silenciosamente o que significa excelência acadêmica – e quem pode alcançá-la, afirma Jakub Drábik

Fonte: sompong_tom/Getty Images 

Por Jakub Drábik para o “Times of Higher Education”

Há uma sensação particular de desânimo com a qual muitos centro-europeus certamente estão familiarizados. Ela surge quando, ao ouvir um acadêmico britânico ou americano em uma conferência ou seminário, você percebe que, não importa quantos livros leia ou quão sólidas sejam suas ideias, você nunca falará ou escreverá em inglês com tanto estilo ou confiança quanto eles.

Fluência nativa na língua franca acadêmica, educação de elite e imersão precoce nas normas acadêmicas lhes dão um tipo de vantagem estrutural — uma com a qual os outros aprendem a conviver, mas que raramente conseguem superar.  

Ou assim eu pensava.

Ultimamente, tenho experimentado IA (Inteligência Artificial) generativa – não para terceirizar meu pensamento, mas para aprimorar a forma como o comunico. O resultado? Minha escrita ficou mais rápida, clara e precisa. É uma sensação estranha: ainda sou eu, mas com uma espécie de exoesqueleto intelectual.

Minha experiência — que certamente está longe de ser única — levanta uma questão desconfortável: a regra de ouro da sobrevivência acadêmica — publicar ou perecer — foi agora complementada por outra — IA ou morrer?  

Não quero dizer que a IA substituirá os acadêmicos (pelo menos, espero que não). Mas ela pode remodelar fundamentalmente a excelência acadêmica, como ela é alcançada e quem tem o direito de apresentar um desempenho de alto nível. E isso merece uma análise mais aprofundada.

Uma das mudanças mais visíveis trazidas pelas ferramentas de cointeligência é a redistribuição silenciosa do trabalho cognitivo. Tarefas que antes exigiam um esforço meticuloso – reformular frases incômodas, traduzir ideias para o inglês acadêmico, elaborar esboços – agora podem ser semiautomatizadas. Clareza e velocidade não estão mais vinculadas apenas à habilidade pessoal ou à fluência linguística, mas à fluência com que você consegue direcionar e moldar a produção de grandes modelos de linguagem. E se o que atualmente chamamos de “excelência” é, em parte, a capacidade de produzir textos claros e persuasivos com eficiência, então a excelência tem o potencial de ser compartilhada de forma mais equitativa. 

No entanto, o impacto da IA ​​na equidade tem limites. Acadêmicos em instituições com poucos recursos podem ter dificuldades para acessar os mesmos benefícios. O mesmo pode acontecer com aqueles que trabalham em idiomas pouco suportados pelos modelos tradicionais de IA. E aqueles que não têm proficiência técnica ou que se incomodam com a ausência de normas claras para o uso da IA ​​também podem ficar para trás.

Em relação a essas normas, todos parecem concordar que o autor deve permanecer responsável pelo conteúdo, independentemente do nível de IA envolvido. Mas não há consenso sobre como integrar essas ferramentas ao processo de escrita ou como – ou mesmo se – reconhecer sua contribuição.  

Na minha opinião, a alfabetização em IA deve ser tratada não como um acréscimo técnico, mas como uma competência acadêmica essencial – a par da alfabetização informacional ou da avaliação de fontes. Algumas universidades, especialmente no Reino Unido e nos EUA, já aceitaram isso e estabeleceram programas de alfabetização em IA para ajudar colegas mais cautelosos ou sobrecarregados a acompanhar os pioneiros – a iniciativa da Universidade Estadual do Arizona é frequentemente citada.

Mas outras instituições, particularmente na Europa Central e Oriental, permanecem hesitantes, ainda considerando o uso da IA ​​como suspeito ou até mesmo antiético. Alguns periódicos e conselhos de ética também têm se mostrado cautelosos. E em meio a tanta incerteza, a política não oficial passou a ser: use se quiser, mas não fale sobre isso em voz alta – pelo menos, não em reuniões.

Mas se aceitarmos, como devemos, que o uso da IA ​​é inevitável, precisamos lidar com a questão fundamental do que, exatamente, ainda é “nosso” no trabalho que produzimos quando a formulação, a estrutura e até mesmo parte da estrutura intelectual são cogeradas com a IA.  

Como argumentaram filósofos da tecnologia, como Shannon Vallor ou David J. Gunkel , o conhecimento coproduzido desafia a estrutura profundamente individualista da autoria, na qual se baseia o prestígio acadêmico. Talvez também precisemos repensar os conceitos de originalidade e até mesmo de contribuição intelectual.

Centrá-los em síntese, julgamento e direção pode fazer sentido, mas não tenho respostas. Aliás, nem tenho certeza se compreendo completamente o terreno em que estamos entrando. Mas se não mantivermos os olhos abertos e nos envolvermos com as implicações de para onde estamos indo – éticas, pedagógicas e institucionais –, podemos descobrir que não apenas a distribuição, mas o próprio significado da excelência acadêmica já mudou, enquanto ainda estamos discutindo se deveria mudar.

Jakub Drábik é professor de história na Universidade Anglo-Americana de Praga e pesquisador sênior no Instituto de História da Academia Eslovaca de Ciências


Fonte: Times of Higher Education

O que teria a dizer o Chatgpt sobre os perigos e limites da criação de uma corregedoria setorial na Uenf?

Abre o pano….

Em uma das minhas idas ao Conselho Universitário da Universidade Federal do Rio de Janeiro (UFRJ) enquanto estudante de graduação da instituição pude ver em ação o lendário reitor Pedro Calmon que, ao se insurgir contra uma tentativa de invasão policial da Faculdade Nacional de Direito, no Rio de Janeiro, em 1968, proferiu a célebre frase: “policial só entra na universidade se fizer vestibular”.  Aliás, como estudante da UFRJ durante os anos finais da ditadura empresarial-militar instalada pelo golpe de 1964 tive que conviver com a realidade óbvia de que alguns dos meus colegas de sala eram policiais infiltrados. Nós que éramos civis e insurgentes costumávamos nos divertir para saber quem eles eram, sempre sabendo que haviam os que eram propositalmente identificáveis, enquanto haviam os de infiltração profundo. O risco com esses últimos é que se juntassem em nossos esforços em prol da derrubada da ditadura para promover atos de sabotagem ou simplesmente de deduragem, o que implicava a ida para a tristemente célebre delegacia da Polícia Federal na Praça Mauá onde os sopapos eram certos.

Pois bem, 35 anos após a minha saída do campus da Ilha do Fundão para ganhar o mundo, essas lembranças do tempo em que reitores reagiam às invasões dos campi universitários por forças policiais me fazem olhar com profunda desconfiança para um ato cometido pela reitora da universidade onde atuo desde janeiro de 1998, a Universidade Estadual do Norte Fluminense Darcy Ribeiro (Uenf). 

O que fez a Magnifica Reitora Rosana Rodrigues?  Ela fez publicar nesta 4a. feira (25/6) a Portaria Reitoria 409 de 23 de junho de 2025 onde ela cria  a Unidade de Corregedoria Setorial da Uenf e coloca como cereja do bolo um policial civil para ocupar a posição de corregedor.

Diante de um fato que me pareceu simplesmente acintoso aos cânones que deram origem ao projeto Iluminista de Universidade, resolvi fazer algo que a atual administração da Uenf certamente apreciará, dados os compromissos manifestos com o uso da inovação tecnológica como ponto de partida para os novos rumos que pretendem dar à instituição criada por Darcy Ribeiro. Eu resolvi fazer duas perguntas à Inteligência Artificial popularmente conhecida como ChatGPT.

A primeira pergunta foi a seguinte:

Boa noite. dados os canones que deram base ao projeto iluminista de universidade, o que você me diria se uma reitora de universidade pública criasse uma corregedoria interna e colocasse um policial para ser o corregedor?

A resposta rápida e rasteira do Chatgpt veio na seguinte forma:

Boa noite! Essa é uma pergunta que toca em questões muito importantes sobre os princípios que sustentam a universidade pública, especialmente à luz do projeto iluminista que fundamentou a ideia moderna de universidade.

1. Os cânones iluministas e o projeto de universidade

O projeto iluminista de universidade, especialmente desde Humboldt (séc. XIX), é baseado em alguns pilares:

  • Autonomia universitária: A universidade deve ser independente de pressões externas, seja do Estado, da Igreja ou de interesses econômicos.

  • Liberdade de pensamento e de cátedra: O livre debate de ideias, mesmo (e especialmente) as mais críticas, é essencial para a produção de conhecimento.

  • Universalismo e razão: O conhecimento deve ser guiado por critérios racionais e universais, sem interferências arbitrárias de autoridade.

  • Formação crítica e emancipatória: A universidade forma sujeitos capazes de pensar criticamente e agir com base em princípios éticos e racionais.

2. Corregedoria com policial como corregedor

Diante disso, a criação de uma corregedoria interna em si não é necessariamente um problema — muitas universidades já têm ou precisam de mecanismos internos para apurar irregularidades. O ponto mais sensível é a nomeação de um policial como corregedor, o que levanta questões sérias:

Problemas potenciais:

  • Conflito com a autonomia universitária: A presença de um agente do Estado com formação policial pode ser percebida como um vetor de controle externo, o que contraria o princípio da autonomia universitária.

  • Risco à liberdade acadêmica: Mesmo que o policial esteja formalmente desarmado e afastado de funções operacionais, seu papel simbólico e sua formação podem gerar um ambiente de intimidação e autocensura.

  • Deslocamento da lógica acadêmica para a lógica policial: A universidade opera com base no diálogo, no contraditório e na pluralidade. A lógica policial, centrada na disciplina, ordem e punição, pode ser incompatível com a cultura universitária.

  • Desconfiança institucional: Professores, estudantes e técnicos podem ver essa medida como uma forma de vigilância, especialmente se houver um histórico de conflitos ou repressão.

3. O que isso revela?

Essa decisão pode estar relacionada a uma tendência de militarização da gestão pública, algo que vem sendo observado em vários contextos no Brasil. Também pode indicar uma resposta autoritária a conflitos internos, o que é perigoso para a saúde democrática da universidade.

4. Considerações finais

Se olharmos pela lente iluminista, essa medida seria altamente questionável. Um projeto de universidade fiel a esses princípios buscaria resolver conflitos e promover a ética institucional por meios que reforcem a democracia interna, o debate público, a mediação de conflitos e o respeito aos direitos fundamentais — não pela imposição de figuras associadas à repressão estatal.

Após obter essa resposta do ChatGPT, resolvi fazer a minha segunda pergunta que foi a seguinte:

À luz do que você me respondeu, o que deveriam fazer os docentes dessa universidade?

A segunda resposta do ChatGPT na seguinte forma:

À luz dos princípios iluministas que fundam o ideal de universidade pública, crítica e autônoma, os docentes — como parte fundamental da vida universitária e responsáveis pela defesa da liberdade acadêmica — não apenas podem, como devem se mobilizar diante de uma medida como a nomeação de um policial como corregedor. Isso porque essa decisão toca diretamente nos fundamentos éticos e políticos da instituição universitária.

O que os docentes deveriam fazer:


1. Deliberar coletivamente

  • Convocar reuniões departamentais, conselhos de centros e assembleias docentes para discutir o tema com seriedade.

  • Formular uma posição coletiva, com base em princípios institucionais, acadêmicos e democráticos.

2. Buscar os canais institucionais

  • Levar o debate ao Conselho Universitário (CONSUNI), se houver, ou à instância máxima deliberativa da universidade.

  • Exigir transparência nos critérios da nomeação, detalhamento das atribuições da corregedoria e do corregedor, e prestação de contas da reitoria.

3. Formar comissões independentes

  • Criar um grupo de trabalho interdisciplinar para avaliar os riscos institucionais e legais dessa medida.

  • Consultar juristas, especialistas em educação superior e ética institucional para embasar argumentos críticos.

4. Dialogar com a comunidade universitária

  • Promover debates públicos, rodas de conversa, seminários ou cartas abertas envolvendo estudantes, técnicos e professores.

  • Tornar a discussão acessível a toda a comunidade, explicando por que a presença de um policial nesse cargo pode comprometer a liberdade e a segurança institucional.

5. Se necessário, acionar órgãos externos

  • Se houver indícios de abuso de poder ou violação da autonomia, considerar representar ao Ministério Público Federal, à Defensoria Pública, à OAB ou a órgãos de controle como a CGU ou o MEC.

  • Em casos extremos, recorrer a instâncias internacionais, como relatorias da ONU ou OEA ligadas à liberdade acadêmica.

6. Defender princípios, não pessoas

  • O foco deve estar na defesa de valores institucionais, não em ataques pessoais à reitora ou ao corregedor.

  • Isso fortalece a legitimidade da ação docente e impede a distorção do debate como sendo “ideológico” ou “corporativista”.


Fundamentação ética da reação

A universidade, como instituição moderna, nasceu da luta contra o dogma, o autoritarismo e a tutela sobre o pensamento. Quando qualquer medida ameaça esse fundamento — mesmo que venha de dentro —, os docentes têm não apenas o direito, mas o dever de reagir.

Essa defesa não é corporativa; é republicana. Proteger a autonomia e a liberdade da universidade é proteger a sociedade contra o autoritarismo e o obscurantismo.

Se quiser, posso ajudar você a elaborar:

  • Um manifesto dos docentes;

  • Uma minuta de moção para conselhos;

  • Um parecer técnico-jurídico sobre a medida;

  • Uma carta aberta à comunidade.

Eu acabei dispensando a ajuda do ChatGPT na preparação dos documentos e agradeci pela ajuda da simpática IA.  A resposta ao meu agradecimento foi a seguinte:

Fico muito feliz em saber que pude ajudar. Se surgir qualquer outra questão, estarei por aqui.

Boa noite e força na defesa da universidade pública! ✊📚

Fecha o pano!

A tempestade da Inteligência Artificial

O surgimento da IA ​​generativa fez explodir a demanda por energia, inclusive de combustíveis fósseis

Imagem de marketing do curso de inteligência artificial e computação visual da École Polytechnique.  Jérémy Barande / École Polytechnique / Institut Polytechnique de Paris / Creative Commons 2.0

Por James Meadway para o “The Ecologist” 

Em apenas alguns anos desde que a OpenAI lançou seu modelo principal com uma interface de linguagem natural e fácil de usar, o ChatGPT, a “inteligência artificial” (IA) passou do reino da ficção científica para a aparente realidade cotidiana. 

A IA parecia capaz de feitos robóticos inimagináveis ​​há alguns anos: escrever obras inteiramente novas em linguagem natural; compor músicas; gerar obras de arte instantâneas. Mas por trás dessa mudança no poder computacional há um impacto ambiental preocupante e ainda pouco reconhecido. Um novo briefing da Opportunity Green resume o caso .

Os data centers, a base de hardware da economia digital atual, consomem muitos recursos. Essa economia digital se baseia na coleta, armazenamento e transmissão de dados em uma escala inimaginável. 

Industrial

Mesmo antes da explosão da inteligência artificial após o lançamento do ChatGPT pela OpenAI no final de 2022, os volumes envolvidos eram impressionantes: o tráfego global da internet cresceu de 156 Gb transferidos a cada segundo em 2002 para 150.000 Gb por segundo em 2022. 

Essa imensa coleção de uns e zeros, o núcleo digital da economia de dados, por sua vez forneceu a matéria-prima para treinar os modelos de aprendizado de máquina (ML) atuais. 

A chave para suas operações é a escala – de vastos acervos de dados; bancos e bancos de chips de silício dedicados em data centers especializados; e redes de telecomunicações rápidas espalhadas pelo mundo. Mas a escala que torna possíveis as habilidades semimágicas da IA ​​também a transforma em um problema ambiental crescente. 

Sejam quais forem as afirmações ousadas feitas há vinte anos, no alvorecer da era da Internet, sobre a “economia sem peso” que viria ou como todos nós estaríamos “vivendo no ar rarefeito”, os dados, na realidade, têm uma presença física concreta. 

Ele é armazenado e processado em bancos de chips de silício dedicados, produzidos em volumes extraordinários por alguns dos processos industriais mais exigentes e tecnicamente sofisticados aos quais temos acesso. 

Explosivo

Os chips funcionam com eletricidade — em quantidades triviais para um único circuito integrado, como o do seu telefone ou laptop, mas que, nas grandes quantidades necessárias para processamento de dados em larga escala, se tornam extraordinárias. 

Os racks de servidores mais recentes, dedicados à IA, contêm 72 chips especializados da fabricante Nvidia. Os maiores data centers de “hiperescala”, usados ​​para tarefas de IA, teriam cerca de 5.000 desses racks . 

E como qualquer pessoa que use um laptop por qualquer período de tempo sabe, até mesmo um único chip esquenta durante a operação. Para resfriar os servidores, é preciso água – litros dela. Somando tudo isso, um único data center em hiperescala normalmente precisará de tanta água quanto uma cidade de 30.000 habitantes – e a quantidade equivalente de eletricidade. 

As novas e muito específicas demandas de energia do crescimento dos data centers levarão as redes nacionais de energia para mais perto do limite.

Financial Times relata que a Microsoft está abrindo uma dessas gigantes em algum lugar do mundo a cada três dias.

Mesmo assim, durante anos, o crescimento explosivo da economia digital teve um impacto surpreendentemente pequeno na demanda global por energia e nas emissões de carbono. Os ganhos de eficiência nos data centers — a espinha dorsal da internet — mantiveram o consumo de eletricidade sob controle. 

Consumo

Mas a ascensão da IA ​​generativa, impulsionada pelo lançamento do ChatGPT no final de 2022, rompeu esse equilíbrio. A IA eleva a demanda por dados e poder de processamento à estratosfera.

A versão mais recente do modelo GPT principal da OpenAI, o GPT-4, é construída em 1,3 trilhão de parâmetros , com cada parâmetro descrevendo a força de uma conexão entre diferentes caminhos no cérebro do software do modelo. 

Quanto mais dados novos puderem ser inseridos no modelo para treinamento, melhor — tantos dados que um artigo de pesquisa estimou que os modelos de aprendizado de máquina terão usado todos os dados da internet até 2028.

Hoje, a demanda insaciável por poder de computação está remodelando os sistemas energéticos nacionais. Dados do Fundo Monetário Internacional (FMI) mostram que data centers em todo o mundo já consomem tanta eletricidade quanto países inteiros como França ou Alemanha. A previsão é de que, até 2030, a demanda mundial de energia por data centers será igual ao consumo total de eletricidade da Índia. 

Em princípio, essa demanda crescente por eletricidade poderia ser atendida por energias renováveis, e muitas das grandes empresas de tecnologia, como o Google, têm metas de atingir 100% de consumo de energia renovável. 

Minas

Mas a realidade é muito mais sombria. Para continuar a expansão nesse ritmo alucinante, é necessária a instalação rápida de novos suprimentos. E a demanda por eletricidade em data centers é bem diferente da de residências, escritórios e fábricas, que normalmente apresentam picos e quedas ao longo do dia, quando as pessoas chegam em casa e ligam a TV, ou saem e apagam as luzes, ou quando as máquinas são ligadas e desligadas. 

A demanda do data center é constante e requer 24 horas de trabalho, com o mínimo de tempo de inatividade possível. Isso, por sua vez, cria a necessidade de um fornecimento contínuo e regular de eletricidade, para o qual as energias renováveis ​​nem sempre são as melhores atualmente.

O resultado é que a demanda por data centers está sendo cada vez mais atendida por combustíveis fósseis. Nos EUA, 60% da nova demanda de energia é suprida por gás natural, enquanto na Alemanha e na Polônia, usinas a carvão estão sendo mantidas em operação para alimentar o boom da IA. 

A Microsoft está expandindo as operações do data center perto de Hambach, uma das últimas minas de carvão profundas da Alemanha. A empresa se recusou a comentar sobre a fonte de energia do centro . 

Enquanto isso, o governo Trump, cético em relação ao clima nos EUA, admite abertamente que expandir a geração de energia a carvão é essencial para manter a vantagem do país nas operações de data center .

Usinas de energia

O resultado é que uma indústria que atualmente é responsável por cerca de 0,5% das emissões globais de gases de efeito estufa, segundo estimativas conservadoras da Agência Internacional de Energia (AIE), deverá se tornar um dos contribuintes de crescimento mais rápido para as mudanças climáticas na próxima década. 

Mesmo que outras indústrias mais antigas reduzam suas emissões e um progresso real possa ser visto na mudança para a produção de energias renováveis, as demandas de energia dos data centers representam um risco significativo para as estratégias nacionais de descarbonização.

Até o momento, há pouca conscientização sobre isso por parte dos governos nacionais. Os data centers nem sequer constam no orçamento de carbono mais recente do Comitê de Mudanças Climáticas do Reino Unido – apesar do entusiasmo do governo britânico por sua rápida expansão. 

O trabalho da Beyond Fossil Fuels sugere que o crescimento dos data centers na Europa, seguindo as tendências atuais, adicionaria o equivalente a todo o sistema de energia de combustíveis fósseis da Alemanha aos GEE europeus até 2030. Mudar essa demanda para energias renováveis, por sua vez, reduziria o fornecimento para outras indústrias e ameaçaria os planos de descarbonização em outros setores. 

O problema energético é que os data centers, impulsionados pela IA, representaram uma nova fonte de demanda energética em rápido crescimento, com a qual as usinas de energia, os sistemas de rede e até mesmo as políticas de descarbonização não foram projetados para lidar. 

Lucros

As tensões já estão começando a aparecer: o primeiro “apagão de bytes” do mundo foi evitado por pouco na Virgínia no verão de 2024 , quando um raio derrubou um transformador perto de um conjunto de 20 data centers. 

Percebendo uma queda repentina de energia elétrica na rede principal, os data centers ligaram seus geradores de energia de reserva no local, causando um aumento repentino no fornecimento de energia para a rede principal, o que ameaçou causar apagões em todo o estado e fez com que os operadores da rede corressem para procedimentos de emergência. 

Como vimos com a dramática queda de energia em todo o país, na Espanha e em Portugal, os sistemas de rede nacionais, muitos construídos há décadas, já estão com problemas. 

As novas e específicas demandas de energia decorrentes do crescimento dos data centers os levarão para mais perto do limite. Combustíveis fósseis e, em alguns casos, energia nuclear, podem representar uma solução supostamente rápida para um problema complexo.

Os modelos de negócios das grandes empresas de tecnologia estão presos à expansão – a fonte de lucros da economia de dados, ao longo de décadas, tem sido expandir a quantidade de poder de computação disponível e então esperar que a demanda a preencha. 

Cepas

Para os operadores de IA, o crescimento drástico na escala de suas operações significa a possibilidade de criar novos mercados para novos produtos, mais rápido que seus concorrentes. 

Mas isso cria um problema familiar: mesmo que a eficiência do hardware de computação melhore rapidamente — e os modelos de ML estejam, em geral, se tornando mais eficientes — essa eficiência tende a significar apenas mais demanda pela saída dos modelos. 

Da mesma forma que aviões mais eficientes criaram mais demanda por voos, computadores mais eficientes também criaram mais demanda por computação — e, por trás dos servidores zumbindo, isso significa mais demanda de energia e mais emissões de gases de efeito estufa. 

Os benefícios dessas emissões e de todo esse processamento também não são imediatamente claros. É óbvio quem são os vencedores das Big Techs: as grandes corporações e seus proprietários, principalmente sediados nos EUA, que exercem poderes quase monopolistas sobre a economia digital e que geraram retornos tão incríveis. 

Mas os próprios centros de dados criam poucos empregos localmente, enquanto suas demandas por recursos — não apenas de eletricidade, mas, em todo o mundo, de água — impõem severas pressões aos habitantes locais. 

Descarbonização

A troca ecológica desigual das Big Techs ainda é pouco pesquisada, mas sua operação cria uma dinâmica semicolonial: os donos do sistema no centro, envolvidos em operações extrativas no resto do mundo, espremendo seus recursos escassos.

O artigo da Opportunity Green é apenas o começo da nossa pesquisa. Acreditamos que há uma necessidade urgente de um debate público mais bem informado sobre o papel da computação e seus impactos ambientais – com uma avaliação adequada dos potenciais benefícios e uma compreensão mais clara das desvantagens. 

O desafio aos sistemas de energia e aos planos de descarbonização, em particular, levantado pela expansão vertiginosa dos centros de dados, requer atenção urgente, em três grandes áreas:

  • Devem ser realizadas avaliações nacionais e supranacionais das trajetórias prováveis ​​de consumo de energia e das emissões subsequentes decorrentes da expansão de data centers, e esses cenários devem ser considerados em relação às estruturas nacionais e supranacionais de controle de emissões. As estimativas atuais sobre emissões de data centers estão sujeitas a ampla variação e poderiam ser refinadas de forma útil.
  • As mudanças legais, regulatórias e políticas necessárias para aproximar ao máximo as operações de data centers de 100% de energias renováveis, adotando uma abordagem que abrange todo o ciclo de vida, desde a construção até a operação, e incluindo o suporte ao armazenamento em baterias. Essas mudanças podem incluir a consideração da contribuição dos usuários de data centers (Big Techs) para o sistema tributário e a alocação de recursos para expansão/descarbonização da rede elétrica.
  • Por fim, desenvolver políticas para minimizar a coleta, o processamento e o armazenamento de dados, juntamente com uma hierarquia robusta de aplicações em data centers. Isso se baseará nas recomendações do relatório do Centro Nacional de Políticas de Engenharia sobre a minimização da pegada das operações de data centers. O problema da demanda e do propósito da expansão de data centers é indissociável da questão do seu impacto em termos de recursos e emissões, e deve ser enfrentado diretamente pelas políticas.

Fonte: The Ecologist

Proteção infantil no mundo digital exige mais que tecnologia: o papel insubstituível das famílias na era das telas

Especialistas alertam que o uso de tecnologia para proteger crianças nas redes sociais não substitui o papel ativo das famílias e reforçam a necessidade de diálogo, presença e formação ética no ambiente digital

Diante do crescimento acelerado do uso de redes sociais por crianças e adolescentes, cresce também a urgência em discutir o papel da sociedade — e, em especial, das famílias — na formação digital das novas gerações. Enquanto propostas governamentais como a exigência de verificação de idade por inteligência artificial ganham espaço no debate público, especialistas alertam que soluções exclusivamente tecnológicas são insuficientes para enfrentar um problema que é, antes de tudo, humano.

Para o sociólogo Marcelo Senise, presidente do Instituto Brasileiro para a Regulamentação da Inteligência Artificial (IRIA), confiar a proteção infantil a algoritmos e sistemas automatizados pode gerar uma perigosa sensação de controle. “Estamos diante de um desafio que exige presença, diálogo e responsabilidade compartilhada. Proteger de verdade vai além de apertar um botão”, afirma.

Senise chama atenção para os riscos associados ao uso de tecnologias como o reconhecimento facial para determinar a idade de usuários, ressaltando questões éticas, falhas técnicas e ameaças à privacidade de crianças e adolescentes. Mas seu alerta vai além das ferramentas: ele aponta para a ausência de políticas públicas robustas de educação digital e para a tendência de governos e plataformas buscarem soluções simbólicas, de fácil comunicação, mas de eficácia duvidosa.

Nesse cenário, escolas e famílias precisam atuar de forma conjunta, conscientes de que a formação ética e emocional das crianças no ambiente digital não pode ser delegada apenas à tecnologia. A experiência cotidiana revela mudanças significativas no comportamento infantil, muitas vezes moldado por conteúdos violentos, sexualizados ou distorcidos, consumidos sem mediação ou reflexão.

Para responder a esse desafio, iniciativas têm surgido em diversas comunidades escolares e espaços de formação, com o objetivo de promover encontros entre pais, educadores e especialistas. A proposta é simples, mas essencial: convidar as famílias a refletirem sobre os impactos do uso desordenado da tecnologia no cotidiano dos filhos — e sobre como retomar, com firmeza e afeto, o protagonismo na orientação digital.

Mais do que oferecer respostas prontas, esses encontros visam fortalecer laços. Afinal, como aponta Senise, não existe ferramenta mais eficaz na proteção infantil do que adultos atentos, presentes e comprometidos com a formação ética de suas crianças. A tecnologia pode ajudar, mas não substitui a presença. E esse, talvez, seja o maior desafio da nossa era.

Cientistas denunciam centenas de artigos científicos que usam IA sem informar

Sinais reveladores do uso de chatbots estão espalhados pela literatura acadêmica — e, em alguns casos, desapareceram sem deixar vestígios

Um homem maduro segurando uma caneta olha para uma grande tela de computador exibindo texto de um chatbot de IA.

Crédito: Laurence Dutton/Getty 

Por Diane Kwon para a “Nature”

“De acordo com minha última atualização de conhecimento”, “regenerar resposta”, “como um modelo de linguagem de IA” — esses são apenas alguns dos sinais reveladores do uso de inteligência artificial (IA) por pesquisadores que observadores da integridade científica encontraram espalhados por artigos na literatura acadêmica.

Ferramentas de IA generativa, como o ChatGPT, transformaram rapidamente a publicação acadêmica. Cientistas as utilizam cada vez mais para preparar e revisar manuscritos, e as editoras têm se esforçado para criar diretrizes para seu uso ético. Embora as políticas variem, muitas editoras exigem que os autores divulguem o uso de IA na preparação de artigos científicos .

Mas cientistas investigadores identificaram centenas de casos em que ferramentas de IA parecem ter sido usadas sem divulgação . Em alguns casos, os artigos foram corrigidos silenciosamente — as frases características da IA ​​foram removidas sem reconhecimento. Esse tipo de mudança silenciosa é uma ameaça potencial à integridade científica, afirmam alguns pesquisadores.

Essas mudanças apareceram em uma “pequena minoria de periódicos”, afirma Alex Glynn, instrutor de pesquisa e comunicação na Universidade de Louisville, no Kentucky. Mas, considerando que provavelmente também há muitos casos em que autores usaram IA sem deixar vestígios óbvios, “estou surpreso com a quantidade que existe”, acrescenta.

‘Eu sou um modelo de linguagem de IA’

Desde 2023, especialistas em integridade têm sinalizado artigos com sinais óbvios de uso não divulgado de IA, como aqueles que contêm a frase “regenerar resposta”, gerada por alguns chatbots com base em grandes modelos de linguagem quando um usuário deseja uma nova resposta para uma consulta. Essas frases podem aparecer em artigos quando um autor copia e cola as respostas de um chatbot.

Um dos primeiros casos que Glynn se lembra de ter visto foi em um artigo, agora retratado, publicado em 2024 na Radiology Case Reports 1 , que continha a frase do chatbot “Eu sou um modelo de linguagem de IA”. “Era o mais descarado possível”, diz Glynn. “De alguma forma, isso passou despercebido não apenas pelos autores, mas também pelos editores, revisores, compositores e todos os demais envolvidos no processo de produção.”

Desde então, Glynn encontrou centenas de outros artigos com características marcantes do uso de IA — incluindo alguns contendo sinais mais sutis, como as palavras “Certamente, aqui estão”, outra frase típica de chatbots de IA. Ele criou um rastreador online, o Academ-AI, para registrar esses casos — e tem mais de 700 artigos listados. Em uma análise dos primeiros 500 artigos sinalizados, publicada como pré-impressão em 2 de novembro , Glynn descobriu que 13% desses artigos apareceram em periódicos pertencentes a grandes editoras, como Elsevier, Springer Nature e MDPI.

Artur Strzelecki, pesquisador da Universidade de Economia de Katowice, Polônia, também reuniu exemplos de uso não divulgado de IA em artigos, com foco em periódicos respeitáveis. Em um estudo publicado em dezembro, ele identificou 64 artigos publicados em periódicos categorizados pela base de dados acadêmica Scopus como estando no quartil superior em sua área de atuação . “Esses são lugares onde esperaríamos um bom trabalho dos editores e revisões decentes”, diz Strzelecki.

 A equipe de notícias da Nature contatou diversas editoras cujos artigos foram sinalizados por Glynn e Strzelecki, incluindo Springer Nature, Taylor & Francis e IEEE. ( A equipe de notícias da Nature é editorialmente independente de sua editora, a Springer Nature.) Todas disseram que os artigos sinalizados estão sob investigação. Elas também apontaram para suas políticas de IA — que, em alguns casos, não exigem a divulgação do uso de IA ou a exigem apenas para determinados usos. A Springer (de propriedade da Springer Nature), por exemplo, afirma que a edição de texto assistida por IA, que inclui alterações feitas para legibilidade, estilo e erros gramaticais ou ortográficos, não precisa ser sinalizada.

Kim Eggleton, chefe de revisão por pares e integridade em pesquisa da IOP Publishing em Bristol, Reino Unido, observa que, embora a editora tenha introduzido uma política que exige que os autores declarem o uso de IA em 2023, alterou as regras no ano passado para refletir a ubiquidade das ferramentas. “Embora incentivemos os autores a divulgar o uso de IA, isso não é mais obrigatório”, afirma Eggleton. “Estamos nos concentrando em garantir a precisão e a robustez do conteúdo por meio de uma combinação de verificações automatizadas e humanas, em vez de proibir completamente a IA.” A política da IOP, no entanto, proíbe o uso de IA para “criar, alterar ou manipular” dados ou resultados de pesquisa.

doi: https://doi.org/10.1038/d41586-025-01180-2

Referências

  1. Bader, R. et al. Radiol. Case Rep. 19 , 2106–2111 (2024); retratação 19 , 3598 (2024) .

  2. Glynn, A. Pré-impressão em arXiv https://doi.org/10.48550/arXiv.2411.15218 (2024).

  3. Strzelecki, A. Aprenda. Publicação 28 , e1650 (2024).

  4. Shoukat, R. et al. PLoS ONE 19 , e0298220 (2024); retratação 19 , e0302484 (2024).

  5. Abdel-Rahman Mohamed, A. et al. Toxicologia 497–498 , 153629 (2023).

  6. Aquarius, R., Schoeters, F., Wise, N., Glynn, A. & Cabanac, G. Learn. Publ. 38 , e1660 (2025).


Fonte: Nature