IA sinaliza centenas de periódicos científicos como potencialmente predatórios, revela estudo

Acompanhar a proliferação dos chamados “periódicos predatórios” tem sido uma tarefa árdua para os humanos, que optaram por usar IA para vasculhar uma lista de quase 15.200 periódicos de acesso aberto na internet, afirma Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação da Universidade do Colorado em Boulder.

Acompanhar a proliferação dos chamados "periódicos predatórios" tem sido uma tarefa árdua para os humanos, então a equipe recorreu à IA para analisar uma lista de quase 15.200 periódicos de acesso aberto na internet, afirma Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação da Universidade do Colorado em Boulder. Foto

Foto: Europa Press / Arquivo

Por La Jornada

Madri. Uma plataforma de inteligência artificial (IA) que busca periódicos científicos questionáveis ​​sinalizou mais de 1.400 como “potencialmente problemáticos” em uma lista de quase 15.200 periódicos de acesso aberto na internet.

O estudo, publicado na Science Advances e liderado pela Universidade do Colorado em Boulder, aborda uma tendência alarmante no mundo da pesquisa.

Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação, recebe lembretes por e-mail várias vezes por semana: essas mensagens de spam vêm de pessoas que se passam por editores de periódicos científicos, geralmente aqueles dos quais Acuña nunca ouviu falar, oferecendo-se para publicar seus artigos por uma taxa alta.

Essas publicações são às vezes chamadas de periódicos “predatórios”. Elas têm como alvo cientistas, convencendo-os a pagar centenas ou até milhares de dólares para publicar suas pesquisas sem a devida verificação.

“Tem havido um esforço crescente entre cientistas e organizações para verificar esses periódicos”, disse Acuña. “Mas é como brincar de caça-toupeiras. Você pega um, e logo aparece outro, geralmente da mesma empresa. Eles simplesmente criam um novo site e dão um novo nome.”

A nova ferramenta de IA de seu grupo filtra automaticamente periódicos científicos, avaliando seus sites e outros dados online com base em certos critérios: os periódicos têm um conselho editorial com pesquisadores renomados? Seus sites contêm muitos erros gramaticais? Acuña enfatiza que a ferramenta não é perfeita. Em última análise, ele acredita que especialistas humanos, e não máquinas, devem tomar a decisão final sobre a reputação de um periódico.

Mas, em um momento em que figuras proeminentes questionam a legitimidade da ciência, conter a proliferação de publicações questionáveis ​​se tornou mais importante do que nunca, disse ele.

“Na ciência, você não começa do zero. Você constrói com base na pesquisa de outros”, disse Acuña. “Então, se a fundação daquela torre desabar, tudo desaba.”

Extorsão

Quando cientistas submetem um novo estudo a uma revista de prestígio, ele normalmente passa por uma prática chamada revisão por pares. Especialistas externos leem o estudo e avaliam sua qualidade — ou, pelo menos, esse é o objetivo.

Um número crescente de empresas tem tentado burlar esse processo para lucrar. Em 2009, Jeffrey Beall, bibliotecário da Universidade do Colorado, cunhou o termo “periódicos predatórios” para descrever essas publicações.

Eles geralmente têm como alvo pesquisadores de fora dos Estados Unidos e da Europa, como na China, Índia e Irã, países onde as instituições científicas podem ser jovens e a pressão e os incentivos para que os pesquisadores publiquem são altos.

“Eles dizem: ‘Se você pagar US$ 500 ou US$ 1.000, nós revisaremos seu artigo'”, explicou Acuña. “Na verdade, eles não oferecem nenhum serviço. Eles apenas pegam o PDF e publicam no site deles.”

Vários grupos têm tentado coibir essa prática. Entre eles está uma organização sem fins lucrativos chamada Directory of Open Access Journals (DOAJ). Desde 2003, voluntários sinalizaram milhares de periódicos como suspeitos com base em seis critérios. (Publicações respeitáveis, por exemplo, frequentemente incluem uma descrição detalhada de suas políticas de revisão por pares em seus sites.)

Mas acompanhar a proliferação dessas publicações tem sido uma tarefa assustadora para os humanos.

Para acelerar o processo, Acuña e seus colegas recorreram à IA. A equipe treinou o sistema com dados do DOAJ e, em seguida, pediu à IA que examinasse uma lista de quase 15.200 periódicos de acesso aberto na internet.

Dessas postagens, a IA sinalizou inicialmente mais de 1.400 como potencialmente problemáticas.

Acuña e seus colegas pediram a especialistas humanos que revisassem um subconjunto dos periódicos suspeitos. A IA cometeu erros, segundo os humanos, sinalizando aproximadamente 350 publicações como questionáveis ​​quando provavelmente eram legítimas. Isso ainda deixou mais de 1.000 periódicos que os pesquisadores identificaram como questionáveis. “Acredito que isso deveria ser usado para ajudar a pré-selecionar um grande número de periódicos”, explicou ele. “Mas a análise final deveria ser feita por profissionais humanos.”

Não é uma caixa preta

Acuña acrescentou que os pesquisadores não queriam que seu sistema fosse uma “caixa preta” como outras plataformas de IA.

“Com o ChatGPT, por exemplo, muitas vezes é difícil entender por que ele sugere algo”, disse Acuña. “Tentamos tornar o nosso o mais fácil de entender possível.”

A equipe descobriu, por exemplo, que periódicos questionáveis ​​publicaram um número anormalmente alto de artigos. Eles também incluíam autores com mais afiliações do que periódicos mais legítimos, e autores que citavam suas próprias pesquisas, em vez das de outros cientistas, com frequência anormalmente alta.


Fonte: La Jornada

Qualidade de artigos científicos é questionada, com acadêmicos ‘sobrecarregados’ por milhões de publicações

Zombaria generalizada de rato gerado por IA com pênis gigante em um artigo traz problema à atenção pública

Pesquisador folheando pilha de papéis

O ganhador do Prêmio Nobel, André Geim, disse que “pesquisadores publicam muitos artigos inúteis”. Fotografia: Sigrid Gombert/Getty Images/Image Source

Por Ian Sample, Editor de ciência, para o “The Guardian” 

À primeira vista, era apenas mais um artigo científico, um dos milhões publicados todos os anos, e destinado a receber pouca ou nenhuma atenção fora do campo arcano da sinalização biológica em células-tronco destinadas a se tornarem espermatozoides.

Mas logo após a publicação online, no periódico Frontiers in Cell and Developmental Biology, o artigo conquistou um público global. Nem todos os leitores vieram pela ciência.

O motivo de seu apelo mais amplo? Uma imagem chamativa, que retratava um rato sentado ereto, com um pênis inacreditavelmente grande e muitos testículos. Partes do corpo eram rotuladas com palavras sem sentido, como “testtomcels” e “dck”.

Em vez de cair na obscuridade acadêmica, o artigo logo se tornou alvo de chacota na grande mídia. “Revista científica publica rato gerado por Inteligência Artificial (IA) com pênis gigantesco”, noticiou a Vice News. “Pode ser considerado um erro de IA em larga escala”, entoou o Daily Telegraph.

As imagens foram de fato geradas por IA, mas isso era permitido pelas regras do periódico. O problema era que os autores não haviam verificado a precisão do material gerado pela IA. Nem a equipe do periódico nem seus revisores especialistas notaram os erros gritantes. Três dias após a publicação, o artigo foi retratado.

O que diferencia a anedota de outras histórias de desastres com IA é o vislumbre que ela proporciona de problemas mais amplos no cerne de uma indústria importante. A publicação científica registra e atua como guardiã de informações que moldam o mundo e com base nas quais decisões de vida e morte são tomadas.

O primeiro periódico científico publicado continuamente foi publicado pela Royal Society em 1665. A edição inaugural da Philosophical Transactions contava aos leitores sobre um ponto em Júpiter, um minério de chumbo peculiar da Alemanha e um bezerro “monstruoso” encontrado por um açougueiro em Lymington.

Desde então, os periódicos têm sido a crônica do pensamento científico sério. Newton, Einstein e Darwin postularam teorias históricas ali; Marie Curie cunhou o termo “radioatividade” em um periódico.

Mas periódicos são mais do que registros históricos. Pesquisas inovadoras em campos críticos, desde genética e IA até ciência do clima e exploração espacial, são publicadas rotineiramente em um número crescente de periódicos, mapeando o progresso da humanidade. Tais estudos orientam o desenvolvimento de medicamentos, moldam a prática médica, fundamentam políticas governamentais e informam estratégias geopolíticas, chegando até mesmo a estimativas de fatalidades em campanhas militares sangrentas, como o ataque israelense a Gaza.

A natureza consequente dos periódicos e as potenciais ameaças à qualidade e à confiabilidade do trabalho que publicam levaram cientistas renomados a soar o alarme. Muitos argumentam que a publicação científica é fragmentada, insustentável e produz muitos artigos que beiram a inutilidade.

O alerta de laureados com o Nobel e outros acadêmicos surge no momento em que a Royal Society se prepara para lançar uma importante revisão da publicação científica no final do verão. A publicação se concentrará nas “disrupções” que a indústria enfrentará nos próximos 15 anos.

Sir Mark Walport, ex-cientista-chefe do governo e presidente do conselho editorial da Royal Society, disse que quase todos os aspectos da publicação científica estavam sendo transformados pela tecnologia, enquanto incentivos profundamente arraigados para pesquisadores e editores frequentemente favoreciam a quantidade em detrimento da qualidade.

“Volume é um fator ruim”, disse Walport. “O incentivo deve ser a qualidade, não a quantidade. Trata-se de reestruturar o sistema de forma a incentivar a boa pesquisa do início ao fim.”

Hoje, após a drástica expansão da ciência e das práticas de publicação, iniciada pelo magnata da imprensa Robert Maxwell, dezenas de milhares de periódicos científicos publicam milhões de artigos anualmente. Uma análise para o Guardian feita por Gordon Rogers, cientista-chefe de dados da Clarivate, uma empresa de análise, mostra que o número de estudos de pesquisa indexados no banco de dados Web of Science da empresa aumentou 48%, de 1,71 milhão para 2,53 milhões, entre 2015 e 2024. Somando todos os outros tipos de artigos científicos, o total chega a 3,26 milhões.

Em um artigo marcante do ano passado, o Dr. Mark Hanson, da Universidade de Exeter, descreveu como os cientistas estavam “cada vez mais sobrecarregados” com o volume de artigos publicados. Manter o ritmo de trabalho verdadeiramente original é apenas um dos problemas. As demandas da revisão por pares – na qual acadêmicos se voluntariam para avaliar o trabalho uns dos outros – são agora tão intensas que os editores de periódicos podem ter dificuldade para encontrar especialistas dispostos.

De acordo com um estudo recente , somente em 2020, acadêmicos em todo o mundo gastaram mais de 100 milhões de horas revisando artigos para periódicos. Para especialistas nos EUA, o tempo gasto na revisão naquele ano representou mais de US$ 1,5 bilhão em mão de obra gratuita.

“Todos concordam que o sistema está meio quebrado e insustentável”, disse Venki Ramakrishnan, ex-presidente da Royal Society e ganhador do Prêmio Nobel no Laboratório de Biologia Molecular do Conselho de Pesquisa Médica. “Mas ninguém sabe realmente o que fazer a respeito.”

No mundo acadêmico do “publique ou pereça”, onde e com que frequência um pesquisador publica, e quantas citações seus artigos recebem, são fatores que definem sua carreira. A justificativa é razoável: os melhores cientistas frequentemente publicam nos melhores periódicos. Mas o sistema pode levar os pesquisadores a perseguir métricas. Eles podem conduzir estudos mais fáceis, promover resultados chamativos ou publicar suas descobertas em mais artigos do que o necessário. “Eles são incentivados por seus institutos ou agências de financiamento governamentais a publicar artigos com seus nomes, mesmo que não tenham nada de novo ou útil a dizer”, disse Hanson.

A publicação científica possui um modelo de negócios único. Cientistas, normalmente financiados por contribuintes ou instituições de caridade, realizam as pesquisas, as escrevem e revisam o trabalho uns dos outros para manter os padrões de qualidade. Os periódicos gerenciam a revisão por pares e publicam os artigos. Muitos periódicos cobram pelo acesso por meio de assinaturas, mas as editoras estão adotando modelos de acesso aberto, nos quais os autores podem pagar até £ 10.000 para ter um único artigo disponibilizado gratuitamente online.

De acordo com uma análise recente , entre 2015 e 2018, pesquisadores em todo o mundo pagaram mais de US$ 1 bilhão em taxas de acesso aberto às cinco grandes editoras acadêmicas: Elsevier, Sage, Springer Nature, Taylor & Francis e Wiley.

O acesso aberto ajuda a disseminar pesquisas de forma mais ampla. Por não ter acesso pago, o trabalho pode ser lido por qualquer pessoa, em qualquer lugar. Mas o modelo incentiva editoras comerciais a publicar mais artigos. Algumas lançam novos periódicos para atrair mais estudos. Outras solicitam artigos para um grande número de edições especiais.

Para uma editora suíça, a MDPI, edições especiais de periódicos representam uma importante fonte de receita. Um único periódico da MDPI, o International Journal of Molecular Sciences, está aceitando submissões para mais de 3.000 edições especiais . A taxa de publicação, ou taxa de processamento de artigo (APC), para um artigo é de £ 2.600. Desde o ano passado, a Fundação Nacional de Ciências da Suíça se recusa a pagar taxas de publicação para edições especiais devido a preocupações com a qualidade . A MDPI não respondeu a um pedido de entrevista.

Incentivos inúteis em torno da publicação acadêmica são apontados como responsáveis por níveis recordes de retratações , pelo aumento de periódicos predatórios , que publicam qualquer coisa mediante pagamento, e pelo surgimento de estudos escritos por IA e de fábricas de papel, que vendem artigos falsos a pesquisadores inescrupulosos para que os submetam a periódicos. Todos esses fatores contaminam a literatura científica e correm o risco de prejudicar a confiança na ciência. No início deste mês, a Taylor & Francis suspendeu as submissões ao seu periódico Bioengineered enquanto seus editores investigavam 1.000 artigos que apresentavam indícios de manipulação ou de procedência de fábricas de papel.

Embora fraudes e falsificações sejam problemas importantes, Hanson está mais preocupado com a abundância de artigos científicos que pouco contribuem para o progresso do conhecimento científico. “O perigo muito maior, em volume e em números totais, é o material genuíno, mas desinteressante e pouco informativo”, disse ele.

Agora é possível publicar um artigo revisado por pares em um periódico que praticamente não traz nada de novo. Esses artigos representam um grande dreno para o sistema em termos do dinheiro usado para publicá-los e custeá-los, do tempo gasto em sua escrita e da revisão deles.

O professor Andre Geim, ganhador do Prêmio Nobel da Universidade de Manchester, afirmou: “Acredito que os pesquisadores publicam muitos artigos inúteis e, mais importante, não somos flexíveis o suficiente para abandonar temas em declínio, onde pouco se pode aprender de novo. Infelizmente, após atingir uma massa crítica, as comunidades de pesquisa se autoperpetuam devido aos interesses emocionais e financeiros dos envolvidos.”

Hanson acredita que o problema não é o acesso aberto e os APCs em si, mas sim as editoras com fins lucrativos que buscam publicar o maior número possível de artigos. Ele acredita que a pressão sobre a publicação acadêmica poderia ser substancialmente aliviada se as agências de financiamento estipulassem que o trabalho que apoiam deve ser publicado em periódicos sem fins lucrativos.

Hannah Hope, líder de pesquisa aberta do Wellcome Trust, afirmou que, em geral, pesquisas suficientemente boas para serem financiadas devem ser publicadas e que um maior investimento em ciência, especialmente fora da América do Norte e da Europa, contribuiu para o aumento de artigos científicos. No entanto, ela concordou que a revisão por pares poderia ser usada de forma mais seletiva. “Tenho certeza de que a revisão por pares leva à melhoria da pesquisa. Vale sempre a pena o tempo investido nela? Acho que é algo que devemos questionar como área, e se a revisão por pares acontece no formato atual para tudo”, disse ela.

Ritu Dhand, diretora científica da editora Springer Nature, rejeitou a narrativa de que “editoras de periódicos gananciosas” lucram publicando artigos de baixa qualidade e destacou o fato de que o cenário da pesquisa científica passou por uma “transformação radical”, quadruplicando de tamanho nos últimos 25 anos. Há muito dominada por países ocidentais, a pesquisa agora é muito mais globalizada e liderada pela China , e não pelos EUA.

“A solução é não permitir que o resto do mundo publique?”, disse ela. “Vivemos em um mundo digital. Certamente, não importa quantos artigos estejam sendo publicados.” Ela vê soluções em melhores filtros, ferramentas de busca e alertas para que os pesquisadores possam encontrar o trabalho que realmente lhes interessa, além de uma expansão global de revisores por pares para absorver a demanda.

Embora a tecnologia represente novos desafios para as editoras acadêmicas, Ramakrishnan concordou que ela pode ser a resposta para alguns dos problemas. “Eventualmente, todos esses artigos serão escritos por um agente de IA, e então outro agente de IA os lerá, analisará e produzirá um resumo para humanos. Eu realmente acredito que é isso que vai acontecer.”

Este artigo foi alterado em 14 de julho de 2025 para esclarecer que o periódico publicado pela Royal Society em 1665 é o periódico científico publicado continuamente mais antigo do mundo, não o primeiro a ser publicado.


Fonte: The Guardian

Ao “publicar ou perecer”, precisamos acrescentar “IA ou morrer”?

 A revolução da cointeligência está remodelando silenciosamente o que significa excelência acadêmica – e quem pode alcançá-la, afirma Jakub Drábik

Fonte: sompong_tom/Getty Images 

Por Jakub Drábik para o “Times of Higher Education”

Há uma sensação particular de desânimo com a qual muitos centro-europeus certamente estão familiarizados. Ela surge quando, ao ouvir um acadêmico britânico ou americano em uma conferência ou seminário, você percebe que, não importa quantos livros leia ou quão sólidas sejam suas ideias, você nunca falará ou escreverá em inglês com tanto estilo ou confiança quanto eles.

Fluência nativa na língua franca acadêmica, educação de elite e imersão precoce nas normas acadêmicas lhes dão um tipo de vantagem estrutural — uma com a qual os outros aprendem a conviver, mas que raramente conseguem superar.  

Ou assim eu pensava.

Ultimamente, tenho experimentado IA (Inteligência Artificial) generativa – não para terceirizar meu pensamento, mas para aprimorar a forma como o comunico. O resultado? Minha escrita ficou mais rápida, clara e precisa. É uma sensação estranha: ainda sou eu, mas com uma espécie de exoesqueleto intelectual.

Minha experiência — que certamente está longe de ser única — levanta uma questão desconfortável: a regra de ouro da sobrevivência acadêmica — publicar ou perecer — foi agora complementada por outra — IA ou morrer?  

Não quero dizer que a IA substituirá os acadêmicos (pelo menos, espero que não). Mas ela pode remodelar fundamentalmente a excelência acadêmica, como ela é alcançada e quem tem o direito de apresentar um desempenho de alto nível. E isso merece uma análise mais aprofundada.

Uma das mudanças mais visíveis trazidas pelas ferramentas de cointeligência é a redistribuição silenciosa do trabalho cognitivo. Tarefas que antes exigiam um esforço meticuloso – reformular frases incômodas, traduzir ideias para o inglês acadêmico, elaborar esboços – agora podem ser semiautomatizadas. Clareza e velocidade não estão mais vinculadas apenas à habilidade pessoal ou à fluência linguística, mas à fluência com que você consegue direcionar e moldar a produção de grandes modelos de linguagem. E se o que atualmente chamamos de “excelência” é, em parte, a capacidade de produzir textos claros e persuasivos com eficiência, então a excelência tem o potencial de ser compartilhada de forma mais equitativa. 

No entanto, o impacto da IA ​​na equidade tem limites. Acadêmicos em instituições com poucos recursos podem ter dificuldades para acessar os mesmos benefícios. O mesmo pode acontecer com aqueles que trabalham em idiomas pouco suportados pelos modelos tradicionais de IA. E aqueles que não têm proficiência técnica ou que se incomodam com a ausência de normas claras para o uso da IA ​​também podem ficar para trás.

Em relação a essas normas, todos parecem concordar que o autor deve permanecer responsável pelo conteúdo, independentemente do nível de IA envolvido. Mas não há consenso sobre como integrar essas ferramentas ao processo de escrita ou como – ou mesmo se – reconhecer sua contribuição.  

Na minha opinião, a alfabetização em IA deve ser tratada não como um acréscimo técnico, mas como uma competência acadêmica essencial – a par da alfabetização informacional ou da avaliação de fontes. Algumas universidades, especialmente no Reino Unido e nos EUA, já aceitaram isso e estabeleceram programas de alfabetização em IA para ajudar colegas mais cautelosos ou sobrecarregados a acompanhar os pioneiros – a iniciativa da Universidade Estadual do Arizona é frequentemente citada.

Mas outras instituições, particularmente na Europa Central e Oriental, permanecem hesitantes, ainda considerando o uso da IA ​​como suspeito ou até mesmo antiético. Alguns periódicos e conselhos de ética também têm se mostrado cautelosos. E em meio a tanta incerteza, a política não oficial passou a ser: use se quiser, mas não fale sobre isso em voz alta – pelo menos, não em reuniões.

Mas se aceitarmos, como devemos, que o uso da IA ​​é inevitável, precisamos lidar com a questão fundamental do que, exatamente, ainda é “nosso” no trabalho que produzimos quando a formulação, a estrutura e até mesmo parte da estrutura intelectual são cogeradas com a IA.  

Como argumentaram filósofos da tecnologia, como Shannon Vallor ou David J. Gunkel , o conhecimento coproduzido desafia a estrutura profundamente individualista da autoria, na qual se baseia o prestígio acadêmico. Talvez também precisemos repensar os conceitos de originalidade e até mesmo de contribuição intelectual.

Centrá-los em síntese, julgamento e direção pode fazer sentido, mas não tenho respostas. Aliás, nem tenho certeza se compreendo completamente o terreno em que estamos entrando. Mas se não mantivermos os olhos abertos e nos envolvermos com as implicações de para onde estamos indo – éticas, pedagógicas e institucionais –, podemos descobrir que não apenas a distribuição, mas o próprio significado da excelência acadêmica já mudou, enquanto ainda estamos discutindo se deveria mudar.

Jakub Drábik é professor de história na Universidade Anglo-Americana de Praga e pesquisador sênior no Instituto de História da Academia Eslovaca de Ciências


Fonte: Times of Higher Education

O que teria a dizer o Chatgpt sobre os perigos e limites da criação de uma corregedoria setorial na Uenf?

Abre o pano….

Em uma das minhas idas ao Conselho Universitário da Universidade Federal do Rio de Janeiro (UFRJ) enquanto estudante de graduação da instituição pude ver em ação o lendário reitor Pedro Calmon que, ao se insurgir contra uma tentativa de invasão policial da Faculdade Nacional de Direito, no Rio de Janeiro, em 1968, proferiu a célebre frase: “policial só entra na universidade se fizer vestibular”.  Aliás, como estudante da UFRJ durante os anos finais da ditadura empresarial-militar instalada pelo golpe de 1964 tive que conviver com a realidade óbvia de que alguns dos meus colegas de sala eram policiais infiltrados. Nós que éramos civis e insurgentes costumávamos nos divertir para saber quem eles eram, sempre sabendo que haviam os que eram propositalmente identificáveis, enquanto haviam os de infiltração profundo. O risco com esses últimos é que se juntassem em nossos esforços em prol da derrubada da ditadura para promover atos de sabotagem ou simplesmente de deduragem, o que implicava a ida para a tristemente célebre delegacia da Polícia Federal na Praça Mauá onde os sopapos eram certos.

Pois bem, 35 anos após a minha saída do campus da Ilha do Fundão para ganhar o mundo, essas lembranças do tempo em que reitores reagiam às invasões dos campi universitários por forças policiais me fazem olhar com profunda desconfiança para um ato cometido pela reitora da universidade onde atuo desde janeiro de 1998, a Universidade Estadual do Norte Fluminense Darcy Ribeiro (Uenf). 

O que fez a Magnifica Reitora Rosana Rodrigues?  Ela fez publicar nesta 4a. feira (25/6) a Portaria Reitoria 409 de 23 de junho de 2025 onde ela cria  a Unidade de Corregedoria Setorial da Uenf e coloca como cereja do bolo um policial civil para ocupar a posição de corregedor.

Diante de um fato que me pareceu simplesmente acintoso aos cânones que deram origem ao projeto Iluminista de Universidade, resolvi fazer algo que a atual administração da Uenf certamente apreciará, dados os compromissos manifestos com o uso da inovação tecnológica como ponto de partida para os novos rumos que pretendem dar à instituição criada por Darcy Ribeiro. Eu resolvi fazer duas perguntas à Inteligência Artificial popularmente conhecida como ChatGPT.

A primeira pergunta foi a seguinte:

Boa noite. dados os canones que deram base ao projeto iluminista de universidade, o que você me diria se uma reitora de universidade pública criasse uma corregedoria interna e colocasse um policial para ser o corregedor?

A resposta rápida e rasteira do Chatgpt veio na seguinte forma:

Boa noite! Essa é uma pergunta que toca em questões muito importantes sobre os princípios que sustentam a universidade pública, especialmente à luz do projeto iluminista que fundamentou a ideia moderna de universidade.

1. Os cânones iluministas e o projeto de universidade

O projeto iluminista de universidade, especialmente desde Humboldt (séc. XIX), é baseado em alguns pilares:

  • Autonomia universitária: A universidade deve ser independente de pressões externas, seja do Estado, da Igreja ou de interesses econômicos.

  • Liberdade de pensamento e de cátedra: O livre debate de ideias, mesmo (e especialmente) as mais críticas, é essencial para a produção de conhecimento.

  • Universalismo e razão: O conhecimento deve ser guiado por critérios racionais e universais, sem interferências arbitrárias de autoridade.

  • Formação crítica e emancipatória: A universidade forma sujeitos capazes de pensar criticamente e agir com base em princípios éticos e racionais.

2. Corregedoria com policial como corregedor

Diante disso, a criação de uma corregedoria interna em si não é necessariamente um problema — muitas universidades já têm ou precisam de mecanismos internos para apurar irregularidades. O ponto mais sensível é a nomeação de um policial como corregedor, o que levanta questões sérias:

Problemas potenciais:

  • Conflito com a autonomia universitária: A presença de um agente do Estado com formação policial pode ser percebida como um vetor de controle externo, o que contraria o princípio da autonomia universitária.

  • Risco à liberdade acadêmica: Mesmo que o policial esteja formalmente desarmado e afastado de funções operacionais, seu papel simbólico e sua formação podem gerar um ambiente de intimidação e autocensura.

  • Deslocamento da lógica acadêmica para a lógica policial: A universidade opera com base no diálogo, no contraditório e na pluralidade. A lógica policial, centrada na disciplina, ordem e punição, pode ser incompatível com a cultura universitária.

  • Desconfiança institucional: Professores, estudantes e técnicos podem ver essa medida como uma forma de vigilância, especialmente se houver um histórico de conflitos ou repressão.

3. O que isso revela?

Essa decisão pode estar relacionada a uma tendência de militarização da gestão pública, algo que vem sendo observado em vários contextos no Brasil. Também pode indicar uma resposta autoritária a conflitos internos, o que é perigoso para a saúde democrática da universidade.

4. Considerações finais

Se olharmos pela lente iluminista, essa medida seria altamente questionável. Um projeto de universidade fiel a esses princípios buscaria resolver conflitos e promover a ética institucional por meios que reforcem a democracia interna, o debate público, a mediação de conflitos e o respeito aos direitos fundamentais — não pela imposição de figuras associadas à repressão estatal.

Após obter essa resposta do ChatGPT, resolvi fazer a minha segunda pergunta que foi a seguinte:

À luz do que você me respondeu, o que deveriam fazer os docentes dessa universidade?

A segunda resposta do ChatGPT na seguinte forma:

À luz dos princípios iluministas que fundam o ideal de universidade pública, crítica e autônoma, os docentes — como parte fundamental da vida universitária e responsáveis pela defesa da liberdade acadêmica — não apenas podem, como devem se mobilizar diante de uma medida como a nomeação de um policial como corregedor. Isso porque essa decisão toca diretamente nos fundamentos éticos e políticos da instituição universitária.

O que os docentes deveriam fazer:


1. Deliberar coletivamente

  • Convocar reuniões departamentais, conselhos de centros e assembleias docentes para discutir o tema com seriedade.

  • Formular uma posição coletiva, com base em princípios institucionais, acadêmicos e democráticos.

2. Buscar os canais institucionais

  • Levar o debate ao Conselho Universitário (CONSUNI), se houver, ou à instância máxima deliberativa da universidade.

  • Exigir transparência nos critérios da nomeação, detalhamento das atribuições da corregedoria e do corregedor, e prestação de contas da reitoria.

3. Formar comissões independentes

  • Criar um grupo de trabalho interdisciplinar para avaliar os riscos institucionais e legais dessa medida.

  • Consultar juristas, especialistas em educação superior e ética institucional para embasar argumentos críticos.

4. Dialogar com a comunidade universitária

  • Promover debates públicos, rodas de conversa, seminários ou cartas abertas envolvendo estudantes, técnicos e professores.

  • Tornar a discussão acessível a toda a comunidade, explicando por que a presença de um policial nesse cargo pode comprometer a liberdade e a segurança institucional.

5. Se necessário, acionar órgãos externos

  • Se houver indícios de abuso de poder ou violação da autonomia, considerar representar ao Ministério Público Federal, à Defensoria Pública, à OAB ou a órgãos de controle como a CGU ou o MEC.

  • Em casos extremos, recorrer a instâncias internacionais, como relatorias da ONU ou OEA ligadas à liberdade acadêmica.

6. Defender princípios, não pessoas

  • O foco deve estar na defesa de valores institucionais, não em ataques pessoais à reitora ou ao corregedor.

  • Isso fortalece a legitimidade da ação docente e impede a distorção do debate como sendo “ideológico” ou “corporativista”.


Fundamentação ética da reação

A universidade, como instituição moderna, nasceu da luta contra o dogma, o autoritarismo e a tutela sobre o pensamento. Quando qualquer medida ameaça esse fundamento — mesmo que venha de dentro —, os docentes têm não apenas o direito, mas o dever de reagir.

Essa defesa não é corporativa; é republicana. Proteger a autonomia e a liberdade da universidade é proteger a sociedade contra o autoritarismo e o obscurantismo.

Se quiser, posso ajudar você a elaborar:

  • Um manifesto dos docentes;

  • Uma minuta de moção para conselhos;

  • Um parecer técnico-jurídico sobre a medida;

  • Uma carta aberta à comunidade.

Eu acabei dispensando a ajuda do ChatGPT na preparação dos documentos e agradeci pela ajuda da simpática IA.  A resposta ao meu agradecimento foi a seguinte:

Fico muito feliz em saber que pude ajudar. Se surgir qualquer outra questão, estarei por aqui.

Boa noite e força na defesa da universidade pública! ✊📚

Fecha o pano!

A tempestade da Inteligência Artificial

O surgimento da IA ​​generativa fez explodir a demanda por energia, inclusive de combustíveis fósseis

Imagem de marketing do curso de inteligência artificial e computação visual da École Polytechnique.  Jérémy Barande / École Polytechnique / Institut Polytechnique de Paris / Creative Commons 2.0

Por James Meadway para o “The Ecologist” 

Em apenas alguns anos desde que a OpenAI lançou seu modelo principal com uma interface de linguagem natural e fácil de usar, o ChatGPT, a “inteligência artificial” (IA) passou do reino da ficção científica para a aparente realidade cotidiana. 

A IA parecia capaz de feitos robóticos inimagináveis ​​há alguns anos: escrever obras inteiramente novas em linguagem natural; compor músicas; gerar obras de arte instantâneas. Mas por trás dessa mudança no poder computacional há um impacto ambiental preocupante e ainda pouco reconhecido. Um novo briefing da Opportunity Green resume o caso .

Os data centers, a base de hardware da economia digital atual, consomem muitos recursos. Essa economia digital se baseia na coleta, armazenamento e transmissão de dados em uma escala inimaginável. 

Industrial

Mesmo antes da explosão da inteligência artificial após o lançamento do ChatGPT pela OpenAI no final de 2022, os volumes envolvidos eram impressionantes: o tráfego global da internet cresceu de 156 Gb transferidos a cada segundo em 2002 para 150.000 Gb por segundo em 2022. 

Essa imensa coleção de uns e zeros, o núcleo digital da economia de dados, por sua vez forneceu a matéria-prima para treinar os modelos de aprendizado de máquina (ML) atuais. 

A chave para suas operações é a escala – de vastos acervos de dados; bancos e bancos de chips de silício dedicados em data centers especializados; e redes de telecomunicações rápidas espalhadas pelo mundo. Mas a escala que torna possíveis as habilidades semimágicas da IA ​​também a transforma em um problema ambiental crescente. 

Sejam quais forem as afirmações ousadas feitas há vinte anos, no alvorecer da era da Internet, sobre a “economia sem peso” que viria ou como todos nós estaríamos “vivendo no ar rarefeito”, os dados, na realidade, têm uma presença física concreta. 

Ele é armazenado e processado em bancos de chips de silício dedicados, produzidos em volumes extraordinários por alguns dos processos industriais mais exigentes e tecnicamente sofisticados aos quais temos acesso. 

Explosivo

Os chips funcionam com eletricidade — em quantidades triviais para um único circuito integrado, como o do seu telefone ou laptop, mas que, nas grandes quantidades necessárias para processamento de dados em larga escala, se tornam extraordinárias. 

Os racks de servidores mais recentes, dedicados à IA, contêm 72 chips especializados da fabricante Nvidia. Os maiores data centers de “hiperescala”, usados ​​para tarefas de IA, teriam cerca de 5.000 desses racks . 

E como qualquer pessoa que use um laptop por qualquer período de tempo sabe, até mesmo um único chip esquenta durante a operação. Para resfriar os servidores, é preciso água – litros dela. Somando tudo isso, um único data center em hiperescala normalmente precisará de tanta água quanto uma cidade de 30.000 habitantes – e a quantidade equivalente de eletricidade. 

As novas e muito específicas demandas de energia do crescimento dos data centers levarão as redes nacionais de energia para mais perto do limite.

Financial Times relata que a Microsoft está abrindo uma dessas gigantes em algum lugar do mundo a cada três dias.

Mesmo assim, durante anos, o crescimento explosivo da economia digital teve um impacto surpreendentemente pequeno na demanda global por energia e nas emissões de carbono. Os ganhos de eficiência nos data centers — a espinha dorsal da internet — mantiveram o consumo de eletricidade sob controle. 

Consumo

Mas a ascensão da IA ​​generativa, impulsionada pelo lançamento do ChatGPT no final de 2022, rompeu esse equilíbrio. A IA eleva a demanda por dados e poder de processamento à estratosfera.

A versão mais recente do modelo GPT principal da OpenAI, o GPT-4, é construída em 1,3 trilhão de parâmetros , com cada parâmetro descrevendo a força de uma conexão entre diferentes caminhos no cérebro do software do modelo. 

Quanto mais dados novos puderem ser inseridos no modelo para treinamento, melhor — tantos dados que um artigo de pesquisa estimou que os modelos de aprendizado de máquina terão usado todos os dados da internet até 2028.

Hoje, a demanda insaciável por poder de computação está remodelando os sistemas energéticos nacionais. Dados do Fundo Monetário Internacional (FMI) mostram que data centers em todo o mundo já consomem tanta eletricidade quanto países inteiros como França ou Alemanha. A previsão é de que, até 2030, a demanda mundial de energia por data centers será igual ao consumo total de eletricidade da Índia. 

Em princípio, essa demanda crescente por eletricidade poderia ser atendida por energias renováveis, e muitas das grandes empresas de tecnologia, como o Google, têm metas de atingir 100% de consumo de energia renovável. 

Minas

Mas a realidade é muito mais sombria. Para continuar a expansão nesse ritmo alucinante, é necessária a instalação rápida de novos suprimentos. E a demanda por eletricidade em data centers é bem diferente da de residências, escritórios e fábricas, que normalmente apresentam picos e quedas ao longo do dia, quando as pessoas chegam em casa e ligam a TV, ou saem e apagam as luzes, ou quando as máquinas são ligadas e desligadas. 

A demanda do data center é constante e requer 24 horas de trabalho, com o mínimo de tempo de inatividade possível. Isso, por sua vez, cria a necessidade de um fornecimento contínuo e regular de eletricidade, para o qual as energias renováveis ​​nem sempre são as melhores atualmente.

O resultado é que a demanda por data centers está sendo cada vez mais atendida por combustíveis fósseis. Nos EUA, 60% da nova demanda de energia é suprida por gás natural, enquanto na Alemanha e na Polônia, usinas a carvão estão sendo mantidas em operação para alimentar o boom da IA. 

A Microsoft está expandindo as operações do data center perto de Hambach, uma das últimas minas de carvão profundas da Alemanha. A empresa se recusou a comentar sobre a fonte de energia do centro . 

Enquanto isso, o governo Trump, cético em relação ao clima nos EUA, admite abertamente que expandir a geração de energia a carvão é essencial para manter a vantagem do país nas operações de data center .

Usinas de energia

O resultado é que uma indústria que atualmente é responsável por cerca de 0,5% das emissões globais de gases de efeito estufa, segundo estimativas conservadoras da Agência Internacional de Energia (AIE), deverá se tornar um dos contribuintes de crescimento mais rápido para as mudanças climáticas na próxima década. 

Mesmo que outras indústrias mais antigas reduzam suas emissões e um progresso real possa ser visto na mudança para a produção de energias renováveis, as demandas de energia dos data centers representam um risco significativo para as estratégias nacionais de descarbonização.

Até o momento, há pouca conscientização sobre isso por parte dos governos nacionais. Os data centers nem sequer constam no orçamento de carbono mais recente do Comitê de Mudanças Climáticas do Reino Unido – apesar do entusiasmo do governo britânico por sua rápida expansão. 

O trabalho da Beyond Fossil Fuels sugere que o crescimento dos data centers na Europa, seguindo as tendências atuais, adicionaria o equivalente a todo o sistema de energia de combustíveis fósseis da Alemanha aos GEE europeus até 2030. Mudar essa demanda para energias renováveis, por sua vez, reduziria o fornecimento para outras indústrias e ameaçaria os planos de descarbonização em outros setores. 

O problema energético é que os data centers, impulsionados pela IA, representaram uma nova fonte de demanda energética em rápido crescimento, com a qual as usinas de energia, os sistemas de rede e até mesmo as políticas de descarbonização não foram projetados para lidar. 

Lucros

As tensões já estão começando a aparecer: o primeiro “apagão de bytes” do mundo foi evitado por pouco na Virgínia no verão de 2024 , quando um raio derrubou um transformador perto de um conjunto de 20 data centers. 

Percebendo uma queda repentina de energia elétrica na rede principal, os data centers ligaram seus geradores de energia de reserva no local, causando um aumento repentino no fornecimento de energia para a rede principal, o que ameaçou causar apagões em todo o estado e fez com que os operadores da rede corressem para procedimentos de emergência. 

Como vimos com a dramática queda de energia em todo o país, na Espanha e em Portugal, os sistemas de rede nacionais, muitos construídos há décadas, já estão com problemas. 

As novas e específicas demandas de energia decorrentes do crescimento dos data centers os levarão para mais perto do limite. Combustíveis fósseis e, em alguns casos, energia nuclear, podem representar uma solução supostamente rápida para um problema complexo.

Os modelos de negócios das grandes empresas de tecnologia estão presos à expansão – a fonte de lucros da economia de dados, ao longo de décadas, tem sido expandir a quantidade de poder de computação disponível e então esperar que a demanda a preencha. 

Cepas

Para os operadores de IA, o crescimento drástico na escala de suas operações significa a possibilidade de criar novos mercados para novos produtos, mais rápido que seus concorrentes. 

Mas isso cria um problema familiar: mesmo que a eficiência do hardware de computação melhore rapidamente — e os modelos de ML estejam, em geral, se tornando mais eficientes — essa eficiência tende a significar apenas mais demanda pela saída dos modelos. 

Da mesma forma que aviões mais eficientes criaram mais demanda por voos, computadores mais eficientes também criaram mais demanda por computação — e, por trás dos servidores zumbindo, isso significa mais demanda de energia e mais emissões de gases de efeito estufa. 

Os benefícios dessas emissões e de todo esse processamento também não são imediatamente claros. É óbvio quem são os vencedores das Big Techs: as grandes corporações e seus proprietários, principalmente sediados nos EUA, que exercem poderes quase monopolistas sobre a economia digital e que geraram retornos tão incríveis. 

Mas os próprios centros de dados criam poucos empregos localmente, enquanto suas demandas por recursos — não apenas de eletricidade, mas, em todo o mundo, de água — impõem severas pressões aos habitantes locais. 

Descarbonização

A troca ecológica desigual das Big Techs ainda é pouco pesquisada, mas sua operação cria uma dinâmica semicolonial: os donos do sistema no centro, envolvidos em operações extrativas no resto do mundo, espremendo seus recursos escassos.

O artigo da Opportunity Green é apenas o começo da nossa pesquisa. Acreditamos que há uma necessidade urgente de um debate público mais bem informado sobre o papel da computação e seus impactos ambientais – com uma avaliação adequada dos potenciais benefícios e uma compreensão mais clara das desvantagens. 

O desafio aos sistemas de energia e aos planos de descarbonização, em particular, levantado pela expansão vertiginosa dos centros de dados, requer atenção urgente, em três grandes áreas:

  • Devem ser realizadas avaliações nacionais e supranacionais das trajetórias prováveis ​​de consumo de energia e das emissões subsequentes decorrentes da expansão de data centers, e esses cenários devem ser considerados em relação às estruturas nacionais e supranacionais de controle de emissões. As estimativas atuais sobre emissões de data centers estão sujeitas a ampla variação e poderiam ser refinadas de forma útil.
  • As mudanças legais, regulatórias e políticas necessárias para aproximar ao máximo as operações de data centers de 100% de energias renováveis, adotando uma abordagem que abrange todo o ciclo de vida, desde a construção até a operação, e incluindo o suporte ao armazenamento em baterias. Essas mudanças podem incluir a consideração da contribuição dos usuários de data centers (Big Techs) para o sistema tributário e a alocação de recursos para expansão/descarbonização da rede elétrica.
  • Por fim, desenvolver políticas para minimizar a coleta, o processamento e o armazenamento de dados, juntamente com uma hierarquia robusta de aplicações em data centers. Isso se baseará nas recomendações do relatório do Centro Nacional de Políticas de Engenharia sobre a minimização da pegada das operações de data centers. O problema da demanda e do propósito da expansão de data centers é indissociável da questão do seu impacto em termos de recursos e emissões, e deve ser enfrentado diretamente pelas políticas.

Fonte: The Ecologist

Proteção infantil no mundo digital exige mais que tecnologia: o papel insubstituível das famílias na era das telas

Especialistas alertam que o uso de tecnologia para proteger crianças nas redes sociais não substitui o papel ativo das famílias e reforçam a necessidade de diálogo, presença e formação ética no ambiente digital

Diante do crescimento acelerado do uso de redes sociais por crianças e adolescentes, cresce também a urgência em discutir o papel da sociedade — e, em especial, das famílias — na formação digital das novas gerações. Enquanto propostas governamentais como a exigência de verificação de idade por inteligência artificial ganham espaço no debate público, especialistas alertam que soluções exclusivamente tecnológicas são insuficientes para enfrentar um problema que é, antes de tudo, humano.

Para o sociólogo Marcelo Senise, presidente do Instituto Brasileiro para a Regulamentação da Inteligência Artificial (IRIA), confiar a proteção infantil a algoritmos e sistemas automatizados pode gerar uma perigosa sensação de controle. “Estamos diante de um desafio que exige presença, diálogo e responsabilidade compartilhada. Proteger de verdade vai além de apertar um botão”, afirma.

Senise chama atenção para os riscos associados ao uso de tecnologias como o reconhecimento facial para determinar a idade de usuários, ressaltando questões éticas, falhas técnicas e ameaças à privacidade de crianças e adolescentes. Mas seu alerta vai além das ferramentas: ele aponta para a ausência de políticas públicas robustas de educação digital e para a tendência de governos e plataformas buscarem soluções simbólicas, de fácil comunicação, mas de eficácia duvidosa.

Nesse cenário, escolas e famílias precisam atuar de forma conjunta, conscientes de que a formação ética e emocional das crianças no ambiente digital não pode ser delegada apenas à tecnologia. A experiência cotidiana revela mudanças significativas no comportamento infantil, muitas vezes moldado por conteúdos violentos, sexualizados ou distorcidos, consumidos sem mediação ou reflexão.

Para responder a esse desafio, iniciativas têm surgido em diversas comunidades escolares e espaços de formação, com o objetivo de promover encontros entre pais, educadores e especialistas. A proposta é simples, mas essencial: convidar as famílias a refletirem sobre os impactos do uso desordenado da tecnologia no cotidiano dos filhos — e sobre como retomar, com firmeza e afeto, o protagonismo na orientação digital.

Mais do que oferecer respostas prontas, esses encontros visam fortalecer laços. Afinal, como aponta Senise, não existe ferramenta mais eficaz na proteção infantil do que adultos atentos, presentes e comprometidos com a formação ética de suas crianças. A tecnologia pode ajudar, mas não substitui a presença. E esse, talvez, seja o maior desafio da nossa era.

Cientistas denunciam centenas de artigos científicos que usam IA sem informar

Sinais reveladores do uso de chatbots estão espalhados pela literatura acadêmica — e, em alguns casos, desapareceram sem deixar vestígios

Um homem maduro segurando uma caneta olha para uma grande tela de computador exibindo texto de um chatbot de IA.

Crédito: Laurence Dutton/Getty 

Por Diane Kwon para a “Nature”

“De acordo com minha última atualização de conhecimento”, “regenerar resposta”, “como um modelo de linguagem de IA” — esses são apenas alguns dos sinais reveladores do uso de inteligência artificial (IA) por pesquisadores que observadores da integridade científica encontraram espalhados por artigos na literatura acadêmica.

Ferramentas de IA generativa, como o ChatGPT, transformaram rapidamente a publicação acadêmica. Cientistas as utilizam cada vez mais para preparar e revisar manuscritos, e as editoras têm se esforçado para criar diretrizes para seu uso ético. Embora as políticas variem, muitas editoras exigem que os autores divulguem o uso de IA na preparação de artigos científicos .

Mas cientistas investigadores identificaram centenas de casos em que ferramentas de IA parecem ter sido usadas sem divulgação . Em alguns casos, os artigos foram corrigidos silenciosamente — as frases características da IA ​​foram removidas sem reconhecimento. Esse tipo de mudança silenciosa é uma ameaça potencial à integridade científica, afirmam alguns pesquisadores.

Essas mudanças apareceram em uma “pequena minoria de periódicos”, afirma Alex Glynn, instrutor de pesquisa e comunicação na Universidade de Louisville, no Kentucky. Mas, considerando que provavelmente também há muitos casos em que autores usaram IA sem deixar vestígios óbvios, “estou surpreso com a quantidade que existe”, acrescenta.

‘Eu sou um modelo de linguagem de IA’

Desde 2023, especialistas em integridade têm sinalizado artigos com sinais óbvios de uso não divulgado de IA, como aqueles que contêm a frase “regenerar resposta”, gerada por alguns chatbots com base em grandes modelos de linguagem quando um usuário deseja uma nova resposta para uma consulta. Essas frases podem aparecer em artigos quando um autor copia e cola as respostas de um chatbot.

Um dos primeiros casos que Glynn se lembra de ter visto foi em um artigo, agora retratado, publicado em 2024 na Radiology Case Reports 1 , que continha a frase do chatbot “Eu sou um modelo de linguagem de IA”. “Era o mais descarado possível”, diz Glynn. “De alguma forma, isso passou despercebido não apenas pelos autores, mas também pelos editores, revisores, compositores e todos os demais envolvidos no processo de produção.”

Desde então, Glynn encontrou centenas de outros artigos com características marcantes do uso de IA — incluindo alguns contendo sinais mais sutis, como as palavras “Certamente, aqui estão”, outra frase típica de chatbots de IA. Ele criou um rastreador online, o Academ-AI, para registrar esses casos — e tem mais de 700 artigos listados. Em uma análise dos primeiros 500 artigos sinalizados, publicada como pré-impressão em 2 de novembro , Glynn descobriu que 13% desses artigos apareceram em periódicos pertencentes a grandes editoras, como Elsevier, Springer Nature e MDPI.

Artur Strzelecki, pesquisador da Universidade de Economia de Katowice, Polônia, também reuniu exemplos de uso não divulgado de IA em artigos, com foco em periódicos respeitáveis. Em um estudo publicado em dezembro, ele identificou 64 artigos publicados em periódicos categorizados pela base de dados acadêmica Scopus como estando no quartil superior em sua área de atuação . “Esses são lugares onde esperaríamos um bom trabalho dos editores e revisões decentes”, diz Strzelecki.

 A equipe de notícias da Nature contatou diversas editoras cujos artigos foram sinalizados por Glynn e Strzelecki, incluindo Springer Nature, Taylor & Francis e IEEE. ( A equipe de notícias da Nature é editorialmente independente de sua editora, a Springer Nature.) Todas disseram que os artigos sinalizados estão sob investigação. Elas também apontaram para suas políticas de IA — que, em alguns casos, não exigem a divulgação do uso de IA ou a exigem apenas para determinados usos. A Springer (de propriedade da Springer Nature), por exemplo, afirma que a edição de texto assistida por IA, que inclui alterações feitas para legibilidade, estilo e erros gramaticais ou ortográficos, não precisa ser sinalizada.

Kim Eggleton, chefe de revisão por pares e integridade em pesquisa da IOP Publishing em Bristol, Reino Unido, observa que, embora a editora tenha introduzido uma política que exige que os autores declarem o uso de IA em 2023, alterou as regras no ano passado para refletir a ubiquidade das ferramentas. “Embora incentivemos os autores a divulgar o uso de IA, isso não é mais obrigatório”, afirma Eggleton. “Estamos nos concentrando em garantir a precisão e a robustez do conteúdo por meio de uma combinação de verificações automatizadas e humanas, em vez de proibir completamente a IA.” A política da IOP, no entanto, proíbe o uso de IA para “criar, alterar ou manipular” dados ou resultados de pesquisa.

doi: https://doi.org/10.1038/d41586-025-01180-2

Referências

  1. Bader, R. et al. Radiol. Case Rep. 19 , 2106–2111 (2024); retratação 19 , 3598 (2024) .

  2. Glynn, A. Pré-impressão em arXiv https://doi.org/10.48550/arXiv.2411.15218 (2024).

  3. Strzelecki, A. Aprenda. Publicação 28 , e1650 (2024).

  4. Shoukat, R. et al. PLoS ONE 19 , e0298220 (2024); retratação 19 , e0302484 (2024).

  5. Abdel-Rahman Mohamed, A. et al. Toxicologia 497–498 , 153629 (2023).

  6. Aquarius, R., Schoeters, F., Wise, N., Glynn, A. & Cabanac, G. Learn. Publ. 38 , e1660 (2025).


Fonte: Nature

O dilema ambiental da Inteligência Artificial em um mundo cada vez mais digital

Imagem: Freepik

São Paulo, fevereiro de 2025 – A ascensão das Inteligências Artificiais Generativas, tanto para uso pessoal quanto corporativo, já é uma realidade e vem revolucionando diversos setores, impulsionando a inovação e a produtividade. No entanto, seu uso contínuo e crescente tem gerado impactos ambientais e sociais significativos, devido ao alto consumo de energia e água, especialmente nos data centers. Esses centros de processamento, armazenamento e gerenciamento de dados utilizam milhões de litros de água para lidar com os grandes volumes de informações que recebem. Por exemplo, o GPT-4, a versão mais avançada do chat de IA generativa da OpenAI, pode consumir até meio litro de água para gerar um único e-mail.

Com o aumento da demanda por modelos avançados de Inteligência Artificial, a necessidade de centros de dados robustos cresce na mesma proporção. Essas estruturas exigem uma quantidade massiva de energia para operar e resfriar os servidores, resultando em um impacto ambiental considerável. Segundo um estudo realizado pela Deloitte, só em 2023 essas estruturas foram responsáveis pelo consumo de 1,4% da energia global. Além disso, apenas o treinamento de um grande modelo de linguagem de IA pode gerar cerca de 300 toneladas de CO2.

Diante desse cenário, é essencial compreender os desdobramentos energéticos e ecológicos que o uso excessivo de IA poderá causar. Gustavo Fortuna, líder em Inteligência Artificial da BlueShift, empresa referência em soluções de dados e tecnologia, destaca que promover o uso sustentável da IA depende de práticas sólidas de governança por parte das empresas de tecnologia. “A adoção de medidas sustentáveis e a transparência sobre questões ambientais são essenciais para que tanto as empresas quanto o público em geral possam fazer um uso consciente dessas ferramentas.”

A urgência de práticas mais sustentáveis nas empresas deve acelerar a implementação de regulamentações não apenas para o uso, mas também para a criação e aprimoramento das Inteligências Artificiais. A União Europeia já deu um passo importante nesse sentido com o AI Act, o primeiro marco legislativo mundial sobre IA, que busca garantir a segurança e o uso ético dessas tecnologias. Contudo, embora seja um avanço significativo, o AI Act ainda não aborda de maneira aprofundada a sustentabilidade e o impacto ambiental das inteligências artificiais, nem estabelece limites claros sobre o consumo de energia e água pelas empresas. Em contrapartida, em Frankfurt, na Alemanha, uma iniciativa já limita a construção de novos data centers e o consumo de recursos, mostrando novas alternativas para regulamentar este setor.

Para Gustavo Fortuna, a criação de políticas de regulamentação das IAs deve buscar o equilíbrio entre os avanços tecnológicos e a proteção ambiental. “As próprias IAs podem ser usadas para analisar dados e tendências climáticas de forma mais aprofundada. Com a transparência das empresas que gerenciam essas ferramentas, podemos estabelecer processos para medir os impactos ambientais e sociais das IAs e como mitigá-los de forma eficaz”, explica.

A insustentável leveza da inteligência artificial

Por Silvia Ribeiro para o “La Jornada”

O desenvolvimento rápido, desregulado e geralmente desnecessário de sistemas de inteligência artificial levou a um aumento brutal no consumo de água doce e energia globalmente, especialmente em comunidades onde grandes data centers estão instalados. Isso traz consigo um aumento global de gases de efeito estufa que aceleram a crise climática, além de impactos ambientais e à saúde.

Não é um desenvolvimento baseado na demanda . Há atores poderosos que a promovem agressivamente: a oligarquia tecnológica que agora governa os Estados Unidos sem ter um único voto. É uma estratégia deliberada para aumentar a dependência do usuário e o controle sobre os dados e o comportamento do usuário.

Tecnologias com inteligência artificial geral existem há décadas e podem ou não ser úteis para automatizar algumas atividades, dependendo do contexto, necessidades, alternativas, custos e impactos que acarretam. O desenvolvimento recente da chamada inteligência artificial generativa (GAI) é diferente porque não apenas coleta e sistematiza dados, mas também produz novos conteúdos que podem ser texto, imagens, som e até mesmo novas formas biológicas. Esse tipo de inteligência artificial sustenta aplicativos como o ChatGPT e similares. Exige processos de treinamento extensivos com grandes modelos de linguagem e conjuntos de dados cada vez mais volumosos, o que implica um aumento exponencial no uso de computadores, servidores, infraestrutura e, portanto, energia, água, recursos e geração de poluição e resíduos.

A digitalização em todos os setores industriais e seu uso individual em plataformas e redes sociais geram imensos volumes de dados que, para funcionar, exigem muitos computadores interconectados, ou seja, data centers que podem armazenar, processar, extrapolar e reinterpretar. Esses centros são a base física das nuvens de computação. Atualmente, três das maiores empresas da oligarquia tecnológica – Amazon, Microsoft e Google – controlam 66% das nuvens de computação do mundo e, junto com a Meta (dona do Facebook), 70% dos cabos submarinos.

Cecilia Rikap, do University College London, entrevistada na série Data Vampires pelo analista canadense Paris Marx, explica que grandes empresas de tecnologia estabeleceram uma estratégia deliberada de centralizar informações digitais em suas meganuvens. Ela é apresentada a empresas, instituições e governos como uma solução eficiente para evitar a criação de uma infraestrutura digital própria, com contratos que supostamente podem ser interrompidos. De fato, devido às constantes atualizações de programas e aplicativos de interconexão, fica muito difícil para quem contrata esses serviços revogar e até mesmo controlar o uso de suas informações. Os proprietários da nuvem ganham dinheiro vendendo o serviço, ao mesmo tempo em que aumentam seu acesso a mais dados e lucram com o negócio de vender ou usar a interpretação desses dados para influenciar escolhas de consumidores, políticas ou quaisquer outras.

Em 2018, havia 430 grandes data centers no mundo todo. No final de 2023 eram 992, atualmente são mais de mil. Com o uso da inteligência artificial generativa, estima-se que o número de grandes data centers dobre a cada 4 anos, sendo a maioria em hiperescala, uma categoria para aqueles com mais de 5.000 servidores e 10.000 pés quadrados de área de superfície. Por exemplo, a Amazon Web Services (AWS) está instalando um centro com mais de 50 mil servidores em Minnesota,

Com o sucesso de vendas do ChatGPT, todas as grandes empresas de tecnologia investiram no desenvolvimento de aplicativos com o IAG. A China acaba de anunciar o DeepSeek, um aplicativo muito mais barato que os dos EUA. Eles também incorporaram sistemas IAG em mecanismos de busca, celulares e diversos dispositivos, muitas vezes sem nos dar a opção de não usá-los, o que aumenta exponencialmente a demanda por água e energia sem que possamos decidir sobre isso.

De acordo com Sasha Luccioni, cientista da computação entrevistado pelo Data Vampires, a diferença entre fazer um cálculo matemático em uma calculadora manual com energia solar ou usar o ChatGPT pode multiplicar o uso de energia em até 50 mil vezes. Uma pergunta e resposta no ChatGPT ou em um mecanismo de busca de IA consome entre 0,5 e um litro de água. Também sujeito a erros frequentes e sem fornecer fontes.

As necessidades de água e energia são brutais e levaram a conflitos com diversas cidades onde estão instalados data centers. Cingapura, Irlanda e Holanda impuseram moratórias à instalação desses centros devido ao alto consumo de recursos.

Na América Latina, os principais locais para instalação de mega data centers são São Paulo, Brasil, e Querétaro, México. Em terceiro lugar está Quilicura, em Santiago do Chile, onde já há protestos da população contra essas instalações.

Os impactos ambientais, de saúde, sociais e políticos locais e globais do IAG são sérios e afetam a todos. Os lucros vão para um pequeno grupo de ultra-ricos.


Fonte: La Jornada

DeepSeek, o modelo de IA barato e aberto da China, agita comunidade científica

O DeepSeek-R1 executa tarefas de raciocínio no mesmo nível que o o1 da OpenAI — e está aberto para análise por pesquisadores

A empresa chinesa DeepSeek estreou uma versão de seu grande modelo de linguagem no ano passado. Crédito: Koshiro K/Alamy 

Por Elizabeth Gibney para a “Nature”

Um grande modelo de linguagem desenvolvido na China, chamado DeepSeek-R1, está entusiasmando os cientistas como um rival acessível e aberto aos modelos de “raciocínio” como o o1 da OpenAI.

Esses modelos geram respostas passo a passo, em um processo análogo ao raciocínio humano. Isso os torna mais aptos do que os modelos de linguagem anteriores para resolver problemas científicos, e significa que eles podem ser úteis em pesquisas . Os testes iniciais do R1, lançado em 20 de janeiro, mostram que seu desempenho em certas tarefas em química, matemática e codificação está no mesmo nível do o1 — que impressionou os pesquisadores quando foi lançado pela OpenAI em setembro .

“Isso é selvagem e totalmente inesperado”, escreveu Elvis Saravia, pesquisador de inteligência artificial (IA) e cofundador da empresa de consultoria em IA sediada no Reino Unido, DAIR.AI, no X.

O R1 se destaca por outro motivo. A DeepSeek, a start-up em Hangzhou que construiu o modelo, o lançou como ‘open-weight’, o que significa que os pesquisadores podem estudar e construir sobre o algoritmo. Publicado sob uma licença do MIT, o modelo pode ser reutilizado livremente, mas não é considerado totalmente de código aberto, porque seus dados de treinamento não foram disponibilizados.

“A abertura do DeepSeek é bastante notável”, diz Mario Krenn, líder do Artificial Scientist Lab no Instituto Max Planck para a Ciência da Luz em Erlangen, Alemanha. Em comparação, o1 e outros modelos construídos pela OpenAI em São Francisco, Califórnia, incluindo seu último esforço, o3 , são “essencialmente caixas-pretas”, ele diz.

O DeepSeek não divulgou o custo total do treinamento do R1, mas está cobrando das pessoas que usam sua interface cerca de um trigésimo do que o o1 custa para executar. A empresa também criou mini versões ‘destiladas’ do R1 para permitir que pesquisadores com poder de computação limitado brinquem com o modelo. Um “experimento que custou mais de £ 300 [US$ 370] com o o1, custou menos de US$ 10 com o R1”, diz Krenn. “Esta é uma diferença dramática que certamente desempenhará um papel em sua adoção futura.”

Modelos de desafio

O R1 faz parte de um boom em modelos de linguagem chinesa (LLMs) . Desmembrado de um fundo de hedge, o DeepSeek emergiu da relativa obscuridade no mês passado quando lançou um chatbot chamado V3, que superou os principais rivais, apesar de ter sido construído com um orçamento apertado. Especialistas estimam que custou cerca de US$ 6 milhões para alugar o hardware necessário para treinar o modelo, em comparação com mais de US$ 60 milhões para o Llama 3.1 405B da Meta, que usou 11 vezes os recursos de computação.

Parte do burburinho em torno do DeepSeek é que ele conseguiu fazer o R1 apesar dos controles de exportação dos EUA que limitam o acesso das empresas chinesas aos melhores chips de computador projetados para processamento de IA. “O fato de ele vir da China mostra que ser eficiente com seus recursos importa mais do que apenas a escala de computação”, diz François Chollet, um pesquisador de IA em Seattle, Washington.

O progresso do DeepSeek sugere que “a liderança percebida [que os] EUA já tiveram diminuiu significativamente”, escreveu Alvin Wang Graylin, especialista em tecnologia em Bellevue, Washington, que trabalha na empresa de tecnologia imersiva HTC, sediada em Taiwan, no X. “Os dois países precisam buscar uma abordagem colaborativa para construir IA avançada em vez de continuar com a atual abordagem de corrida armamentista sem vitória.”

Cadeia de pensamento

Os LLMs treinam em bilhões de amostras de texto, cortando-as em partes de palavras, chamadas tokens, e padrões de aprendizagem nos dados. Essas associações permitem que o modelo preveja tokens subsequentes em uma frase. Mas os LLMs são propensos a inventar fatos, um fenômeno chamado alucinação , e muitas vezes lutam para raciocinar sobre problemas.

Assim como o o1, o R1 usa um método de ‘cadeia de pensamento’ para melhorar a capacidade de um LLM de resolver tarefas mais complexas, incluindo, às vezes, retroceder e avaliar sua abordagem. O DeepSeek fez o R1 ‘ajustando’ o V3 usando aprendizado por reforço, que recompensou o modelo por chegar a uma resposta correta e por trabalhar em problemas de uma forma que delineasse seu ‘pensamento’.

Rivais da IA: Gráfico de barras mostrando resultados de testes conduzidos pela DeepSeek, testando três versões de seus grandes modelos de linguagem contra os modelos o1 da OpenAI em tarefas de matemática, codificação e raciocínio. O DeepSeek-R1 venceu ou rivalizou com o o1 em benchmarks de matemática e codificação.

Fonte: DeepSeek

Ter poder de computação limitado levou a empresa a “inovar algoritmicamente”, diz Wenda Li, pesquisadora de IA na Universidade de Edimburgo, Reino Unido. Durante o aprendizado por reforço, a equipe estimou o progresso do modelo em cada estágio, em vez de avaliá-lo usando uma rede separada. Isso ajudou a reduzir os custos de treinamento e execução, diz Mateja Jamnik, cientista da computação na Universidade de Cambridge, Reino Unido. Os pesquisadores também usaram uma arquitetura de ‘mistura de especialistas’, que permite que o modelo ative apenas as partes de si mesmo que são relevantes para cada tarefa.

Em testes de benchmark, relatados em um artigo técnico que acompanha o modelo, o DeepSeek-R1 pontuou 97,3% no conjunto de problemas de matemática MATH-500 criado por pesquisadores da Universidade da Califórnia, Berkeley, e superou 96,3% dos participantes humanos em uma competição de programação chamada Codeforces. Isso está no mesmo nível das habilidades do o1; o o3 não foi incluído nas comparações (veja ‘IA rivais’).

É difícil dizer se os benchmarks capturam a verdadeira capacidade de um modelo de raciocinar ou generalizar, ou meramente sua proficiência em passar em tais testes. Mas como o R1 é aberto, sua cadeia de pensamento é acessível aos pesquisadores, diz Marco Dos Santos, um cientista da computação da Universidade de Cambridge. “Isso permite melhor interpretabilidade dos processos de raciocínio do modelo”, ele diz.

Os cientistas já estão testando as habilidades do R1. Krenn desafiou ambos os modelos rivais a classificar 3.000 ideias de pesquisa pelo quão interessantes elas são e comparou os resultados com classificações feitas por humanos. Nesta medida, o R1 teve um desempenho ligeiramente inferior ao do o1. Mas o R1 venceu o o1 em certos cálculos em óptica quântica, diz Krenn. “Isso é bastante impressionante.”

doi: https://doi.org/10.1038/d41586-025-00229-6


Fonte:  Nature