A terceirização do pensamento: IA, ensino superior e o futuro da ciência

O uso descontrolado de IA ameaça a formação crítica de estudantes e o futuro da produção científica

Nos últimos dois anos, a inteligência artificial (IA) deixou de ser uma curiosidade tecnológica para se tornar presença constante no cotidiano universitário. Hoje, uma quantidade significativa de estudantes consegue gerar resumos, resolver exercícios, escrever relatórios, montar apresentações e até produzir artigos científicos completos em questão de minutos. À primeira vista, isso parece apenas mais uma revolução tecnológica inevitável. Mas basta olhar com um pouco mais de atenção para perceber que estamos diante de um problema muito mais profundo, e potencialmente devastador para a formação universitária, a ética acadêmica e o próprio futuro da ciência. O ponto central é simples: o uso descontrolado da IA está corroendo silenciosamente o próprio processo de formação universitária.

A universidade nunca teve como missão apenas entregar diplomas.  O papel histórico das universidades sempre foi formar profissionais capazes de pensar, analisar, argumentar, duvidar e tomar decisões em contextos complexos. Em outras palavras, formar autonomia intelectual. E isso não se constrói com respostas prontas, pois toda a experiência acumulada mostra que isso se constrói com esforço cognitivo, erro, tentativa, leitura difícil e escrita trabalhosa. É justamente esse processo que a IA começa a substituir, e rapidamente assimilada em nome da formação mais veloz de profissionais que estariam sendo ansiosamente esperados pelo mercado.

O problema é que disciplinas obrigatórias existem por uma razão. Elas definem o perfil profissional que a sociedade espera de um engenheiro, de um médico, de um advogado, de um cientista. Anatomia, fisiologia, farmacologia e epidemiologia não são obstáculos burocráticos na formação médica; são a base que sustenta decisões clínicas que podem salvar ou perder vidas. Quando um estudante terceiriza a resolução de exercícios, a escrita de relatórios ou a síntese de textos para uma IA, ele pode até entregar um trabalho perfeito, mas sem ter trilhado o caminho cognitivo necessário para, de fato, aprender.  O fato é que estamos criando, silenciosamente, a figura do profissional diplomado sem domínio real das competências fundamentais.

E aqui o risco deixa de ser educacional e passa a ser social. Imaginemos médicos excessivamente dependentes de sistemas automatizados para interpretar exames ou propor diagnósticos. Imagine engenheiros incapazes de avaliar criticamente um cálculo gerado por software. Imaginemos cientistas que nunca desenvolveram plenamente a capacidade de formular perguntas originais. Esse cenário não é ficção científica, pois ele está começando a ser construído agora, dentro das universidades em todo o mundo.

Um dos efeitos mais preocupantes desse processo é a terceirização do esforço cognitivo. Pensar exige treino constante. Leitura profunda exige prática. Escrever exige sofrimento intelectual. Quando a IA passa a realizar essas tarefas com rapidez e fluidez, muitos estudantes deixam simplesmente de exercitar essas habilidades. Aos poucos, a tolerância à complexidade diminui, a capacidade de concentração se reduz e a autonomia intelectual se fragiliza. A tecnologia criada para ampliar capacidades humanas começa, paradoxalmente, a atrofiá-las. 

O impacto ético também é gigantesco. A fraude acadêmica entrou em uma nova fase. Durante décadas, plagiar significava copiar textos existentes. Hoje, tornou-se possível produzir trabalhos inteiros sem dominar o conteúdo e com baixíssima probabilidade de detecção. As universidades estão enfrentando uma crise silenciosa: trabalhos deixaram de ser evidência confiável de aprendizagem. Se professores não conseguem distinguir autoria humana de produção automatizada, as notas deixam de refletir competência real e os diplomas passam a sinalizar muito menos do que deveriam. Isso ameaça a credibilidade institucional do ensino superior. Mas talvez o impacto mais grave esteja acontecendo na própria ciência. A escrita acadêmica sempre foi parte essencial da formação de pesquisadores. Dissertações e teses não são apenas produtos finais; são rituais de passagem intelectual, mas um momento em que o estudante aprende a formular problemas, estruturar argumentos, lidar com incertezas e construir pensamento original. Quando a IA entra como autora invisível, esse processo formativo se enfraquece. 

Já começamos a ver sinais de uma possível “industrialização” da escrita científica: revisões de literatura produzidas em massa, artigos inflacionados, textos plausíveis mas superficiais. Existe o risco real de uma poluição textual da ciência — mais artigos publicados, mas menos pensamento crítico por trás deles. Em um cenário extremo, poderemos ter IA escrevendo artigos e IA ajudando a revisá-los, enquanto a participação humana se torna cada vez mais periférica. A ciência perderia sua função mais importante: o escrutínio crítico humano. Mas tudo indica que este cenário extremo já está entre nós, representando uma grave ameaça para o futuro da ciência enquanto um empreendimento que deveria servir para melhorar a vida da maioria da Humanidade.

Diante desse quadro, a resposta não pode ser fingir que nada está acontecendo. Tampouco é realista imaginar a proibição total da IA. O que precisamos urgentemente é de regulação pedagógica séria.  Primeiro, é inevitável reformular os sistemas de avaliação. Provas presenciais, avaliações orais, defesas públicas e atividades realizadas em tempo real precisam voltar ao centro do processo educativo. Não como nostalgia do passado, mas como estratégia para garantir que o estudante realmente pense no que e sobre o que está fazendo. Na medicina, isso significa reforçar simulações clínicas presenciais e avaliações de raciocínio diagnóstico ao vivo. Segundo, o uso de IA precisa ser declarado de forma obrigatória em qualquer produção acadêmica. Transparência deve se tornar regra básica. Terceiro, universidades precisam ensinar IA de forma crítica. Não basta permitir o seu uso, pois é preciso formar usuários capazes de compreender limites, vieses e riscos epistemológicos dessas ferramentas. E, acima de tudo, precisamos reafirmar um princípio simples: aprender não é produzir textos; aprender é desenvolver pensamento crítico e autônomo.

A IA não é apenas mais uma ferramenta já que ela redefine o que significa estudar, pesquisar e produzir conhecimento. Se continuarmos ignorando os riscos do uso descontrolado da IA, poderemos formar uma geração altamente certificada, mas intelectualmente frágil , e uma ciência que se tornará cada vez mais volumosa, porém menos crítica e, consequentemente, avessa às reais necessidades que a atual conjuntura histórica de um planeta em colapso climático impõe.

Finalmente, há que se reconhecer que a IA não é apenas mais uma ferramenta tecnológica incorporada ao cotidiano universitário dado que ela redefine silenciosamente o próprio significado de estudar, pesquisar, ensinar e produzir conhecimento. Se continuarmos tratando seu uso irrestrito como um fenômeno neutro ou inevitável, corremos o risco de formar uma geração altamente certificada, porém intelectualmente frágil; uma ciência cada vez mais volumosa, mas progressivamente menos crítica; e universidades que preservam rituais formais de avaliação enquanto perdem sua função substantiva de formação. O que está em jogo não é apenas a integridade acadêmica ou a qualidade dos diplomas, mas a própria capacidade da sociedade humana de produzir profissionais capazes de lidar com problemas complexos, tomar decisões responsáveis e sustentar práticas científicas confiáveis. Em última instância, se trata de preservar a credibilidade social da universidade e o papel civilizatório da ciência. Desta forma, o verdadeiro desafio não é impedir a IA, algo impossível a estas alturas do campeonato, mas impedir que ela substitua aquilo que constitui a essência da educação superior: o desenvolvimento paciente, exigente e insubstituível de mentes autônomas, críticas, criativas e responsáveis. Sem essa reação por parte das universidades e da comunidade científica, o risco é que a automação intelectual avance mais rápido do que nossa capacidade coletiva de compreender suas consequências, deixando para o futuro o custo de uma formação que parece moderna, eficiente e produtiva, mas que poderá se revelar profundamente vazia e antissocial.

Análise de dados oficiais revela aumento expressivo no uso de glifosato no Reino Unido desde 1990

A tractor spraying fields. Credit Foto-up / Shutterstock.org

Por Sustainable Pulse 

Uma análise recente de dados oficiais do governo, realizada pela PAN UK, revela que a quantidade de glifosato aplicada às plantações no Reino Unido aumentou de 200 toneladas métricas por ano em 1990 para mais de 2.200 toneladas em 2024, um aumento de 1000%.

Observou-se um aumento significativo em uma ampla gama de culturas. Por exemplo, mais de 66 toneladas de glifosato foram aplicadas em batatas britânicas em 2024, um aumento em relação às 1,5 tonelada aplicadas em 1990. Durante o mesmo período, a área de terras agrícolas no Reino Unido tratadas com o herbicida tóxico aumentou dez vezes, chegando a mais de 2,6 milhões de hectares em 2024, dezesseis vezes o tamanho da Grande Londres. A grande maioria desses aumentos ocorreu no setor de culturas aráveis, com destaque para os cereais (trigo, cevada e milho).

Embora os dados fora do setor agrícola sejam muito mais fragmentados, o uso de glifosato por governos locais em espaços públicos, como parques, áreas de lazer e ruas, também parece ter crescido drasticamente. De acordo com estatísticas oficiais do governo do Reino Unido, os conselhos locais utilizaram aproximadamente 60 toneladas de produtos à base de glifosato em 2020. No  entanto, o  maior levantamento já realizado  sobre o uso de agrotóxicos por conselhos, publicado no ano passado, revelou que eles utilizaram pelo menos 354 toneladas de agrotóxicos em 2024, sendo que a grande maioria continha glifosato.

Esses aumentos expressivos serão minuciosamente analisados ​​ainda este ano, já que o governo do Reino Unido precisa decidir até meados de dezembro se renovará a aprovação do glifosato. Caso optem por conceder a licença máxima de 15 anos, é improvável que haja oportunidade de revisão da decisão até 2041.

“Estes números revelam que o vício em glifosato no Reino Unido saiu completamente do controle. O uso excessivo deste produto químico tóxico está causando uma série de problemas, e ainda assim continuamos a pulverizá-lo nos alimentos que consumimos e nos locais onde nossas crianças brincam. Sabemos que o glifosato está ligado a diversos tipos de câncer e outras doenças potencialmente fatais. Além disso, ele prejudica o meio ambiente, poluindo nossas águas e afetando a vida selvagem. O governo precisa urgentemente se comprometer a eliminar gradualmente – e, em última instância, proibir – o glifosato e apoiar os agricultores e as administrações locais na adoção de alternativas seguras e sustentáveis. Caso contrário, todos continuaremos a pagar o preço.” Nick Mole, Analista de Políticas, PAN UK

O glifosato – frequentemente conhecido por sua marca mais comum, Roundup – tem sido alvo de controvérsia há muitos anos devido ao crescente número de evidências que demonstram seu potencial para causar danos irreversíveis à saúde humana e ao meio ambiente. Nos EUA, foi objeto de uma série de processos judiciais que levaram o fabricante a pagar US$ 11 bilhões a pacientes com câncer que alegam que o herbicida causou linfoma não Hodgkin ou outros tipos de câncer relacionados.  O governo francês reconheceu a ligação entre a doença de Parkinson e o glifosato e tem pago indenizações a agricultores.

Também foi demonstrado que o produto químico tem impactos ambientais negativos de grande alcance, desde a contaminação da água até danos diretos e indiretos a uma variedade de animais selvagens, incluindo anfíbios ,  abelhas e outros polinizadores.

Devido ao uso excessivo, as ervas daninhas no Reino Unido estão se tornando resistentes ao glifosato. Os primeiros casos de resistência foram confirmados em 2025 e estão se tornando cada vez mais comuns.  A resistência já é um problema antigo nos EUA, onde o glifosato é usado em grandes quantidades.

Em 2023, a Uniao Europeia proibiu o uso de glifosato na dessecação pré-colheita , uma prática que consiste em pulverizar a plantação com produtos químicos pouco antes da colheita para secá-la.  No entanto, o Reino Unido continua permitindo o uso de glifosato como dessecante pré-colheita, apesar de frequentemente resultar em altos níveis de resíduos nos alimentos.

“A clara evidência do aumento do uso de glifosato nessa escala deveria servir de alerta. Isso mostra que temos dependido demais de um único produto químico, principalmente em nossos sistemas de cultivo. Precisamos reduzir o uso de glifosato, e poderíamos começar com seu uso como dessecante pré-colheita em culturas destinadas à cadeia de suprimentos alimentares. Também devemos evitar múltiplas aplicações no mesmo campo na mesma safra. Os agricultores precisam de alternativas práticas, bons conselhos e incentivos adequados do governo e da cadeia de suprimentos para reduzir o uso de pesticidas. E devemos evitar simplesmente pressionar os agricultores a adotarem outro produto ou sistemas de cultivo excessivos que levam a resultados ruins para a natureza e nossos solos”, concluiu Martin Lines, agricultor e CEO da Nature Friendly Farming Network.

O Reino Unido e a UE estão atualmente negociando um novo Acordo SPS, que provavelmente levará o Reino Unido a adotar a licença de dez anos concedida pela UE para o glifosato em 2023. Enquanto isso, o governo britânico deve  tomar sua própria decisão  sobre o glifosato até 15 de dezembro de 2026 e afirmou que lançará uma consulta pública de 60 dias em junho.


Fonte: Sustainable Pulse

Milhares de poços artesianos em São Paulo operam sob risco de contaminação tóxica, alerta estudo

Dois terços dos 14 mil poços privados existentes na Região Metropolitana não estão formalmente cadastrados e muitos foram perfurados em antigas zonas industriais em processo de reconversão imobiliária

Entre os principais contaminantes destacam-se o percloroetileno e o tricloroetileno, utilizados como desengraxantes industriais, na limpeza de peças metálicas (imagem: Wirestock/Magnific)

José Tadeu Arantes | Agência FAPESP 

Com cerca de 22 milhões de habitantes, a Região Metropolitana de São Paulo (RMSP) consome em média 61,6 metros cúbicos (ou 61.600 litros) de água por segundo. Embora quase todo o abastecimento público provenha de mananciais superficiais, estima-se que aproximadamente 18% do consumo total dependa de aquíferos, por meio de cerca de 14 mil poços privados. O aporte dos aquíferos é de aproximadamente 347 milhões de metros cúbicos por ano.

Mas dois terços desses poços não estão formalmente cadastrados. E muitos deles foram perfurados em antigas zonas industriais, hoje desindustrializadas e em processo de reconversão imobiliária. A contaminação dessas áreas por resíduos industriais, principalmente solventes clorados utilizados na limpeza de máquinas, constitui um risco para o consumo de águas subterrâneas, considerando-se a dificuldade de gerir esse passivo ambiental em escala compatível com a da demanda de recursos hídricos.

Esse é o principal alerta de artigo publicado na revista científica Environmental Earth Sciences. O trabalho, apoiado pela FAPESP e assinado por Daphne Silva Pino e colaboradores, examina o quadro brasileiro, com foco especial na RMSP. “Chamamos a atenção para os riscos potenciais associados ao uso de aquíferos em áreas industriais antigas ou em reurbanização, em um contexto de monitoramento ainda fragmentado”, diz Pino.

Ela é pós-doutoranda no Instituto de Geociências da Universidade de São Paulo (IGC-USP). Seu supervisor, Reginaldo Antonio Bertolo, também assina o artigo.

Bertolo sintetiza a situação: “Para cada três poços que são construídos, dois são irregulares, no sentido de que o poder público não tem ciência da existência deles nem consegue avaliar se a água utilizada oferece risco ao usuário”. Segundo o pesquisador, clubes, condomínios, indústrias e hospitais figuram entre os principais consumidores do recurso subterrâneo.

Desengraxantes industriais

Entre os principais contaminantes, englobados na categoria “solventes clorados”, destacam-se o percloroetileno (CCl) e tricloroetileno (CHCl), utilizados como desengraxantes industriais. “Essas substâncias, bastante empregadas na limpeza de peças metálicas, são altamente tóxicas”, afirma Pino. Ela lembra que o percloroetileno também foi utilizado durante décadas em lavanderias para lavagem a seco e que a atual legislação brasileira ainda permite o uso, apesar de impor diversas restrições e exigências. “Diminuiu bastante o uso, mas esses solventes continuam presentes em ambientes industriais”, pontua.

Embora esses produtos sejam controlados no âmbito industrial, informações públicas sobre quem os utiliza e em que quantidades ainda são escassas. Além disso, há lacunas regulatórias sobre descarte e reciclagem desses solventes.

Do ponto de vista hidrogeológico, o risco não se resume à toxicidade. Bertolo observa que hidrocarbonetos vazados por postos de gasolina tendem a se degradar com maior rapidez. Já os solventes clorados apresentam comportamento mais persistente. “Quando a degradação acontece, formam-se compostos ‘filhos’ que podem ser ainda mais tóxicos do que o composto original”, afirma. Pino acrescenta que, se há poços bombeando em profundidade, isso cria um gradiente hidráulico descendente que facilita o aporte desses contaminantes para níveis mais profundos do aquífero.

Uma das contribuições centrais do estudo é o cruzamento cartográfico entre três camadas de informação: zonas industriais, áreas oficialmente contaminadas por solventes clorados e poços de abastecimento. A análise mostra que, em São Paulo, essas três dimensões frequentemente se sobrepõem.


Área do bairro da Mooca, uma das regiões desindustrializadas da cidade de São Paulo (imagem: Daphne S.Pino)

Pino descreve uma das figuras produzidas pelo estudo, que corresponde a uma área do bairro da Mooca, uma das regiões da cidade de São Paulo que passaram por importante processo de desindustrialização: “Os pontos azuis representam poços de abastecimento conhecidos; os vermelhos, áreas contaminadas; e os polígonos verdes indicam áreas onde não deveria haver captação. O que chama atenção é a proximidade e até mesmo a sobreposição entre poços registrados e áreas contaminadas. O problema torna-se ainda mais grave se considerarmos a predominância de poços irregulares, que, obviamente, não aparecem na figura”.

O que acontece na Mooca ocorre também em outras áreas desindustrializadas da cidade de São Paulo. O processo de desindustrialização, iniciado ainda no final dos anos 1970, consolidou-se a partir da década seguinte e acentuou-se cada vez mais desde então. Por causa dos custos urbanos elevados, muitas empresas transferiram suas fábricas para municípios da Região Metropolitana, para o interior paulista ou até mesmo para outros Estados.

O processo deixou atrás de si um rastro de galpões abandonados e subsolo contaminado. Quando não simplesmente arruinados, antigos distritos fabris passaram a abrigar atividades de serviços, comércio e empreendimentos imobiliários em territórios não preparados para essa reconfiguração econômico-social. Com base na legislação paulista, se existir uma área contaminada em um raio de 500 metros de um poço, o responsável deve apresentar relatórios de qualidade da água ao órgão ambiental. Ao aplicar esse critério aos mapas produzidos no estudo, os autores identificaram 17 aglomerações de áreas contaminadas e poços cujos raios se sobrepõem: em regiões como Jurubatuba, Jaguaré, Mooca e Vila Prudente, na capital; e Diadema, Mauá e Osasco, na RMSP.

“Muitas dessas áreas funcionam como fontes multiponto de contaminação, com plumas que se interceptam. E há poços profundos usados para ingestão humana dentro desses cinturões”, enfatiza Pino. O estudo aponta que a gestão de áreas contaminadas costuma ser conduzida no limite de cada propriedade, enquanto a água subterrânea ignora fronteiras imobiliárias. “Remove-se solo superficial para controlar o risco imediato, impedindo, por exemplo, que vapores tóxicos entrem em edificações. Mas grande parte da massa contaminante permanece em profundidade e continua sendo transportada pela água subterrânea”, descreve Bertolo.

Reabilitação lenta

Até 2020, apenas 18,6% dos locais contaminados por solventes clorados haviam sido classificados como “reabilitados para o uso declarado”. Essa categoria não implica na eliminação completa da massa contaminante, mas em sua redução a níveis considerados aceitáveis do ponto de vista de risco. Ao analisar o cadastro paulista, os pesquisadores identificaram 596 áreas com histórico de solventes clorados. Mais da metade ainda estava em fase de remediação, enquanto 26% permaneciam em investigação.

Bertolo afirma que a contaminação tende a se concentrar nos primeiros metros do aquífero. “Mas, quando se bombeia a 100 metros de profundidade, cria-se um gradiente descendente que faz com que a água contaminada da zona rasa migre lentamente para baixo”, explica. Ele ressalta que camadas geológicas menos permeáveis podem atuar como filtro natural, mas reconhece incertezas importantes sobre a eficácia desse mecanismo ao longo de décadas. A toxicidade dos solventes agrava o quadro. “O limite de potabilidade é da ordem de partes por bilhão”, destaca o pesquisador. “Uma quantidade mínima dissolvida já é suficiente para comprometer volumes enormes de água.”

Jurubatuba, na zona sul paulistana, aparece no artigo como a área mais estudada da RMSP. Ainda assim, três quartos dos sítios ali localizados carecem de informação detalhada nos cadastros ambientais. Metade corresponde a instalações industriais com histórico documentado de uso de solventes clorados. Bertolo vê no monitoramento da região um ensaio do que poderia ser feito em escala maior, alcançando outras manchas industriais, como partes do ABCD paulista, com atuação coordenada entre a Companhia Ambiental do Estado de São Paulo (Cetesb) e a Agência de Águas do Estado de São Paulo (SP Águas).

“Hoje, o cenário exige uma ação estratégica, que ultrapasse o caso a caso e direcione a política pública para impedir o uso da água subterrânea em áreas mais amplas. Quando se olha o aquífero, delimitações geométricas rígidas em torno de um imóvel não fazem sentido. É preciso tratar essas regiões como sistemas hidrogeológicos integrados”, acrescenta Pino.

O artigo conclui com um chamado por bases de dados mais robustas, equipes técnicas multidisciplinares e diagnósticos regionais sistemáticos, capazes de dimensionar a extensão real do problema e orientar políticas de longo prazo.

Procurada pela Agência FAPESP, a SP Águas afirmou, por meio de sua assessoria de imprensa, que o Comitê da Bacia Hidrográfica do Alto Tietê, em linha com iniciativas de analisar o território de forma mais ampla e integrada – principalmente relacionando o binômio “águas subterrâneas e áreas contaminadas”, promoveu novos estudos hidrogeológicos para a região de Jurubatuba, por meio da Fundação Agência de Bacia Hidrográfica do Alto Tietê. “O principal objetivo desse trabalho foi aperfeiçoar o modelo de gestão existente na região, propondo o aprimoramento da integração entre os órgãos gestores e ampliando o entendimento sobre o comportamento da água subterrânea e o transporte de contaminantes”, diz a nota. “Como resultado, além da indicação de áreas com maior ou menor restrição de uso das águas, o estudo sinalizou que o modelo de gestão existente deve estabelecer, entre outras medidas, maior integração entre as Políticas Estaduais de Recursos Hídricos e de Gerenciamento de Áreas Contaminadas, especialmente diante da relação de causa e efeito já mencionada no trabalho de Pino”, complementa.

Ainda segundo a SP Águas, nesse contexto, para o sucesso da aplicação do modelo de gestão das águas subterrâneas proposto em Jurubatuba, os órgãos gestores devem considerar, entre outras medidas, a possibilidade de unificação de seus bancos de dados; uma gestão adaptativa que consiga ser aprimorada à medida que resultados de monitoramentos e outros trabalhos técnicos sejam produzidos; e o estabelecimento de comunicação simplificada com a população, visando que a complexidade da região seja traduzida em orientações explicitas e acessíveis ao público.

Também procurada, a Cetesb não se manifestou até a publicação desta reportagem.

O artigo Overview of groundwater management at sites contaminated by chlorinated solvents in Brazil pode ser lido em: link.springer.com/article/10.1007/s12665-025-12727-x.


Fonte: Agência Fapesp

Entre oportunismo e ruptura: o centrão troca o governo Luiz Inácio Lula da Silva por uma aliança de confronto

A união entre o “centrão” e o bolsonarismo, em meio a derrotas do Executivo, sinaliza inflexões no padrão de governabilidade e projeta incertezas para o ciclo eleitoral de 2026

Os episódios recentes envolvendo o Senado Federal do Brasil e o Congresso Nacional do Brasil, particularmente no que se refere à rejeição da indicação de Jorge Messias ao Supremo Tribunal Federal (STF) e à mobilização para a derrubada de vetos presidenciais ao chamado PL da Dosimetria oferecem um ponto de observação privilegiado para a análise das dinâmicas contemporâneas de governabilidade no Brasil. Mais do que eventos isolados, tais movimentos sugerem uma reconfiguração das coalizões legislativas, com implicações institucionais relevantes.

No centro dessa inflexão encontra-se o comportamento do chamado “centrão”, um agrupamento heterogêneo de partidos e lideranças cuja atuação historicamente se caracteriza pelo pragmatismo e pela adesão contingente ao Executivo. Durante o terceiro mandato de Luiz Inácio Lula da Silva, esse bloco foi incorporado à base governista mediante a distribuição de recursos políticos e administrativos. No entanto, a recente convergência entre setores do centrão e parlamentares associados ao bolsonarismo indica uma alteração qualitativa nesse padrão de alinhamento.

Essa aproximação não deve ser interpretada apenas como uma oscilação tática. Ela aponta para um deslocamento mais profundo na estrutura de incentivos que orienta o comportamento legislativo. Em contextos de presidencialismo de coalizão, como o brasileiro, a estabilidade institucional depende da capacidade do Executivo de coordenar maiorias por meio de barganhas previsíveis. Quando esse mecanismo se fragiliza, abre-se espaço para arranjos alternativos que podem prescindir — ou mesmo se contrapor — à liderança presidencial. 

A atuação de figuras como Davi Alcolumbre, nesse cenário, ilustra o fortalecimento de polos autônomos de poder no interior do Legislativo. A capacidade de influenciar ou mesmo bloquear decisões estratégicas do Executivo, como indicações ao STF, sugere uma redistribuição de poder que tensiona o equilíbrio entre os poderes. Ainda que formalmente prevista no desenho institucional, a rejeição de indicações presidenciais ao STF permanece um evento de baixa frequência histórica, o que amplifica seu significado político.

A convergência entre centrão e bolsonarismo, por sua vez, introduz um elemento adicional de complexidade. Trata-se da articulação entre um bloco tradicionalmente pragmático e uma corrente política marcada por forte componente ideológico e mobilização social. Essa combinação potencializa a capacidade de obstrução e redefine os termos da disputa legislativa, ao incorporar tanto recursos institucionais quanto capital político mobilizado fora do Congresso. As implicações desse rearranjo transcendem o plano legislativo imediato. Ao sinalizar dificuldades do Executivo em manter uma coalizão estável, esses movimentos afetam expectativas de atores políticos em diferentes níveis, incluindo governadores, prefeitos e candidatos em disputa nas eleições de outubro. A percepção de fragilidade governamental tende a incentivar estratégias de distanciamento ou alinhamento seletivo, enfraquecendo ainda mais a coesão da base aliada criada por Lula a partir da distribuição massiva de benesses. Do ponto de vista institucional, o risco que se delineia não é necessariamente o de uma ruptura abrupta, mas o de uma erosão incremental da governabilidade. A formação de maiorias ad hoc, desvinculadas de compromissos programáticos com o Executivo, pode levar a um padrão decisório mais volátil e menos previsível. Em situações-limite, esse tipo de dinâmica pode evoluir para impasses recorrentes entre os três poderes, configurando um ambiente de instabilidade institucional.

Finalmente, é importante situar esse processo no contexto mais amplo da polarização política brasileira, intensificada desde a tentativa de golpe de estado de 8 de janeiro de 2023. A aproximação entre centrão e bolsonarismo sugere que a clivagem ideológica não elimina, mas reconfigura, as lógicas pragmáticas de poder. O resultado é um arranjo híbrido, no qual interesses distributivos e agendas políticas mais radicalizadas passam a coexistir e, em certos momentos, a convergir. Nesse contexto, as eleições de outubro tendem a ser fortemente influenciadas não apenas por programas ou desempenho econômico, mas pela percepção de capacidade de governar. A reconfiguração em curso no Congresso, ao desafiar os mecanismos tradicionais de coordenação política, coloca em questão justamente esse atributo — com efeitos que podem se estender para além do ciclo eleitoral imediato.

FAPERJ em falha: atraso de bolsas expõe crise estrutural

Enquanto outros estados reajustam e pagam em dia, o Rio de Janeiro normaliza o atraso, a desigualdade e o silêncio institucional

A crise das bolsas da  Fundação Carlos Chagas Filho de Amparo à Pesquisa do Estado do Rio de Janeiro (FAPERJ) já não pode mais ser tratada como um problema administrativo pontual. O que está em curso é algo mais profundo: a desestruturação silenciosa da pós-graduação no estado do Rio de Janeiro. A combinação entre valores defasados, atrasos na implementação e ausência de previsibilidade transformou aquilo que deveria ser política de fomento em um mecanismo de precarização acadêmica.

O ponto de partida dessa crise é conhecido, mas raramente enfrentado com a devida franqueza: o valor das bolsas. Em nível nacional, as bolsas da CAPES passaram quase uma década congeladas até sofrerem um reajuste em 2023, quando o mestrado passou para cerca de R$ 2.100 e o doutorado para R$ 3.100. Ainda assim, mesmo após o reajuste, esses valores permanecem modestos diante do custo de vida — especialmente em cidades como a do Rio de Janeiro.

O problema é que, no caso fluminense, a situação é ainda mais grave. Outras fundações estaduais não apenas acompanham reajustes, mas os superam deliberadamente como estratégia de fortalecimento científico. A FAPESP, por exemplo, paga atualmente cerca de R$ 3.120 a R$ 3.300 para mestrado e até R$ 6.810 para doutorado . Já a fundação do Espírito Santo elevou suas bolsas a níveis superiores aos federais, com mestrado em torno de R$ 3.200 e doutorado em R$ 4.500, explicitamente com o objetivo de recompor perdas inflacionárias .

Ou seja: enquanto outros estados tratam a bolsa como instrumento estratégico de investimento em capital humano, o Rio de Janeiro a mantém como um valor corroído — e, pior, incerto.

Porque o problema não é apenas quanto se paga, mas se e quando se paga. Editais da própria FAPERJ seguem anunciando cronogramas relativamente organizados, com previsão de implementação de bolsas em janelas específicas ao longo do ano, como maio e setembro . No papel, há planejamento. Na prática, há um abismo entre o edital e a realidade vivida pelos estudantes. A implementação atrasa, o pagamento não chega, e o bolsista — que já recebe pouco — passa a não receber nada.

É nesse ponto que a crise assume sua face mais cruel. A pós-graduação brasileira, por definição, exige dedicação exclusiva. Sem bolsa, não há renda alternativa legítima. O estudante não está apenas com dificuldades: ele está estruturalmente impedido de cumprir aquilo que o sistema exige dele. A bolsa deixa de ser apoio e passa a ser um fator de instabilidade.

Na Universidade Estadual do Norte Fluminense Darcy Ribeiro (Uenf), essa distorção se torna ainda mais visível. A coexistência de bolsas pagas por diferentes agências, e até com verbas descentralizadas da própria FAPERJ, escancara uma desigualdade interna difícil de justificar: enquanto alguns estudantes recebem regularmente, outros — vinculados à FAPERJ “padrão” — enfrentam atrasos indefinidos. Cria-se, assim, uma hierarquia informal de sobrevivência dentro da própria pós-graduação da universidade do “Terceiro Milênio”.

Mas talvez o elemento mais perturbador de toda essa crise seja o silêncio. A ausência de posicionamento firme por parte de reitorias, pró-reitorias e coordenações não é apenas omissão — é cumplicidade passiva com a precarização. Ao não denunciar publicamente os atrasos, ao não pressionar institucionalmente por soluções, as universidades contribuem para a normalização de uma situação que deveria ser tratada como colapso.

E isso tem efeitos concretos e mensuráveis. Atrasos de bolsas significam evasão. Significam estudantes abandonando projetos, interrompendo pesquisas ou migrando para outros estados — justamente aqueles que oferecem melhores condições. Significam perda de competitividade científica. Significam, em última instância, um processo de “fuga de cérebros” interno, silencioso e contínuo.

Há ainda um dano menos visível, mas igualmente grave: a erosão da confiança institucional. Quando editais são lançados, resultados divulgados e bolsas prometidas — mas não implementadas —, o sistema perde credibilidade. E ciência não se sustenta apenas com financiamento: ela depende de previsibilidade, confiança e compromisso.

O caso da FAPERJ evidencia uma contradição estrutural. De um lado, a fundação continua lançando editais e reafirmando seu compromisso com a formação científica . De outro, falha em garantir o básico: a materialização dessas promessas na vida concreta dos estudantes. Não se trata mais de um problema técnico. Trata-se de uma escolha política — explícita ou por omissão.

Se o atual cenário persistir, o Rio de Janeiro corre o risco de consolidar um modelo perverso: formar pesquisadores em um ambiente de instabilidade crônica, onde a excelência acadêmica convive com a insegurança material. Um modelo em que a produção científica sobrevive não por apoio institucional, mas apesar dele.

E ciência, como se sabe, não floresce no improviso. Ela exige estabilidade, compromisso e, acima de tudo, respeito por aqueles que a constroem diariamente.

Pesquisa em larga escala revela que milhares de anúncios fraudulentos oferecem autorias de artigos científicos em troca de dinheiro

Os resultados são “apenas a ponta do iceberg” do obscuro mercado de fábricas de papel.

Ilustração conceitual de papéis jorrando de uma máquina de chicletes.

SARA GIRONI CARNEVALE

Por Jeffrey Brainard para a “Science” 

Pesquisadores inescrupulosos podem comprar a posição de primeiro autor em um manuscrito que não escreveram por valores que variam de US$ 57 a US$ 5.600. E, pelo menos desde 2021, anúncios online públicos oferecem milhares de oportunidades para isso. Esses são alguns dos resultados alarmantes de uma investigação de grande escala sobre um obscuro mercado online, no qual empresas chamadas de fábricas de artigos científicos vendem autoria de relatórios acadêmicos — muitas vezes de má qualidade, quando não totalmente fabricados — contribuindo para a enxurrada de conteúdo de baixa qualidade que polui a literatura científica.

Os anúncios, em sites e no aplicativo de mensagens e redes sociais Telegram, eram de sete empresas em diferentes países, identificadas pelos autores do estudo como prováveis ​​fábricas de artigos científicos (paper mills). Submetido esta semana ao servidor de pré-publicações arXiv, o estudo fornece “tantas evidências de como as fábricas de papel operam, algo que muitas pessoas não têm acesso ou conhecimento”, afirma Leslie McIntosh, vice-presidente de integridade e segurança da pesquisa na empresa de ferramentas de publicação Digital Science, que não participou do estudo. “Sabemos que existe um problema, agora vamos fazer algo a respeito.”

Utilizando análise automatizada de texto, os pesquisadores identificaram 18.710 anúncios de empresas que os autores rastrearam até a Rússia, Ucrânia, Uzbequistão, Índia e outros países. Além de oferecerem autoria em artigos acadêmicos, outros produtos à venda incluíam autoria de livros didáticos, registros de patentes e prêmios profissionais. (A pequena equipe limitou sua investigação principalmente a anúncios em inglês e não incluiu fábricas de papel em outros países, como a China, onde outras investigações indicaram que a prática proliferou .) Cerca de 85% dos anúncios informavam os preços da autoria, com a posição de primeiro autor custando em média US$ 1.030.

Muitos anúncios forneciam poucos detalhes, mas prometiam que o artigo seria publicado em um periódico de alto nível, de acordo com métricas baseadas em citações, e quase todos garantiam que o periódico estaria listado nos índices bibliográficos Web of Science ou Scopus — limiares de qualidade que podem ser valiosos para o avanço profissional, afirma a autora principal, Reese Richardson, pesquisadora de reprodutibilidade da Universidade Northwestern. Alguns anúncios mencionavam periódicos específicos de grandes editoras. Títulos da Elsevier e do IEEE, por exemplo, foram citados em 112 e 101 anúncios, respectivamente.

Em um comunicado, a Elsevier classificou o preprint como “valioso” porque “lança mais luz sobre as operações das fábricas de artigos”. A empresa acrescenta: “Nossa avaliação inicial sugere que a maioria dos manuscritos destacados no preprint não parece ter sido publicada pela Elsevier, embora uma investigação mais aprofundada esteja em andamento”, e observa que “já retirou diversos artigos devido a alterações suspeitas de autoria identificadas antes de ser alertada sobre as preocupações específicas levantadas, e outros estão sob análise”.

Em uma declaração separada, o IEEE afirmou: “Quando tomamos conhecimento de possíveis problemas com o conteúdo, dedicamos tempo para analisá-lo cuidadosamente e, quando justificado, retratamos as publicações não conformes.”

O estudo não investiga quais anúncios resultaram em artigos publicados, já que as fábricas de artigos frequentemente ocultam a origem de um artigo alterando seu título ou resumo antes de submetê-lo a um periódico, o que dificulta a conexão entre anúncios e artigos publicados. Mas uma investigação anterior, conduzida pela coautora do estudo, Anna Abalkina, cientista social da Universidade Livre de Berlim, rastreou aproximadamente 1.000 anúncios de autoria até mais de 400 artigos publicados . Destes, ela afirma que apenas 70 foram retratados.

As estimativas da prevalência de literatura científica proveniente de fábricas de papel variam. Um estudo publicado em janeiro no The BMJ , por exemplo, descobriu que quase 10% dos 2,6 milhões de artigos de pesquisa sobre câncer publicados entre 2019 e 2024 contêm semelhanças com artigos conhecidos provenientes de fábricas de papel . E as retratações de artigos científicos devido a indícios de origem em fábricas de papel aumentaram drasticamente nos últimos anos, de acordo com dados mantidos pela publicação sem fins lucrativos Retraction Watch. De quase zero em 2019, o número chegou a mais de 6.700 em 2023, ou 50% de todas as retratações naquele ano. O número de retratações relacionadas a fábricas de papel diminuiu desde então, mas ainda representa cerca de um quarto do total.

Richardson espera que outros pesquisadores usem o novo conjunto de dados para investigar mais a fundo as operações das fábricas de artigos— e que as editoras façam mais para fiscalizar os jornais que publicam. As descobertas do estudo são “apenas a ponta do iceberg”, diz ele. “Essas informações estavam disponíveis publicamente — alguns desses anúncios apareceram há anos — e essas revistas e editoras, em sua maioria, não tomaram nenhuma providência até que alguém as alertasse.  Se você quer ser visto como uma editora que não tolera isso, você não pode tolerar.” 

Jeffrey Brainard é repórter da revista Science em Washington, D.C., onde cobre temas como publicação científica, ciência aberta, revisão por pares, a ciência da ciência e outros assuntos. Você pode contatá-lo no Signal pelo endereço jbrainard.19 e no Bluesky pelo perfil @jeffreybrainard.bsky.social.


Fonte: Science

Políticas anti desmatamento estão falhando em proteger a Amazônia brasileira contra a degradação florestal

Incêndio na Amazônia brasileira

Antonio passou os últimos sete anos correndo em direção a incêndios dos quais a maioria foge. Bombeiro na Amazônia brasileira desde 2019, ele trabalha dentro da Reserva Extrativa Chico Mendes, um dos lugares mais biodiversos do mundo. 

Mas as coisas estão mudando, e rápido. “2024 foi o ano mais extremo para incêndios”, disse Antonio. “Nunca tinha visto nada igual. A floresta queimava como pastagem seca – era assustadora para aqueles de nós que arriscam a vida para protegê-la.”

O que Antonio e seus colegas bombeiros estão testemunhando no local foi comprovado por um novo estudo. Uma equipe internacional de pesquisadores, liderada pela Universidade de Cambridge, descobriu que as políticas que ajudaram a reduzir o desmatamento na Amazônia brasileira nas últimas duas décadas falharam em sua maioria em deter a degradação florestal: uma forma de destruição mais lenta e potencialmente mais perigosa. Seus resultados são publicados nos Anais da Academia Nacional de Ciências.

Diferente do desmatamento, onde áreas inteiras de floresta são desmatadas para agricultura, indústria ou infraestrutura, uma floresta degradada ainda possui árvores de pé. No entanto, foi tão danificado por incêndios, extração ilegal, fragmentação, secas e caça excessiva que perdeu grande parte de seu valor ecológico. O chão da floresta, desprovido de sombra e umidade, vira uma caixa de polvora.

“Ainda há uma floresta lá, mas está tão danificada que o carbono que antes armazenava começa a vazar, os animais desapareceram e novas espécies de gramíneas colonizam as bordas da floresta”, disse o autor principal, Dr. Federico Cammelli, do Departamento de Geografia de Cambridge e do Instituto de Pesquisa para a Conservação. “Incêndios em florestas tropicais são de baixa intensidade, as chamas frequentemente passam despercebidas sob a copa, mas após um ou dois anos, as árvores morrem enquanto estão em pé, e a floresta se transforma em um cemitério de árvores mortas em pé.”

Pesquisas anteriores mostraram que, entre 2001 e 2018, as emissões líquidas de carbono da degradação florestal na Amazônia brasileira foram comparáveis ou até maiores do que as do próprio desmatamento. Até 2050, a degradação pode afetar toda a Amazon brasileira, mas mal apareceu nas políticas destinadas a protegê-la.

O Brasil fez progressos reais no desmatamento. A primeira fase do Plano de Prevenção e Controle do Desmatamento na Amazônia do governo, lançado em meados dos anos 2000, reduziu o desmatamento de árvores em cerca de 60 a 80 por cento. Acordos no setor privado – incluindo uma moratória sobre a soja proveniente de terras desmatadas e o compromisso das empresas de processamento de carne de não obter gado de áreas recém-desmatadas – também contribuíram para o sucesso da região.

No entanto, os pesquisadores descobriram que quatro grandes políticas destinadas a reduzir o desmatamento em três estados brasileiros não diminuíram a degradação. Até o momento, poucas pesquisas foram feitas sobre esse tema devido à falta de dados sobre degradação e seus fatores. Os pesquisadores integraram os dados recém-disponíveis sobre degradação com conjuntos de dados de políticas para comparar os impactos de quatro tipos de intervenções políticas dos setores público e privado em diferentes fatores de degradação.

Quando o desmatamento desacelera, parte da degradação também diminui, já que as florestas sofrem menos com os chamados efeitos de borda onde áreas desmatadas tocam florestas intactas. “No entanto, não encontramos evidências conclusivas de que qualquer uma das políticas da cadeia de suprimentos, como a moratória da soja ou os acordos sobre gado, enfrentasse outros grandes fatores de degradação antropogênica, como incêndios, extração madeireira e fragmentação”, disse Cammelli.

Em um caso, sugere a pesquisa, até mesmo políticas bem-sucedidas de desmatamento podem agravar a degradação. O acordo G4 sobre o setor de gado, assinado pelos quatro maiores empacotadores de carne do Brasil, parecia estar ligado a um aumento na extração de madeira: possivelmente porque, à medida que a pecuária se tornou mais regulada, algumas empresas migraram para o setor madeireiro menos regulado.

De volta a Chico Mendes, Antonio vê algumas das consequências dessas lacunas nas políticas. Ele disse que a estação seca agora dura mais a cada ano, as florestas estão ficando mais frágeis e as chuvas chegam com violência repentina, derrubando pontes e bloqueando estradas.

Ele não está otimista de que a lei está acompanhando. “As leis ambientais deveriam ser mais rigorosas, e os infratores deveriam ser devidamente punidos”, disse ele. “Se perdermos a floresta, perdemos nossas vidas indiretamente.”

Cammelli afirmou que a vontade política é vital. Uma atualização da política ambiental brasileira publicada em 2023 inclui a degradação florestal entre os critérios para direcionar a aplicação da lei ambiental a municípios com histórico ambiental precário, além de exigências específicas para reduzir o desmatamento.

“Incêndios frequentemente se espalham por muitas propriedades e envolvem responsabilidades complexas: quem é responsável pela ignição, quem pela propagação do fogo? Eles são melhor tratados na escala da paisagem. O setor madeireiro continua pouco regulamentado, e muito pode ser feito para combater o desmatamento ilegal”, disse ele.

Os pesquisadores estão defendendo uma mudança fundamental na forma como governos, empresas e reguladores pensam sobre a melhor forma de proteger as florestas.

O Regulamento de Desmatamento da UE, que proíbe a importação de produtos ligados à destruição florestal, define a degradação de forma muito restrita, dizem os pesquisadores, e em grande parte ignora os danos causados pelo fogo e a fragmentação causados pela produção de soja e carne bovina. Os pesquisadores estão incentivando a UE a expandir sua definição de degradação.

Apesar dos compromissos com o desmatamento, os pesquisadores não encontraram exemplos publicamente documentados de empresas operando na Amazônia brasileira que tivessem estabelecido metas concretas para combater especificamente a degradação florestal.

“Evitar o desmatamento e a degradação é muito mais importante para o clima e a natureza do que restaurar o que já se foi”, disse a autora sênior Professora Rachael Garrett, também do Departamento de Geografia e do Instituto de Pesquisa em Conservação de Cambridge. “Existem certas coisas que você não pode recuperar.”

“A cada ano”, disse Antonio, “a floresta e a vida selvagem se tornam mais vulneráveis.”

A pesquisa foi apoiada em parte pela União Europeia e pela Fundação Nacional Suíça para a Ciência.

 

Referência 


Federico Cammelli et al. ‘
Políticas focadas no desmatamento não reduzem a degradação na Amazônia brasileira.‘ Anais da Academia Nacional de Ciências (2026). DOI: 10.1073/pnas.2507793123


Fonte: University of Cambridge

A crise da UENF é a crise do futuro fluminense

Perdas inflacionárias superiores a 50%, salários iniciais pouco competitivos e carreiras fragilizadas expõem o desinvestimento público e ameaçam o futuro científico e tecnológico do Rio de Janeiro

A crise salarial que atinge os docentes da Universidade Estadual do Norte Fluminense Darcy Ribeiro (Uenf) não é um fenômeno isolado nem conjuntural.  Esta crise é uma expressão concreta de um modelo persistente de desvalorização do trabalho intelectual no setor público brasileiro — um modelo que, no caso fluminense, assume contornos particularmente agudos.

Ao longo dos últimos anos, os servidores da instituição acumularam perdas inflacionárias superiores a 50%. Esse dado, por si só, já seria suficiente para caracterizar um processo de corrosão sistemática do poder de compra e, consequentemente, das condições materiais de vida desses profissionais. No entanto, a gravidade do quadro se aprofunda quando se observa a estrutura remuneratória vigente. O salário inicial de um professor doutor em regime de dedicação exclusiva — R$ 10.858,66 — posiciona a universidade entre os piores pisos salariais dentre as principais economias estaduais brasileiros. Em um contexto de crescente competição por quadros altamente qualificados, isto se revela como sendo uma política que beira a autossabotagem institucional.

A precarização não se limita ao valor nominal dos salários. A ausência de mecanismos clássicos de progressão e valorização — como triênios e licenças especiais — retira da carreira docente elementos fundamentais de previsibilidade e atratividade. Jovens doutores, formados em programas de excelência e frequentemente disputados por instituições nacionais e estrangeiras, encontram na Uenf um cenário pouco convidativo: baixos salários, escassas perspectivas de evolução e instabilidade normativa. A consequência é previsível — e já observável: dificuldade de renovação dos quadros e envelhecimento progressivo do corpo docente.

No outro extremo da carreira, a situação tampouco é menos preocupante. A estratégia adotada para mitigar, ainda que parcialmente, a defasagem salarial — a concessão de adicionais — revela-se, na prática, um mecanismo de transferência do problema para o futuro. Esses adicionais, ao não serem incorporados à aposentadoria, produzem uma perda abrupta de renda, frequentemente em torno de 30%, no momento em que o professor se retira da ativa. Trata-se de uma penalização tardia, mas não menos severa, aplicada justamente àqueles que dedicaram décadas à consolidação da instituição. O resultado é um duplo efeito perverso: desincentivo à permanência e insegurança quanto ao futuro.

Diante desse quadro, a inação do governo estadual torna-se ainda mais difícil de justificar. Medidas relativamente simples — como a reposição, ainda que parcial, das perdas inflacionárias — poderiam representar um alívio imediato. De forma mais estrutural, a aprovação do novo plano de cargos e vencimentos, em análise desde 2021, ofereceria uma base institucional mais sólida para a reorganização da carreira docente. No entanto, a ausência dessas iniciativas indica não apenas uma limitação fiscal, mas uma escolha política: a de relegar a universidade pública a um papel secundário nas prioridades do estado.

As implicações dessa política ultrapassam, em muito, o universo corporativo dos docentes. A fragilização das condições de trabalho compromete diretamente a capacidade da universidade de cumprir suas funções essenciais: ensino, pesquisa e extensão. Projetos científicos tornam-se mais difíceis de sustentar diante da evasão de talentos e da sobrecarga dos que permanecem. A formação de novos pesquisadores é prejudicada por um ambiente institucional instável. Parcerias estratégicas, tanto nacionais quanto internacionais, tendem a rarear à medida que a reputação da instituição se deteriora.

Em um estado como o Rio de Janeiro, cuja economia demanda diversificação e inovação, o enfraquecimento de um polo científico como a Uenf representa um retrocesso significativo. A produção de conhecimento — especialmente em áreas estratégicas para o desenvolvimento regional — não é um luxo, mas uma condição necessária para a construção de alternativas econômicas sustentáveis. Ao negligenciar a valorização de seus docentes, o estado não apenas compromete o presente da universidade, mas também limita suas próprias possibilidades de futuro.

Finalmente, o que está em jogo é a própria ideia de universidade pública como instrumento de desenvolvimento social e econômico. A crise salarial da Uenf não deve ser interpretada como um problema localizado, mas como um sintoma de uma política mais ampla de desinvestimento. Persistir nesse caminho é aceitar, de forma tácita, a erosão de um dos pilares fundamentais da produção de conhecimento no estado. E essa é uma escolha cujos custos, cedo ou tarde, serão cobrados de toda a sociedade.

Em simulação de mudanças climáticas, plantas da Amazônia se reestruturam para absorver nutrientes

Vegetação amazônica se mostra competitiva e resiliente quando submetida a cenário simulado de aumento de gás carbônico e escassez de fósforo no solo

rtigo destaca a importância da continuidade de estudos sobre o fenômeno conhecido como fertilização por CO₂.

 

Um experimento que simula o futuro do aumento das concentrações de CO₂ atmosférico em plena floresta amazônica revela comportamento organizado, competitivo e resiliente da floresta nesse cenário com maior presença do gás, que agrava o efeito estufa, e com solo escasso em fósforo – importante nutriente da flora nativa. Publicadas em artigo na revista Nature Communications na terça (28), as constatações reforçam a importância do bioma no combate às mudanças do clima.

Em condições adversas, as raízes das plantas situadas na serrapilheira ficaram mais longas e finas. As raízes fixadas no solo tiveram aumento de colonização por fungos, o que pode influenciar a competição entre plantas e microorganismos pelos recursos disponíveis.

Ao longo de dois anos, a partir de 2019, os pesquisadores puderam coletar informações de um sub-bosque da Amazônia, com árvores de até três metros de altura, que são submetidas ao aumento da concentração de dióxido de carbono, o CO₂, por câmeras de topo aberto. O experimento é realizado pelo programa AmazonFACE, vinculado ao Ministério de Ciência, Tecnologia e Inovações (MCTI). O programa é uma parceria dos governos brasileiro e britânico, sediado no Instituto Nacional de Pesquisa (INPA) e co-coordenado pela Universidade Estadual de Campinas (Unicamp). Localizada a 70 quilômetros de Manaus, a iniciativa existe desde 2014; no final de 2023 o experimento com a câmara de topo aberto foi encerrado e em maio de 2026 o experimento FACE, com enriquecimento de CO2 ao ar livre, iniciará.

Um estudo anterior no mesmo experimento revelou que as plantas aumentaram substancialmente o seu crescimento por conta das adaptações, resultando em aumento da assimilação do carbono em 67% e em aumento do diâmetro do caule em 65%. Os resultados acumulados até o momento apontam para uma “fertilização por CO₂”, fenômeno que ainda precisa ser aprofundado, segundo o artigo.

Assim, a pesquisa mostra que tanto plantas quanto microrganismos se reorganizaram rapidamente para absorver nutrientes diante do cenário atípico. “Essa rápida adaptabilidade da comunidade de plantas, investindo em múltiplas estratégias para aquisição de nutrientes, reforça a importância da interação com o fósforo para a possível capacidade da floresta de continuar atuando como um sumidouro de carbono e resiliência da floresta frente às mudanças climáticas”, explica Nathielly Martins, autora principal do estudo.

Para a autora, o estudo contribui para o entendimento de cenários climáticos futuros em todo o planeta. No entanto, a Amazônia é um dos biomas mais afetados por extremos climáticos nos últimos anos, como secas e alagamentos. “Os resultados observados até o momento são únicos e nos guiarão para uma melhor compreensão da floresta amazônica como um todo em resposta às mudanças climáticas”, conclui Martins.


Fonte: Agência Bori

Dois anos após enchentes no RS, audiência pública debate direitos das famílias atingidas

 

 

No próximo dia 29 de abril, às 10 horas, será realizada uma audiência pública no Plenarinho da Assembleia Legislativa do Rio Grande do Sul (3º andar) para discutir a situação das famílias atingidas pelas enchentes que marcaram o estado em maio de 2024. A atividade ocorre no contexto dos dois anos da tragédia climática e tem como objetivo central avaliar as condições de vida da população atingida e apresentar reivindicações ainda não atendidas. 

A audiência foi convocada pelaComissão de Cidadania e Direitos Humanos da Assembleia Legislativa do RShoje presidida pelo deputado estadual Adão Pretto Filho, e terá a participação do Movimento dos Atingidos por Barragens (MAB), Movimento dos Trabalhadores por Direitos (MTD), Marcha Mundial de Mulheres (MMM) e Ação da Cidadania, entre outras organizações e movimentos sociais.

De acordo com o advogado e militante do MAB em Arroio do Meio, Djeison Diedrich, a iniciativa busca dar visibilidade à realidade enfrentada pelas famílias atingidas. Segundo ele, apesar da narrativa oficial de superação, muitas pessoas seguem enfrentando as consequências da enchente, sem garantia de direitos e ameaçadas por novas inundações. Nesse sentido, um dos objetivos da audiência é realizar um balanço dos dois anos da tragédia e levar essa denúncia ao parlamento estadual.

Além da avaliação do cenário atual, na audiência se pretende apresentar uma proposta dePolítica Estadual de Direitos das Populações Atingidas por Mudanças ClimáticasA iniciativa busca estruturar respostas mais eficazes diante do aumento da frequência e da intensidade de eventos climáticos extremos.

“Nós estamos propondo uma política que dê conta dos desafios do nosso tempo, que são as mudanças climáticas”, afirma Diedrich.

A proposta, construída em diálogo com diferentes movimentos sociais, prevê a definição de parâmetros mínimospara a atuação do Estado em situações de desastre, além de mecanismos de monitoramento para garantir o cumprimento dessas diretrizes. A ideia é superar a lógica atual, considerada fragmentada, em que cada evento exige a reorganização de respostas institucionais e a busca emergencial por recursos.

Segundo Diedrich, a proposta também inclui a criação de um órgão estadual com financiamento adequado para coordenar essa política, garantindo respostas mais ágeis e estruturadas às populações afetadas.,

“O mais importante é que queremos criar uma política que reconheça o atingido por mudança climática como um sujeito de direito pleno, abandonando a lógica de que o atingido é apenas o objeto da política pública”, destaca.

A audiência é aberta ao público e deve reunir atingidos, representantes de movimentos sociais, parlamentares, instituições da justiça e especialistas para debater caminhos para a construção de políticas públicas mais justas e eficazes diante da crise climática.

Serviço
O que: Audiência Pública sobre os direitos das populações atingidas pelas enchentes no RS.
Data: 29 de abril de 2026
Horário: 10 horas
Local: Plenarinho da Assembleia Legislativa do RS (3º andar)