Idec alerta para irregularidades no licenciamento do mega data center do TikTok no Ceará

Mesmo após denúncia ao Ministério Público Federal, a licença segue em vias de aprovação

O Instituto de Defesa de Consumidores (Idec), o povo indígena Anacé e as organizações cearenses Instituto Terramar e Escritório Frei Tito alertam para graves irregularidades no licenciamento do mega data center da ByteDance, controladora do TikTok, no município de Caucaia (CE). O projeto está em análise na Superintendência Estadual do Meio Ambiente (Semace) e, de acordo com as organizações, avança sem estudos socioambientais adequados nem diálogo com as comunidades atingidas.

Segundo informações apresentadas pela empresa Casa dos Ventos, responsável pela construção, o empreendimento terá consumo energético estimado em 210 megawatts, equivalente ao gasto diário de mais de 2,2 milhões de pessoas. O volume supera o consumo da cidade de Fortaleza e de 99% dos municípios brasileiros.

Além do uso massivo de energia, o projeto prevê captação de água em aquíferos que abastecem comunidades já afetadas pela escassez hídrica, o que pode agravar o risco de desabastecimento e pressionar tarifas de energia e água.

Para Julia Catão Dias, coordenadora do Programa de Consumo Responsável e Sustentável do Idec, a hora de barrar esse projeto é agora: “Se a licença for concedida e a construção começar, reverter o processo será muito mais difícil no futuro, quando essas infraestruturas competirem com a população por energia e água, pressionando tarifas e agravando desigualdades em nome de uma digitalização sem transparência nem responsabilidade socioambiental”.

Licenciamento irregular e ausência de consulta ao povo Anacé

De acordo com as organizações, o empreendimento está sendo tratado como de baixo impacto ambiental, a partir de um Relatório Ambiental Simplificado (RAS), instrumento normalmente aplicado a pequenas obras. Esse enquadramento dispensou a elaboração do Estudo e Relatório de Impacto Ambiental (EIA/RIMA), suprimiu a realização de audiências públicas e a participação do Conselho Estadual de Meio Ambiente (Coema).

O povo indígena Anacé, tradicionalmente habitante da região, não foi consultado, em descumprimento da Constituição Federal e da Convenção 169 da Organização Internacional do Trabalho, que garantem o direito à consulta livre, prévia e informada.

O plano apresentado pela empresa prevê que as reuniões com a comunidade ocorram somente depois da emissão da licença de instalação, quando as obras já poderiam estar em andamento.

Representação ao Ministério Público Federal e alerta sobre precedente perigoso

O Idec, o povo Anacé e as organizações parceiras Instituto Terramar, LAPIN, IP.Rec e Escritório Frei Tito protocolaram representação junto à 4ª Câmara de Coordenação e Revisão do Ministério Público Federal, pedindo a suspensão imediata do processo de licenciamento e a anulação da licença prévia concedida pela Semace.

Para as entidades envolvidas, o caso pode abrir um precedente preocupante para a instalação de grandes empreendimentos digitais sem a devida avaliação de seus impactos e sem respeito aos direitos das populações locais. “Se esse licenciamento for aprovado, estaremos abrindo a porta para uma nova frente de injustiça socioambiental no Brasil, a digital. É preciso garantir que a transição tecnológica não repita as lógicas de exploração e racismo ambiental que já marcam a transição energética”, destaca Andrea Camurça, do Instituto Terramar.

A tempestade da Inteligência Artificial

O surgimento da IA ​​generativa fez explodir a demanda por energia, inclusive de combustíveis fósseis

Imagem de marketing do curso de inteligência artificial e computação visual da École Polytechnique.  Jérémy Barande / École Polytechnique / Institut Polytechnique de Paris / Creative Commons 2.0

Por James Meadway para o “The Ecologist” 

Em apenas alguns anos desde que a OpenAI lançou seu modelo principal com uma interface de linguagem natural e fácil de usar, o ChatGPT, a “inteligência artificial” (IA) passou do reino da ficção científica para a aparente realidade cotidiana. 

A IA parecia capaz de feitos robóticos inimagináveis ​​há alguns anos: escrever obras inteiramente novas em linguagem natural; compor músicas; gerar obras de arte instantâneas. Mas por trás dessa mudança no poder computacional há um impacto ambiental preocupante e ainda pouco reconhecido. Um novo briefing da Opportunity Green resume o caso .

Os data centers, a base de hardware da economia digital atual, consomem muitos recursos. Essa economia digital se baseia na coleta, armazenamento e transmissão de dados em uma escala inimaginável. 

Industrial

Mesmo antes da explosão da inteligência artificial após o lançamento do ChatGPT pela OpenAI no final de 2022, os volumes envolvidos eram impressionantes: o tráfego global da internet cresceu de 156 Gb transferidos a cada segundo em 2002 para 150.000 Gb por segundo em 2022. 

Essa imensa coleção de uns e zeros, o núcleo digital da economia de dados, por sua vez forneceu a matéria-prima para treinar os modelos de aprendizado de máquina (ML) atuais. 

A chave para suas operações é a escala – de vastos acervos de dados; bancos e bancos de chips de silício dedicados em data centers especializados; e redes de telecomunicações rápidas espalhadas pelo mundo. Mas a escala que torna possíveis as habilidades semimágicas da IA ​​também a transforma em um problema ambiental crescente. 

Sejam quais forem as afirmações ousadas feitas há vinte anos, no alvorecer da era da Internet, sobre a “economia sem peso” que viria ou como todos nós estaríamos “vivendo no ar rarefeito”, os dados, na realidade, têm uma presença física concreta. 

Ele é armazenado e processado em bancos de chips de silício dedicados, produzidos em volumes extraordinários por alguns dos processos industriais mais exigentes e tecnicamente sofisticados aos quais temos acesso. 

Explosivo

Os chips funcionam com eletricidade — em quantidades triviais para um único circuito integrado, como o do seu telefone ou laptop, mas que, nas grandes quantidades necessárias para processamento de dados em larga escala, se tornam extraordinárias. 

Os racks de servidores mais recentes, dedicados à IA, contêm 72 chips especializados da fabricante Nvidia. Os maiores data centers de “hiperescala”, usados ​​para tarefas de IA, teriam cerca de 5.000 desses racks . 

E como qualquer pessoa que use um laptop por qualquer período de tempo sabe, até mesmo um único chip esquenta durante a operação. Para resfriar os servidores, é preciso água – litros dela. Somando tudo isso, um único data center em hiperescala normalmente precisará de tanta água quanto uma cidade de 30.000 habitantes – e a quantidade equivalente de eletricidade. 

As novas e muito específicas demandas de energia do crescimento dos data centers levarão as redes nacionais de energia para mais perto do limite.

Financial Times relata que a Microsoft está abrindo uma dessas gigantes em algum lugar do mundo a cada três dias.

Mesmo assim, durante anos, o crescimento explosivo da economia digital teve um impacto surpreendentemente pequeno na demanda global por energia e nas emissões de carbono. Os ganhos de eficiência nos data centers — a espinha dorsal da internet — mantiveram o consumo de eletricidade sob controle. 

Consumo

Mas a ascensão da IA ​​generativa, impulsionada pelo lançamento do ChatGPT no final de 2022, rompeu esse equilíbrio. A IA eleva a demanda por dados e poder de processamento à estratosfera.

A versão mais recente do modelo GPT principal da OpenAI, o GPT-4, é construída em 1,3 trilhão de parâmetros , com cada parâmetro descrevendo a força de uma conexão entre diferentes caminhos no cérebro do software do modelo. 

Quanto mais dados novos puderem ser inseridos no modelo para treinamento, melhor — tantos dados que um artigo de pesquisa estimou que os modelos de aprendizado de máquina terão usado todos os dados da internet até 2028.

Hoje, a demanda insaciável por poder de computação está remodelando os sistemas energéticos nacionais. Dados do Fundo Monetário Internacional (FMI) mostram que data centers em todo o mundo já consomem tanta eletricidade quanto países inteiros como França ou Alemanha. A previsão é de que, até 2030, a demanda mundial de energia por data centers será igual ao consumo total de eletricidade da Índia. 

Em princípio, essa demanda crescente por eletricidade poderia ser atendida por energias renováveis, e muitas das grandes empresas de tecnologia, como o Google, têm metas de atingir 100% de consumo de energia renovável. 

Minas

Mas a realidade é muito mais sombria. Para continuar a expansão nesse ritmo alucinante, é necessária a instalação rápida de novos suprimentos. E a demanda por eletricidade em data centers é bem diferente da de residências, escritórios e fábricas, que normalmente apresentam picos e quedas ao longo do dia, quando as pessoas chegam em casa e ligam a TV, ou saem e apagam as luzes, ou quando as máquinas são ligadas e desligadas. 

A demanda do data center é constante e requer 24 horas de trabalho, com o mínimo de tempo de inatividade possível. Isso, por sua vez, cria a necessidade de um fornecimento contínuo e regular de eletricidade, para o qual as energias renováveis ​​nem sempre são as melhores atualmente.

O resultado é que a demanda por data centers está sendo cada vez mais atendida por combustíveis fósseis. Nos EUA, 60% da nova demanda de energia é suprida por gás natural, enquanto na Alemanha e na Polônia, usinas a carvão estão sendo mantidas em operação para alimentar o boom da IA. 

A Microsoft está expandindo as operações do data center perto de Hambach, uma das últimas minas de carvão profundas da Alemanha. A empresa se recusou a comentar sobre a fonte de energia do centro . 

Enquanto isso, o governo Trump, cético em relação ao clima nos EUA, admite abertamente que expandir a geração de energia a carvão é essencial para manter a vantagem do país nas operações de data center .

Usinas de energia

O resultado é que uma indústria que atualmente é responsável por cerca de 0,5% das emissões globais de gases de efeito estufa, segundo estimativas conservadoras da Agência Internacional de Energia (AIE), deverá se tornar um dos contribuintes de crescimento mais rápido para as mudanças climáticas na próxima década. 

Mesmo que outras indústrias mais antigas reduzam suas emissões e um progresso real possa ser visto na mudança para a produção de energias renováveis, as demandas de energia dos data centers representam um risco significativo para as estratégias nacionais de descarbonização.

Até o momento, há pouca conscientização sobre isso por parte dos governos nacionais. Os data centers nem sequer constam no orçamento de carbono mais recente do Comitê de Mudanças Climáticas do Reino Unido – apesar do entusiasmo do governo britânico por sua rápida expansão. 

O trabalho da Beyond Fossil Fuels sugere que o crescimento dos data centers na Europa, seguindo as tendências atuais, adicionaria o equivalente a todo o sistema de energia de combustíveis fósseis da Alemanha aos GEE europeus até 2030. Mudar essa demanda para energias renováveis, por sua vez, reduziria o fornecimento para outras indústrias e ameaçaria os planos de descarbonização em outros setores. 

O problema energético é que os data centers, impulsionados pela IA, representaram uma nova fonte de demanda energética em rápido crescimento, com a qual as usinas de energia, os sistemas de rede e até mesmo as políticas de descarbonização não foram projetados para lidar. 

Lucros

As tensões já estão começando a aparecer: o primeiro “apagão de bytes” do mundo foi evitado por pouco na Virgínia no verão de 2024 , quando um raio derrubou um transformador perto de um conjunto de 20 data centers. 

Percebendo uma queda repentina de energia elétrica na rede principal, os data centers ligaram seus geradores de energia de reserva no local, causando um aumento repentino no fornecimento de energia para a rede principal, o que ameaçou causar apagões em todo o estado e fez com que os operadores da rede corressem para procedimentos de emergência. 

Como vimos com a dramática queda de energia em todo o país, na Espanha e em Portugal, os sistemas de rede nacionais, muitos construídos há décadas, já estão com problemas. 

As novas e específicas demandas de energia decorrentes do crescimento dos data centers os levarão para mais perto do limite. Combustíveis fósseis e, em alguns casos, energia nuclear, podem representar uma solução supostamente rápida para um problema complexo.

Os modelos de negócios das grandes empresas de tecnologia estão presos à expansão – a fonte de lucros da economia de dados, ao longo de décadas, tem sido expandir a quantidade de poder de computação disponível e então esperar que a demanda a preencha. 

Cepas

Para os operadores de IA, o crescimento drástico na escala de suas operações significa a possibilidade de criar novos mercados para novos produtos, mais rápido que seus concorrentes. 

Mas isso cria um problema familiar: mesmo que a eficiência do hardware de computação melhore rapidamente — e os modelos de ML estejam, em geral, se tornando mais eficientes — essa eficiência tende a significar apenas mais demanda pela saída dos modelos. 

Da mesma forma que aviões mais eficientes criaram mais demanda por voos, computadores mais eficientes também criaram mais demanda por computação — e, por trás dos servidores zumbindo, isso significa mais demanda de energia e mais emissões de gases de efeito estufa. 

Os benefícios dessas emissões e de todo esse processamento também não são imediatamente claros. É óbvio quem são os vencedores das Big Techs: as grandes corporações e seus proprietários, principalmente sediados nos EUA, que exercem poderes quase monopolistas sobre a economia digital e que geraram retornos tão incríveis. 

Mas os próprios centros de dados criam poucos empregos localmente, enquanto suas demandas por recursos — não apenas de eletricidade, mas, em todo o mundo, de água — impõem severas pressões aos habitantes locais. 

Descarbonização

A troca ecológica desigual das Big Techs ainda é pouco pesquisada, mas sua operação cria uma dinâmica semicolonial: os donos do sistema no centro, envolvidos em operações extrativas no resto do mundo, espremendo seus recursos escassos.

O artigo da Opportunity Green é apenas o começo da nossa pesquisa. Acreditamos que há uma necessidade urgente de um debate público mais bem informado sobre o papel da computação e seus impactos ambientais – com uma avaliação adequada dos potenciais benefícios e uma compreensão mais clara das desvantagens. 

O desafio aos sistemas de energia e aos planos de descarbonização, em particular, levantado pela expansão vertiginosa dos centros de dados, requer atenção urgente, em três grandes áreas:

  • Devem ser realizadas avaliações nacionais e supranacionais das trajetórias prováveis ​​de consumo de energia e das emissões subsequentes decorrentes da expansão de data centers, e esses cenários devem ser considerados em relação às estruturas nacionais e supranacionais de controle de emissões. As estimativas atuais sobre emissões de data centers estão sujeitas a ampla variação e poderiam ser refinadas de forma útil.
  • As mudanças legais, regulatórias e políticas necessárias para aproximar ao máximo as operações de data centers de 100% de energias renováveis, adotando uma abordagem que abrange todo o ciclo de vida, desde a construção até a operação, e incluindo o suporte ao armazenamento em baterias. Essas mudanças podem incluir a consideração da contribuição dos usuários de data centers (Big Techs) para o sistema tributário e a alocação de recursos para expansão/descarbonização da rede elétrica.
  • Por fim, desenvolver políticas para minimizar a coleta, o processamento e o armazenamento de dados, juntamente com uma hierarquia robusta de aplicações em data centers. Isso se baseará nas recomendações do relatório do Centro Nacional de Políticas de Engenharia sobre a minimização da pegada das operações de data centers. O problema da demanda e do propósito da expansão de data centers é indissociável da questão do seu impacto em termos de recursos e emissões, e deve ser enfrentado diretamente pelas políticas.

Fonte: The Ecologist

As lâmpadas têm classificações de energia — então por que os chatbots de IA não podem ter?

O crescente custo energético e ambiental do boom da inteligência artificial está alimentando preocupações. Mecanismos de política verde que já existem oferecem um caminho para uma solução

data ia

À medida que mais data centers surgem em comunidades rurais, a oposição local a eles tem crescido. Crédito: Brian Lawless/PA/Alamy

Por Sasha Luccioni , Boris Gamazaychikov , Sara Hooker , Régis Pierrard , Emma Strubell , Yacine Jernite e Carole-Jean Wu para a Nature

À medida que milhões de pessoas usam cada vez mais modelos de inteligência artificial generativa (IA) para tarefas que vão desde pesquisas na Web até a criação de videoclipes , há uma urgência crescente em minimizar a pegada energética da tecnologia.

O preocupante custo ambiental da IA ​​é óbvio mesmo neste estágio inicial de sua evolução. Um relatório publicado em  de janeiro pela Agência Internacional de Energia estimou que o consumo de eletricidade dos data centers pode dobrar até 2026 e sugeriu que melhorias na eficiência serão cruciais para moderar esse aumento esperado.

Alguns líderes da indústria de tecnologia têm procurado minimizar o impacto na rede de energia. Eles sugerem que a IA poderia permitir avanços científicos que podem resultar em uma redução nas emissões de carbono planetárias . Outros têm jogado seu peso por trás de fontes de energia ainda não realizadas, como a fusão nuclear .

No entanto, do jeito que as coisas estão, as demandas de energia da IA ​​estão mantendo as antigas usinas de energia a carvão em serviço e aumentando significativamente as emissões das empresas que fornecem o poder de computação para essa tecnologia. Dado que o consenso claro entre os cientistas do clima é que o mundo enfrenta um momento de “agora ou nunca” para evitar mudanças planetárias irreversíveis 2 , reguladores, formuladores de políticas e empresas de IA devem abordar o problema imediatamente.

Para começar, estruturas de políticas que incentivam a eficiência energética ou de combustível em outros setores econômicos podem ser modificadas e aplicadas a aplicações alimentadas por IA. Esforços para monitorar e comparar os requisitos de energia da IA ​​— e as emissões de carbono associadas — devem ser estendidos além da comunidade de pesquisa. Dar ao público uma maneira simples de tomar decisões informadas eliminaria a divisão que agora existe entre os desenvolvedores e os usuários de modelos de IA, e poderia eventualmente provar ser um divisor de águas.

Este é o objetivo de uma iniciativa chamada projeto AI Energy Star, que descrevemos aqui e recomendamos como um modelo que os governos e a comunidade de código aberto podem adotar. O projeto é inspirado nas classificações Energy Star da Agência de Proteção Ambiental dos EUA . Elas fornecem aos consumidores uma medida transparente e direta do consumo de energia associado a produtos que vão de máquinas de lavar a carros. O programa ajudou a atingir mais de 4 bilhões de toneladas de reduções de gases de efeito estufa nos últimos 30 anos, o equivalente a tirar quase 30 milhões de carros movidos a gasolina das ruas por ano.

O objetivo do projeto AI Energy Star é semelhante: ajudar desenvolvedores e usuários de modelos de IA a levar em conta o consumo de energia. Ao testar uma gama suficientemente diversa de modelos de IA para um conjunto de casos de uso populares, podemos estabelecer uma faixa esperada de consumo de energia e, em seguida, classificar os modelos dependendo de onde eles se encontram nessa faixa, com aqueles que consomem menos energia recebendo a classificação mais alta. Este sistema simples pode ajudar os usuários a escolher os modelos mais apropriados para seu caso de uso rapidamente. Espera-se que uma maior transparência também incentive os desenvolvedores de modelos a considerar o uso de energia como um parâmetro importante, resultando em uma redução em toda a indústria nas emissões de gases de efeito estufa.

Corredor em uma sala de servidores do centro aata com racks de servidores

Ferramentas para quantificar o uso de energia da IA ​​podem melhorar a eficiência e a sustentabilidade. Crédito: Getty

Nosso benchmarking inicial foca em um conjunto de modelos de código aberto hospedados no Hugging Face, um repositório líder para modelos de IA. Embora alguns dos chatbots amplamente usados ​​lançados pelo Google e OpenAI ainda não façam parte do nosso conjunto de testes, esperamos que empresas privadas participem do benchmarking de seus modelos proprietários à medida que o interesse do consumidor no tópico cresce.

A avaliação

Um único modelo de IA pode ser usado para uma variedade de tarefas — variando de resumo a reconhecimento de fala — então nós selecionamos um conjunto de dados para refletir esses diversos casos de uso. Por exemplo, para detecção de objetos, nós recorremos ao COCO 2017 ao Visual Genome — ambos conjuntos de dados de avaliação estabelecidos usados ​​para pesquisa e desenvolvimento de modelos de IA — assim como o conjunto de dados Plastic in River , composto de exemplos anotados de objetos plásticos flutuantes em cursos d’água.

Nós decidimos por dez maneiras populares nas quais a maioria dos consumidores usa modelos de IA, por exemplo, como um chatbot de resposta a perguntas ou para geração de imagens. Então, extraímos uma amostra representativa do conjunto de dados de avaliação específica da tarefa. Nosso objetivo era medir a quantidade de energia consumida para responder a 1.000 consultas. O pacote de código aberto CodeCarbon foi usado para rastrear a energia necessária para calcular as respostas. Os experimentos foram realizados executando o código em unidades de processamento gráfico NVIDIA de última geração, refletindo configurações de implantação baseadas em nuvem usando hardware especializado, bem como nas unidades de processamento central de computadores disponíveis comercialmente.

Em nosso conjunto inicial de experimentos, avaliamos mais de 200 modelos de código aberto da plataforma Hugging Face, escolhendo os 20 mais populares (por número de downloads) para cada tarefa. Nossas descobertas iniciais mostram que tarefas envolvendo classificação e geração de imagens geralmente resultam em emissões de carbono milhares de vezes maiores do que aquelas envolvendo apenas texto (veja ‘Pegada energética da IA’). Indústrias criativas que consideram a adoção em larga escala da IA, como a produção de filmes, devem tomar nota.

Pegada energética da IA. Um gráfico de dispersão mostrando a energia total consumida por vários modelos para cinco tarefas diferentes, como geração de imagem e reconhecimento automático de fala. A unidade do eixo x é watt-hora. A geração de imagem consome mais energia e a média é semelhante a um laptop funcionando por 20 horas.

Fonte: Análise não publicada por S. Luccioni et al. / Projeto AI Energy Star

Dentro do nosso conjunto de amostra, o modelo de perguntas e respostas mais eficiente usou aproximadamente 0,1 watt-hora (aproximadamente a energia necessária para alimentar uma lâmpada incandescente de 25 W por 5 minutos) para processar 1.000 perguntas. O modelo de geração de imagens menos eficiente, por outro lado, exigiu até 1.600 Wh para criar 1.000 imagens de alta definição — essa é a energia necessária para carregar totalmente um smartphone aproximadamente 70 vezes , totalizando uma diferença de 16.000 vezes. À medida que milhões de pessoas integram modelos de IA em seu fluxo de trabalho, as tarefas em que eles os implantam serão cada vez mais importantes.

Em geral, tarefas supervisionadas como responder perguntas ou classificar textos — nas quais os modelos recebem um conjunto de opções para escolher ou um documento que contém a resposta — são muito mais eficientes em termos de energia do que tarefas generativas que dependem dos padrões aprendidos dos dados de treinamento para produzir uma resposta do zero 3 . Além disso, tarefas de sumarização e classificação de texto usam relativamente pouca energia, embora deva ser observado que quase todos os casos de uso que envolvem grandes modelos de linguagem são mais intensivos em energia do que uma pesquisa no Google (consultar um chatbot de IA uma vez usa cerca de dez vezes a energia necessária para processar uma solicitação de pesquisa na web).

Essas classificações podem ser usadas por desenvolvedores para escolher arquiteturas de modelos mais eficientes para otimizar o uso de energia. Isso já é possível, como mostrado por nossos testes ainda não publicados em modelos de tamanhos semelhantes (determinados com base no número de conexões na rede neural). Para uma tarefa específica, como geração de texto, um modelo de linguagem chamado OLMo-7B, criado pelo Allen Institute em Seattle, Washington, consumiu 43 Wh para gerar 1.000 respostas de texto, enquanto o Gemma-7B do Google e um chamado Yi-6B LLM, da empresa 01.AI, sediada em Pequim, usaram 53 Wh e 147 Wh, respectivamente.

Com uma gama de opções já existentes, classificações por estrelas baseadas em classificações como a nossa podem levar os desenvolvedores de modelos a reduzir sua pegada energética. Da nossa parte, lançaremos um site de classificação de estrelas de IA Energy Star, juntamente com uma plataforma de testes centralizada que pode ser usada para comparar e referenciar modelos conforme eles forem lançados. Os limites de energia para cada classificação por estrelas mudarão se a indústria se mover na direção certa. É por isso que pretendemos atualizar as classificações rotineiramente e oferecer aos usuários e organizações uma métrica útil, além do desempenho, para avaliar quais modelos de IA são os mais adequados.

As recomendações

Para atingir um progresso significativo, é essencial que todos os stakeholders tomem medidas proativas para garantir o crescimento sustentável da IA. As recomendações a seguir fornecem algumas orientações específicas para a variedade de players envolvidos.

Envolva os desenvolvedores. Pesquisadores e desenvolvedores de IA estão no centro da inovação neste campo. Ao considerar a sustentabilidade durante todo o ciclo de desenvolvimento e implantação, eles podem reduzir significativamente o impacto ambiental da IA ​​desde o início. Para tornar uma prática padrão medir e compartilhar publicamente o uso de energia dos modelos (por exemplo, em um “cartão de modelo” que define informações como dados de treinamento, avaliações de desempenho e metadados), é essencial envolver os desenvolvedores.

Impulsione o mercado em direção à sustentabilidade. Empresas e desenvolvedores de produtos desempenham um papel crucial na implantação e uso comercial de tecnologias de IA. Seja criando um produto autônomo, aprimorando software existente ou adotando IA para processos comerciais internos, esses grupos geralmente são tomadores de decisão importantes na cadeia de valor de IA. Ao exigir modelos de eficiência energética e definir padrões de aquisição, eles podem impulsionar o mercado em direção a soluções sustentáveis. Por exemplo, eles podem definir expectativas básicas (como exigir que os modelos alcancem pelo menos duas estrelas de acordo com o esquema AI Energy Star) ou apoiar a legislação de IA sustentável.

Fortalecer a regulamentação e a governança. Os formuladores de políticas têm autoridade para tratar a sustentabilidade como um critério obrigatório no desenvolvimento e na implantação de IA. Com exemplos recentes de legislação que pede transparência do impacto da IA ​​na União Europeia e nos Estados Unidos , os formuladores de políticas já estão se movendo em direção a uma maior responsabilização. Isso pode ser inicialmente voluntário, mas eventualmente os governos podem regular a implantação do sistema de IA com base na eficiência dos modelos subjacentes.

Os reguladores podem adotar uma visão panorâmica , e sua contribuição será crucial para criar padrões globais. Também pode ser importante estabelecer autoridades independentes para rastrear mudanças no consumo de energia da IA ​​ao longo do tempo.

Fazendo um balanço

Claramente, muito mais precisa ser feito para colocar um regime regulatório adequado em prática antes que a adoção em massa da IA ​​se torne uma realidade (veja go.nature.com/4dfp1wb ). O projeto AI Energy Star é um pequeno começo e pode ser refinado ainda mais. Atualmente, não contabilizamos as despesas gerais de energia gastas em armazenamento e rede de modelos, bem como o resfriamento do data center, que pode ser medido apenas com acesso direto às instalações da nuvem. Isso significa que nossos resultados representam o limite inferior do consumo geral de energia dos modelos de IA, que provavelmente dobrará 4 se a despesa geral associada for levada em consideração.

Como o uso de energia se traduz em emissões de carbono também dependerá de onde os modelos são finalmente implantados e da mistura de energia disponível naquela cidade ou vila. O maior desafio, no entanto, continuará sendo a impenetrabilidade do que está acontecendo no ecossistema de modelos proprietários. Os reguladores governamentais estão começando a exigir acesso a modelos de IA, especialmente para garantir a segurança. Maior transparência é urgentemente necessária porque os modelos proprietários são amplamente implantados em configurações voltadas para o usuário.

O mundo está agora em um ponto de inflexão fundamental. As decisões que estão sendo tomadas hoje repercutirão por décadas, à medida que a tecnologia de IA evolui junto com um clima planetário cada vez mais instável. Esperamos que o projeto Energy Star sirva como um ponto de partida valioso para enviar uma forte demanda de sustentabilidade por toda a cadeia de valor de IA.

Natureza 632 , 736-738 (2024)

doi: https://doi.org/10.1038/d41586-024-02680-3

Isenção de responsabilidade: todos os experimentos e processamento de dados foram realizados pela Hugging Face, e a Hugging Face hospeda todos os dados relacionados a esta pesquisa.

Referências

  1. Agência Internacional de Energia. Eletricidade 2024 (IEA, 2024).

  2. IPCC. Mudanças Climáticas 2022: Mitigação das Mudanças Climáticas. Contribuição do Grupo de Trabalho III para o Sexto Relatório de Avaliação do Painel Intergovernamental sobre Mudanças Climáticas (eds Shukla, PR et al. ) (Cambridge Univ. Press, 2023).

  3. Luccioni, AS, Jernite, Y. & Strubell, E. em Proc. Conferência ACM 2024. Justiça, conta. Transpar. 85–99 (ACM, 2024).

  4. Luccioni, AS, Viguier, S. & Ligozat, AR J. Machin. Aprender. Res. 24 , 253 (2023).


Fonte: Nature

O lado negro da digitalização: a Internet destruidora do clima

A indústria, a investigação e o entretenimento exigem cada vez mais recursos na sociedade digitalizada. Isto também leva a um rápido aumento nas emissões de gases de efeito estufa

268349

Dado que as capacidades de computação e armazenamento ainda são extremamente baratas, existem poucos incentivos para utilizar estes recursos com moderação. Foto: Adobe Stock / »nd« [M]

Por Joel Schmidt para o “Neues Deutschland”

Quer estejamos ocupados no escritório, stressados ​​na estrada ou em casa, no sofá – quase nenhuma conquista técnica das últimas décadas mudou tanto a nossa vida quotidiana como a Internet. Na viragem do milénio, apenas 360 milhões de pessoas estavam online em todo o mundo. No ano passado, o número subiu para mais de cinco mil milhões. Da comunicação e navegação à transferência de conhecimento, a Internet permite que inúmeras pessoas participem de formas até então desconhecidas. Mas por mais vantagens que a interconectividade do mundo traga consigo, ela também tem as suas desvantagens. Porque a digitalização de quase todas as áreas da vida e com ela a disponibilidade constante de todos os serviços não pode ser separada do consumo de recursos necessários à mera disponibilização da infraestrutura correspondente. O que isso significa? Se a Internet fosse um país, em 2020 teria 2,8% do CO2 do mundo2 ocupa o sexto lugar entre os dez maiores emissores de gases de efeito estufa do planeta. Para efeito de comparação: a Alemanha ficou em oitavo lugar no mesmo ano, com um consumo de cerca de 730 milhões de toneladas de CO2 .

Este aumento no consumo de energia também se reflete no aumento da quantidade de dados em todo o mundo. De acordo com estimativas do Escritório Federal de Assuntos Econômicos e Proteção Climática (BMWK), isso totalizou mais de 50 zetabytes em 2020. São 50 trilhões de gigabytes, um número com 21 zeros. O BMWK coloca isso de forma um pouco menos abstrata: “Se você salvasse essa quantidade de dados em DVDs, a pilha teria 2,6 milhões de quilômetros de altura – o que corresponde a 63 vezes a circunferência da nossa Terra”. a pesquisa é para o ano de 2025 e a empresa de consultoria International Data Corporation (IDC) previu um aumento de 25,5x no volume global de dados, para 175 zetabytes. Estima-se que a quantidade de dados produzidos pela humanidade dobra a cada três anos.

Estes não só devem ser armazenados em algum lugar, mas também processados ​​​​e encaminhados, caso contrário, permanecerão inúteis. Grosso modo, a infraestrutura digital necessária para isso pode ser dividida em duas áreas. Os dados são disponibilizados e armazenados em data centers e depois encaminhados aos respectivos clientes por meio de redes de dados. Embora no caso de dispositivos finais móveis, como laptops ou smartphones, cerca de 80% do consumo de energia na forma de emissões de gases de efeito estufa sejam atribuíveis à produção e o restante à operação contínua, na área de infraestrutura digital. Isso se deve principalmente ao fato de que os servidores e storages (soluções de armazenamento no ambiente de TI) nos data centers estão em constante operação – e, portanto, consomem energia constantemente. Já que cada consulta, por menor que seja, com um mecanismo de pesquisa,

As empresas não têm uma visão geral de seus dados

Os data centers vêm em todos os formatos e tamanhos. O espectro varia de pequenas empresas que o utilizam para processar suas comunicações por e-mail, a centros de informática universitários que o utilizam para realizar suas pesquisas, até grupos automotivos que o utilizam para operar suas linhas de produção. E há também os chamados data centers em hiperescala, que ocupam salas de logística inteiras e são usados ​​para oferecer serviços de computação em nuvem, hospedagem ou streaming. Simon Hinterholzer é pesquisador do Instituto Borderstep para Inovação e Sustentabilidade, que estuda o consumo de energia de data centers na Alemanha há 15 anos. “Em termos de escalas de impacto ambiental, estas são comparáveis ​​desde uma residência privada até uma cidade pequena ou média”, afirma ao “nd”. Até agora, os data centers não são legalmente obrigados a declarar o seu consumo. Hinterholzer e sua equipe examinaram exatamente isso em um estudo para a associação da indústria alemã de informação e telecomunicações Bitkom, entre outros. O resultado: para o período de 2012 a 2022, a indústria pode apresentar um aumento de 90% na capacidade de conexão de TI. No entanto, isto é acompanhado por um aumento nas necessidades de electricidade dos cerca de 50.000 centros de dados em todo o país durante o período mencionado. De onze mil milhões de quilowatts-hora em 2011 para 18 mil milhões de quilowatts-hora no ano passado. Hinterholzer e sua equipe examinaram exatamente isso em um estudo para a associação da indústria alemã de informação e telecomunicações Bitkom, entre outros. O resultado: para o período de 2012 a 2022, a indústria pode apresentar um aumento de 90% na capacidade de conexão de TI. No entanto, isto é acompanhado por um aumento nas necessidades de electricidade dos cerca de 50.000 centros de dados em todo o país durante o período mencionado. De onze mil milhões de quilowatts-hora em 2011 para 18 mil milhões de quilowatts-hora no ano passado. Hinterholzer e sua equipe examinaram exatamente isso em um estudo para a associação da indústria alemã de informação e telecomunicações Bitkom, entre outros. O resultado: para o período de 2012 a 2022, a indústria pode apresentar um aumento de 90% na capacidade de conexão de TI. No entanto, isto é acompanhado por um aumento nas necessidades de electricidade dos cerca de 50.000 centros de dados em todo o país durante o período mencionado. De onze mil milhões de quilowatts-hora em 2011 para 18 mil milhões de quilowatts-hora no ano passado.

Hinterholzer refere-se aos relatórios de sustentabilidade das grandes empresas tecnológicas Amazon, Alphabet e Meta, que mostram que os seus data centers já funcionam em grande parte com energias renováveis. No entanto, uma vez que a energia eólica e os sistemas fotovoltaicos não produzem electricidade a todo o momento ou esta não pode ser armazenada, e a infra-estrutura ainda tem de ser fornecida 24 horas por dia, “nenhum dos centros de dados neste país é capaz de provar que a sua electricidade é disponível a qualquer hora a partir de fontes verdes vem«. É uma questão completamente diferente que os grandes data centers de hiperescala, em particular , consumam enormes quantidades de água para resfriar seus servidores, além de eletricidade para operá-los.

É difícil responder quanto espaço de armazenamento e capacidade do data center é usado por cada empresa. No entanto, é generalizada a ideia de que os recursos correspondentes estão disponíveis quase infinitamente. Isto se aplica especialmente à área de computação em nuvem. O resultado: “Se a capacidade computacional estiver disponível de forma extremamente barata, há poucos incentivos para usar esses recursos com moderação”, diz Hinterholzer. De acordo com a empresa tecnológica californiana Veritas, as empresas alemãs, em particular, destacam-se no que diz respeito ao tratamento inflacionário de dados. Segundo estimativas, 66 por cento de todos os dados armazenados por empresas sediadas neste país são casos de “dados obscuros”. O que se entende por isto são conjuntos de dados que a empresa desconhece, porque ou são inutilizáveis,

Enorme consumo de energia devido a rastreamento e cookies

Anne Mollen, da organização sem fins lucrativos Algorithm Watch, conhece esses exemplos no campo da IA. Nas universidades, nas médias empresas, mas também nas grandes empresas, ainda não foi estabelecido manter os sistemas de IA enxutos. “Simplesmente compram-se novos servidores em vez de sensibilizar para a programação para poupar recursos”, diz ela ao “nd”. Em particular, modelos de linguagem como o ChatGPT requerem uma enorme quantidade de energia, “especialmente tendo em conta que as grandes empresas tecnológicas utilizam centros de dados com emissões muito baixas”. Até agora, a fase de desenvolvimento e formação dos modelos correspondentes tem sido considerada muito intensiva em recursos. Por outro lado, os fabricantes descrevem o consumo na chamada fase de inferência, ou seja, a aplicação concreta, como extremamente baixo. Pode ser verdade, diz Mollen, que o consumo de energia da inferência individual é extremamente pequeno. Este baixo consumo por processo só é relativizado se “isto for feito milhares de milhões de vezes por dia”. Suas declarações são apoiadas pela própria indústria. Já em 2019, Jen-Hsun Huang, CEO do fabricante de processadores Nvidia, e Jeff Barr, do provedor de computação em nuvem Amazon Web Services (AWS), disseram que o aprendizado de máquina na verdade é responsável por cerca de 90 por cento. do consumo de energia cai apenas para essa fase de inferência.

A situação é semelhante com outras aplicações digitais que se tornaram indispensáveis ​​no dia a dia. De acordo com o think tank francês The Shift Project, uma única pesquisa no Google emite uma quantidade insignificante de 0,2 gramas de CO 2 . Só que existem mais de 3,5 mil milhões de pesquisas deste tipo em todo o mundo – por dia. O streaming requer ainda mais energia. Apenas meia hora de transmissão de vídeo na Netflix causa 1,6 quilograma de emissões. Isso é aproximadamente comparável a dirigir um carro de seis quilômetros. Com 1,5 gramas de CO 2por hora, o streaming via conexão por cabo de fibra ótica é o mais econômico, pela rede móvel sem fio 5G já são cinco gramas. A qualidade também faz diferença: se um vídeo HD de uma hora requer 700 megabytes de espaço de armazenamento, os dados o volume aumenta dez vezes com a resolução em ultra HD para sete gigabytes.

Permanece a questão de saber quem será responsável pelos crescentes custos ambientais da digitalização no futuro. Poderíamos ter calma e apelar ao moral do consumidor para usar menos Netflix, ChatGPT e motores de busca em geral; contente-se com o streaming em uma resolução mais baixa e aproveite o thriller de domingo à noite em qualidade Ultra HD. Mas também se poderia procurar soluções políticas e, por exemplo, pedir às grandes empresas tecnológicas que fizessem a sua parte. Por exemplo, adaptando os seus modelos de negócio e abstendo-se de armazenar cookies que são utilizados para monitorizar o comportamento do utilizador para fins publicitários. De acordo com estimativas do instituto de investigação holandês CE Delft, só as atividades de monitorização e publicidade de aplicações móveis geram entre 29,6 e 50,4 mil milhões de gigabytes de dados anualmente na União Europeia. Isso corresponde a CO2 emissões de cinco a 14 milhões de toneladas: cerca de 950.000 pessoas produzem num ano.


color compass

Este texto escrito originalmente em alemão foi publicado pelo jornal “Neues Deutschland” [Aqui!].