O dilema ambiental da Inteligência Artificial em um mundo cada vez mais digital

Imagem: Freepik

São Paulo, fevereiro de 2025 – A ascensão das Inteligências Artificiais Generativas, tanto para uso pessoal quanto corporativo, já é uma realidade e vem revolucionando diversos setores, impulsionando a inovação e a produtividade. No entanto, seu uso contínuo e crescente tem gerado impactos ambientais e sociais significativos, devido ao alto consumo de energia e água, especialmente nos data centers. Esses centros de processamento, armazenamento e gerenciamento de dados utilizam milhões de litros de água para lidar com os grandes volumes de informações que recebem. Por exemplo, o GPT-4, a versão mais avançada do chat de IA generativa da OpenAI, pode consumir até meio litro de água para gerar um único e-mail.

Com o aumento da demanda por modelos avançados de Inteligência Artificial, a necessidade de centros de dados robustos cresce na mesma proporção. Essas estruturas exigem uma quantidade massiva de energia para operar e resfriar os servidores, resultando em um impacto ambiental considerável. Segundo um estudo realizado pela Deloitte, só em 2023 essas estruturas foram responsáveis pelo consumo de 1,4% da energia global. Além disso, apenas o treinamento de um grande modelo de linguagem de IA pode gerar cerca de 300 toneladas de CO2.

Diante desse cenário, é essencial compreender os desdobramentos energéticos e ecológicos que o uso excessivo de IA poderá causar. Gustavo Fortuna, líder em Inteligência Artificial da BlueShift, empresa referência em soluções de dados e tecnologia, destaca que promover o uso sustentável da IA depende de práticas sólidas de governança por parte das empresas de tecnologia. “A adoção de medidas sustentáveis e a transparência sobre questões ambientais são essenciais para que tanto as empresas quanto o público em geral possam fazer um uso consciente dessas ferramentas.”

A urgência de práticas mais sustentáveis nas empresas deve acelerar a implementação de regulamentações não apenas para o uso, mas também para a criação e aprimoramento das Inteligências Artificiais. A União Europeia já deu um passo importante nesse sentido com o AI Act, o primeiro marco legislativo mundial sobre IA, que busca garantir a segurança e o uso ético dessas tecnologias. Contudo, embora seja um avanço significativo, o AI Act ainda não aborda de maneira aprofundada a sustentabilidade e o impacto ambiental das inteligências artificiais, nem estabelece limites claros sobre o consumo de energia e água pelas empresas. Em contrapartida, em Frankfurt, na Alemanha, uma iniciativa já limita a construção de novos data centers e o consumo de recursos, mostrando novas alternativas para regulamentar este setor.

Para Gustavo Fortuna, a criação de políticas de regulamentação das IAs deve buscar o equilíbrio entre os avanços tecnológicos e a proteção ambiental. “As próprias IAs podem ser usadas para analisar dados e tendências climáticas de forma mais aprofundada. Com a transparência das empresas que gerenciam essas ferramentas, podemos estabelecer processos para medir os impactos ambientais e sociais das IAs e como mitigá-los de forma eficaz”, explica.

A insustentável leveza da inteligência artificial

Por Silvia Ribeiro para o “La Jornada”

O desenvolvimento rápido, desregulado e geralmente desnecessário de sistemas de inteligência artificial levou a um aumento brutal no consumo de água doce e energia globalmente, especialmente em comunidades onde grandes data centers estão instalados. Isso traz consigo um aumento global de gases de efeito estufa que aceleram a crise climática, além de impactos ambientais e à saúde.

Não é um desenvolvimento baseado na demanda . Há atores poderosos que a promovem agressivamente: a oligarquia tecnológica que agora governa os Estados Unidos sem ter um único voto. É uma estratégia deliberada para aumentar a dependência do usuário e o controle sobre os dados e o comportamento do usuário.

Tecnologias com inteligência artificial geral existem há décadas e podem ou não ser úteis para automatizar algumas atividades, dependendo do contexto, necessidades, alternativas, custos e impactos que acarretam. O desenvolvimento recente da chamada inteligência artificial generativa (GAI) é diferente porque não apenas coleta e sistematiza dados, mas também produz novos conteúdos que podem ser texto, imagens, som e até mesmo novas formas biológicas. Esse tipo de inteligência artificial sustenta aplicativos como o ChatGPT e similares. Exige processos de treinamento extensivos com grandes modelos de linguagem e conjuntos de dados cada vez mais volumosos, o que implica um aumento exponencial no uso de computadores, servidores, infraestrutura e, portanto, energia, água, recursos e geração de poluição e resíduos.

A digitalização em todos os setores industriais e seu uso individual em plataformas e redes sociais geram imensos volumes de dados que, para funcionar, exigem muitos computadores interconectados, ou seja, data centers que podem armazenar, processar, extrapolar e reinterpretar. Esses centros são a base física das nuvens de computação. Atualmente, três das maiores empresas da oligarquia tecnológica – Amazon, Microsoft e Google – controlam 66% das nuvens de computação do mundo e, junto com a Meta (dona do Facebook), 70% dos cabos submarinos.

Cecilia Rikap, do University College London, entrevistada na série Data Vampires pelo analista canadense Paris Marx, explica que grandes empresas de tecnologia estabeleceram uma estratégia deliberada de centralizar informações digitais em suas meganuvens. Ela é apresentada a empresas, instituições e governos como uma solução eficiente para evitar a criação de uma infraestrutura digital própria, com contratos que supostamente podem ser interrompidos. De fato, devido às constantes atualizações de programas e aplicativos de interconexão, fica muito difícil para quem contrata esses serviços revogar e até mesmo controlar o uso de suas informações. Os proprietários da nuvem ganham dinheiro vendendo o serviço, ao mesmo tempo em que aumentam seu acesso a mais dados e lucram com o negócio de vender ou usar a interpretação desses dados para influenciar escolhas de consumidores, políticas ou quaisquer outras.

Em 2018, havia 430 grandes data centers no mundo todo. No final de 2023 eram 992, atualmente são mais de mil. Com o uso da inteligência artificial generativa, estima-se que o número de grandes data centers dobre a cada 4 anos, sendo a maioria em hiperescala, uma categoria para aqueles com mais de 5.000 servidores e 10.000 pés quadrados de área de superfície. Por exemplo, a Amazon Web Services (AWS) está instalando um centro com mais de 50 mil servidores em Minnesota,

Com o sucesso de vendas do ChatGPT, todas as grandes empresas de tecnologia investiram no desenvolvimento de aplicativos com o IAG. A China acaba de anunciar o DeepSeek, um aplicativo muito mais barato que os dos EUA. Eles também incorporaram sistemas IAG em mecanismos de busca, celulares e diversos dispositivos, muitas vezes sem nos dar a opção de não usá-los, o que aumenta exponencialmente a demanda por água e energia sem que possamos decidir sobre isso.

De acordo com Sasha Luccioni, cientista da computação entrevistado pelo Data Vampires, a diferença entre fazer um cálculo matemático em uma calculadora manual com energia solar ou usar o ChatGPT pode multiplicar o uso de energia em até 50 mil vezes. Uma pergunta e resposta no ChatGPT ou em um mecanismo de busca de IA consome entre 0,5 e um litro de água. Também sujeito a erros frequentes e sem fornecer fontes.

As necessidades de água e energia são brutais e levaram a conflitos com diversas cidades onde estão instalados data centers. Cingapura, Irlanda e Holanda impuseram moratórias à instalação desses centros devido ao alto consumo de recursos.

Na América Latina, os principais locais para instalação de mega data centers são São Paulo, Brasil, e Querétaro, México. Em terceiro lugar está Quilicura, em Santiago do Chile, onde já há protestos da população contra essas instalações.

Os impactos ambientais, de saúde, sociais e políticos locais e globais do IAG são sérios e afetam a todos. Os lucros vão para um pequeno grupo de ultra-ricos.


Fonte: La Jornada

DeepSeek, o modelo de IA barato e aberto da China, agita comunidade científica

O DeepSeek-R1 executa tarefas de raciocínio no mesmo nível que o o1 da OpenAI — e está aberto para análise por pesquisadores

A empresa chinesa DeepSeek estreou uma versão de seu grande modelo de linguagem no ano passado. Crédito: Koshiro K/Alamy 

Por Elizabeth Gibney para a “Nature”

Um grande modelo de linguagem desenvolvido na China, chamado DeepSeek-R1, está entusiasmando os cientistas como um rival acessível e aberto aos modelos de “raciocínio” como o o1 da OpenAI.

Esses modelos geram respostas passo a passo, em um processo análogo ao raciocínio humano. Isso os torna mais aptos do que os modelos de linguagem anteriores para resolver problemas científicos, e significa que eles podem ser úteis em pesquisas . Os testes iniciais do R1, lançado em 20 de janeiro, mostram que seu desempenho em certas tarefas em química, matemática e codificação está no mesmo nível do o1 — que impressionou os pesquisadores quando foi lançado pela OpenAI em setembro .

“Isso é selvagem e totalmente inesperado”, escreveu Elvis Saravia, pesquisador de inteligência artificial (IA) e cofundador da empresa de consultoria em IA sediada no Reino Unido, DAIR.AI, no X.

O R1 se destaca por outro motivo. A DeepSeek, a start-up em Hangzhou que construiu o modelo, o lançou como ‘open-weight’, o que significa que os pesquisadores podem estudar e construir sobre o algoritmo. Publicado sob uma licença do MIT, o modelo pode ser reutilizado livremente, mas não é considerado totalmente de código aberto, porque seus dados de treinamento não foram disponibilizados.

“A abertura do DeepSeek é bastante notável”, diz Mario Krenn, líder do Artificial Scientist Lab no Instituto Max Planck para a Ciência da Luz em Erlangen, Alemanha. Em comparação, o1 e outros modelos construídos pela OpenAI em São Francisco, Califórnia, incluindo seu último esforço, o3 , são “essencialmente caixas-pretas”, ele diz.

O DeepSeek não divulgou o custo total do treinamento do R1, mas está cobrando das pessoas que usam sua interface cerca de um trigésimo do que o o1 custa para executar. A empresa também criou mini versões ‘destiladas’ do R1 para permitir que pesquisadores com poder de computação limitado brinquem com o modelo. Um “experimento que custou mais de £ 300 [US$ 370] com o o1, custou menos de US$ 10 com o R1”, diz Krenn. “Esta é uma diferença dramática que certamente desempenhará um papel em sua adoção futura.”

Modelos de desafio

O R1 faz parte de um boom em modelos de linguagem chinesa (LLMs) . Desmembrado de um fundo de hedge, o DeepSeek emergiu da relativa obscuridade no mês passado quando lançou um chatbot chamado V3, que superou os principais rivais, apesar de ter sido construído com um orçamento apertado. Especialistas estimam que custou cerca de US$ 6 milhões para alugar o hardware necessário para treinar o modelo, em comparação com mais de US$ 60 milhões para o Llama 3.1 405B da Meta, que usou 11 vezes os recursos de computação.

Parte do burburinho em torno do DeepSeek é que ele conseguiu fazer o R1 apesar dos controles de exportação dos EUA que limitam o acesso das empresas chinesas aos melhores chips de computador projetados para processamento de IA. “O fato de ele vir da China mostra que ser eficiente com seus recursos importa mais do que apenas a escala de computação”, diz François Chollet, um pesquisador de IA em Seattle, Washington.

O progresso do DeepSeek sugere que “a liderança percebida [que os] EUA já tiveram diminuiu significativamente”, escreveu Alvin Wang Graylin, especialista em tecnologia em Bellevue, Washington, que trabalha na empresa de tecnologia imersiva HTC, sediada em Taiwan, no X. “Os dois países precisam buscar uma abordagem colaborativa para construir IA avançada em vez de continuar com a atual abordagem de corrida armamentista sem vitória.”

Cadeia de pensamento

Os LLMs treinam em bilhões de amostras de texto, cortando-as em partes de palavras, chamadas tokens, e padrões de aprendizagem nos dados. Essas associações permitem que o modelo preveja tokens subsequentes em uma frase. Mas os LLMs são propensos a inventar fatos, um fenômeno chamado alucinação , e muitas vezes lutam para raciocinar sobre problemas.

Assim como o o1, o R1 usa um método de ‘cadeia de pensamento’ para melhorar a capacidade de um LLM de resolver tarefas mais complexas, incluindo, às vezes, retroceder e avaliar sua abordagem. O DeepSeek fez o R1 ‘ajustando’ o V3 usando aprendizado por reforço, que recompensou o modelo por chegar a uma resposta correta e por trabalhar em problemas de uma forma que delineasse seu ‘pensamento’.

Rivais da IA: Gráfico de barras mostrando resultados de testes conduzidos pela DeepSeek, testando três versões de seus grandes modelos de linguagem contra os modelos o1 da OpenAI em tarefas de matemática, codificação e raciocínio. O DeepSeek-R1 venceu ou rivalizou com o o1 em benchmarks de matemática e codificação.

Fonte: DeepSeek

Ter poder de computação limitado levou a empresa a “inovar algoritmicamente”, diz Wenda Li, pesquisadora de IA na Universidade de Edimburgo, Reino Unido. Durante o aprendizado por reforço, a equipe estimou o progresso do modelo em cada estágio, em vez de avaliá-lo usando uma rede separada. Isso ajudou a reduzir os custos de treinamento e execução, diz Mateja Jamnik, cientista da computação na Universidade de Cambridge, Reino Unido. Os pesquisadores também usaram uma arquitetura de ‘mistura de especialistas’, que permite que o modelo ative apenas as partes de si mesmo que são relevantes para cada tarefa.

Em testes de benchmark, relatados em um artigo técnico que acompanha o modelo, o DeepSeek-R1 pontuou 97,3% no conjunto de problemas de matemática MATH-500 criado por pesquisadores da Universidade da Califórnia, Berkeley, e superou 96,3% dos participantes humanos em uma competição de programação chamada Codeforces. Isso está no mesmo nível das habilidades do o1; o o3 não foi incluído nas comparações (veja ‘IA rivais’).

É difícil dizer se os benchmarks capturam a verdadeira capacidade de um modelo de raciocinar ou generalizar, ou meramente sua proficiência em passar em tais testes. Mas como o R1 é aberto, sua cadeia de pensamento é acessível aos pesquisadores, diz Marco Dos Santos, um cientista da computação da Universidade de Cambridge. “Isso permite melhor interpretabilidade dos processos de raciocínio do modelo”, ele diz.

Os cientistas já estão testando as habilidades do R1. Krenn desafiou ambos os modelos rivais a classificar 3.000 ideias de pesquisa pelo quão interessantes elas são e comparou os resultados com classificações feitas por humanos. Nesta medida, o R1 teve um desempenho ligeiramente inferior ao do o1. Mas o R1 venceu o o1 em certos cálculos em óptica quântica, diz Krenn. “Isso é bastante impressionante.”

doi: https://doi.org/10.1038/d41586-025-00229-6


Fonte:  Nature

Sucesso da chinesa DeepSeek expõe sobrevalorização de empresas de IA dos EUA e pode causar banho de sangue no mercado de ações

O logotipo da empresa chinesa de inteligência artificial DeepSeek é visto em Hangzhou, província de Zhejiang, China, em 26 de janeiro de 2025. CFOTO/Future Publishing via Getty Images
Por Ryan Grim e Waqas Ahmed para o DropSite

As ações de tecnologia dos EUA estão despencando enquanto a China parece estar expondo as empresas americanas envolvidas em Inteligência Artificial (IA) como extremamente supervalorizadas. É uma consequência previsível de como o governo americano abordou o Vale do Silício e vice-versa. Este não é o tipo de coisa que normalmente cobrimos, mas não confiamos muito na mídia dos EUA para contar essa história com precisão.

Qualquer um que acompanha casualmente viu como foi. Empresas de tecnologia dos EUA, com o apoio do governo federal (e do Pentágono), construíram uma posição global dominante por meio de inovação genuína. Microsoft, Facebook, Apple, Google e Amazon remodelaram o mundo. A Microsoft, uma das primeiras grandes empresas a crescer, tentou interromper essa inovação comprando e/ou esmagando seus concorrentes, mas os EUA a processaram em 1998 por violar as leis antitruste. O governo Bush resolveu o caso, recuando no esforço de separá-los. O que se seguiu foi um abraço bipartidário da Big Tech; as eras Bush e Obama viram crescimento desenfreado e fusões. À medida que as empresas de tecnologia viam empresas menores inovando, elas compravam a empresa, a matavam e absorviam parte de sua equipe.

Um movimento antimonopólio começou a borbulhar, levando a processos judiciais contra Facebook, Amazon, Google e Apple na última década. Lina Khan, como presidente da Comissão Federal de Comércio sob o ex-presidente Joe Biden, tornou-se uma heroína popular ao alertar que a ganância e a consolidação não estavam prejudicando apenas consumidores e trabalhadores, mas que as próprias empresas escleróticas acabariam sofrendo com a falta de concorrência. “Nossa história mostra que manter mercados abertos, justos e competitivos, especialmente em pontos de inflexão tecnológica, é uma maneira fundamental de garantir que a América se beneficie da inovação que essas ferramentas podem catalisar”, disse Khan em 2023.

Agora ficou claro que o fosso que os EUA construíram para proteger suas empresas da concorrência doméstica na verdade criou as condições que permitiram que elas atrofiassem. Elas ficaram gordas e felizes dentro de seus castelos. Seus negócios mudaram da inovação tecnológica para a realização de alquimia com planilhas, transformando métricas inventadas em avaliações em dólares desvinculadas da realidade. Agora, a DeepSeek expôs o golpe. Com uma pequena fração dos recursos e sem acesso a toda a panóplia de tecnologia de chips dos EUA, a empresa chinesa DeepSeek enganou o Vale do Silício. A empresa americana OpenAI começou como uma organização sem fins lucrativos dedicada a tornar a IA amplamente disponível, como seu nome sugere. Seu chefe, Sam Altman, conseguiu transformá-la em uma empresa com fins lucrativos e fechá-la.

Agora, o DeepSeek está ironicamente cumprindo a missão original do OpenAI ao fornecer um modelo de código aberto que simplesmente tem melhor desempenho do que qualquer outro no mercado. 

Enquanto isso, aqui nos Estados Unidos, Trump está comemorando um investimento (possivelmente exagerado) de US$ 500 bilhões no Texas para abastecer o poder computacional de IA que parece estar obsoleto — ou muito menos relevante — graças à inovação da DeepSeek. E Trump está enchendo sua administração com manos da criptografia, magnatas da tecnologia se recusando a desinvestir e até lançou sua própria moeda meme de golpe. Os principais conselheiros de tecnologia de Trump, como Elon Musk, enquanto isso, têm extensos laços comerciais diretamente com a China. Você não precisa apertar os olhos muito para ver qual desses países vai ganhar essa competição.

O contrato social firmado entre o governo dos EUA e o Vale do Silício — do qual o povo americano se tornou parte involuntária — era direto: deixaremos um punhado de caras da tecnologia se tornarem incomensuravelmente ricos e, em troca, eles construirão uma indústria de tecnologia que manterá a América globalmente dominante. Em vez disso, os caras da tecnologia quebraram o acordo. Eles pegaram o dinheiro, mas em vez de continuar a inovar e competir, construíram monopólios para manter a concorrência fora — até mesmo recebendo a ajuda do estado de segurança nacional dos EUA para bloquear o acesso chinês à nossa tecnologia. Mas eles não conseguiram ficar fora da competição para sempre. Lina Khan estava certa. E agora aqui estamos.

Os efeitos posteriores serão profundos se a trajetória de uma transferência de riqueza dos EUA para a China continuar acelerada. É comum dizer que a maioria das pessoas não possui ações individuais, mas isso subestima a exposição que todos nós temos a esse golpe. Está em nossos IRAs ou 401ks e a ascensão dessas ações constituiu quase todo o crescimento do mercado de ações nos últimos anos. E se a China se tornar cada vez mais o lugar para trabalhar se você for um pesquisador ou desenvolvedor ambicioso, não é difícil ver aonde isso leva.

Abaixo está uma explicação sobre o DeepSeek que pedimos ao nosso correspondente Waqas Ahmed para elaborar.
   

CEO da OpenAI, Sam Altman. Foto de Justin Sullivan/Getty Images.

P: O que é DeepSeek e por que ele está causando um colapso nas ações?

R: A empresa chinesa DeepSeek lançou um modelo de IA que é tão bom quanto qualquer um de seus equivalentes americanos e o tornou de código aberto. Isso mudou fundamentalmente a economia e a política da indústria de IA em rápido crescimento, que até agora tem sido liderada por um oligopólio de empresas de tecnologia americanas tentando posicionar os Large Language Models (LLMs) como o avanço tecnológico definidor deste século, e eles próprios como os guardiões de seu molho secreto.

Há muita conversa sobre o DeepSeek custar apenas cerca de US$ 6 milhões para ser construído, embora esse valor não inclua pesquisa e desenvolvimento. E, apesar dos controles de exportação, o DeepSeek conseguiu explorar um número não trivial de chips de alta tecnologia que estávamos tentando manter deles. No entanto, ainda é um choque enorme para a indústria dos EUA.

P: O que são LLMs e como eles surgiram ?

R: Um artigo de 2017 intitulado “Atenção é tudo o que você precisa ” foi um ponto de virada na indústria de IA. O artigo descreveu um método de criação de um modelo de aprendizado de máquina que poderia produzir texto semelhante ao humano com precisão e escala sem precedentes usando uma arquitetura chamada “transformadores”. Esses “transformadores” melhoraram consideravelmente uma classe de modelos chamados Large Language Models (LLMs). Os LLMs usam grandes quantidades de texto — livros, artigos, e-mails, receitas, perguntas frequentes, tudo — para criar representações matemáticas internas de relacionamentos entre bilhões de palavras e frases — ou, mais precisamente, entre combinações de tokens encontrados em uma linguagem humana natural.

Antes de 2017, os LLMs não eram muito úteis, mas os “transformadores” mudaram isso. Ao processar grandes quantidades de texto usando a arquitetura do transformador, esses modelos agora podiam “aprender” o que as palavras significam em diferentes contextos e detectar nuances que os computadores nunca tinham conseguido antes, permitindo que esses modelos produzissem texto extremamente relevante em resposta a um prompt ou pergunta do usuário.

P: Como começou o entusiasmo pela IA?

R: A OpenAI se tornou a primeira empresa americana a demonstrar que se você tirar um instantâneo de toda a internet conhecida e de todos os livros digitalizados existentes sem se preocupar muito com a lei de direitos autorais , você pode criar um modelo tão bom que sua saída seria quase indistinguível daquela de um burocrata de DC com inteligência medíocre. No entanto, a OpenAI mostrou que seu modelo poderia ser treinado para ter experiência em diferentes domínios e poderia dar respostas aprofundadas a perguntas muito específicas. Seu modelo passou em exames de codificação, no exame da ordem e se formou na escola de negócios. Os resultados foram tão chocantes que a OpenAI saiu e afirmou que valia um zilhão de dólares e que o futuro da humanidade dependia disso.

P: Qual é o estado atual do setor de IA?

R: A OpenAI, parcialmente de propriedade da Microsoft, foi a primeira a lançar um grande produto LLM, o ChatGPT, em novembro de 2022. Logo depois, a Meta lançou seu próprio modelo, o LLaMa, e o Google lançou o Gemini. Todas as três empresas tinham grandes quantidades de texto para treinar seus modelos, mas um LLM precisa de outro ingrediente crucial: poder de computação para processar esse texto e, em seguida, gerar respostas às consultas do usuário. A empresa líder que fabrica as máquinas de computação é a Nvidia, cujas ações cresceram exponencialmente como resposta quando as guerras de LLM lideradas pela OpenAI/Microsoft, Google e Meta se seguiram.

As máquinas de computação são chamadas de GPUs — Unidades de Processamento Gráfico. Elas foram originalmente inventadas para processar gráficos de computador para jogos, como renderização 3D. Mais tarde, elas se tornaram populares porque suas capacidades de processamento paralelo as tornaram ideais para mineração de criptomoedas. Agora, ao que parece, elas também são ótimas em processamento de dados de IA por razões semelhantes. A Nvidia basicamente tem surfado ondas de booms à medida que diferentes mercados descobrem novos usos para seu produto.

Nos últimos anos, Meta, Google, Microsoft e OpenAI conseguiram acumular centenas de milhares das GPUs mais avançadas e obter tratamento preferencial da Nvidia e de seu fornecedor, o principal fabricante mundial de semicondutores, a TSMC.

A indústria tecnológica americana tem tomado medidas significativas para se alinhar em torno da IA. As empresas têm adquirido startups, recrutado os melhores pesquisadores de IA e investido recursos no desenvolvimento de seus modelos primários de IA proprietários (chamados de modelos fundamentais), criando um fluxo de investimento em IA e tecnologias relacionadas, como computação em nuvem, fabricação avançada de chips e infraestrutura de dados. Tudo isso é uma tentativa de garantir o domínio no que eles afirmam ser a próxima fronteira da inovação tecnológica.

P: Como a China está envolvida?

R: Como parte de seu esforço maior para conter a China, o governo dos EUA tem a missão de impedir que empresas chinesas se tornem líderes em diferentes áreas de tecnologia. Ele fez isso exercendo controle sobre as cadeias de suprimentos globais e protegendo as empresas de tecnologia americanas da concorrência no processo. Os EUA bloquearam a entrada da Huawei no seu território no momento em que ela estava ultrapassando a Apple para se tornar a segunda maior fabricante de smartphones do mundo e impediram que países europeus instalassem infraestrutura 5G fabricada pela Huawei quando era claramente mais econômica; e, mais recentemente, aprovaram uma legislação proibindo o TikTok, um aplicativo de mídia social chinês que se tornou extremamente popular nos Estados Unidos e cujo algoritmo de recomendação nenhum aplicativo de mídia social americano conseguiu superar.

A alegação dos EUA de que a Huawei e outras empresas de tecnologia chinesas estão inextricavelmente ligadas à estratégia geopolítica da China e colocam empresas e pessoas ocidentais em risco elevado de vigilância e espionagem corporativa é, claro, baseada na realidade. A DeepSeek não tem vergonha de quantos dados coleta em sua plataforma, incluindo até mesmo suas teclas digitadas:

Coletamos certas informações de conexão de dispositivo e rede quando você acessa o Serviço. Essas informações incluem o modelo do seu dispositivo, sistema operacional, padrões ou ritmos de pressionamento de tecla, endereço IP e idioma do sistema. Também coletamos informações relacionadas ao serviço, diagnóstico e desempenho, incluindo relatórios de falhas e logs de desempenho. Atribuímos automaticamente a você um ID de dispositivo e um ID de usuário. Quando você faz login em vários dispositivos, usamos informações como o ID do seu dispositivo e o ID do usuário para identificar sua atividade em todos os dispositivos para fornecer a você uma experiência de login perfeita e para fins de segurança.

No entanto, como o DeepSeek é de código aberto e pode ser executado localmente em um dispositivo separado, os olhos curiosos do presidente Xi Jinping podem ser protegidos.

Manter o domínio tecnológico global é uma das principais preocupações que os formuladores de políticas dos EUA têm repetidamente citado e identificado a IA como uma tecnologia crucial para manter esse domínio . Em 2018, quando o governo dos EUA estava no processo de banir a Huawei, percebeu que precisaria fazer o mesmo com tecnologias downstream, como chips semicondutores, o principal componente usado em CPUs e GPUs. A grave escassez de chips devido a interrupções na cadeia de suprimentos global durante a Covid-19 mostrou que chips avançados são um gargalo na cadeia de suprimentos global e um recurso escasso. Em 2022, o governo Biden impôs sanções abrangentes à China, interrompendo a exportação desses chips para o país e impedindo que as empresas chinesas de IA acessassem as GPUs mais recentes e eficientes. Ao mesmo tempo, aprovou a lei CHIPS, subsidiando a fabricação nacional de semicondutores com mais de US$ 50 bilhões.

P: Por que todo mundo de repente está tão interessado em IA?

R: O nível exagerado de marketing e vendedor de óleo de cobra da indústria de IA dos EUA causou um certo pânico entre os formuladores de políticas governamentais menos alfabetizados tecnicamente. Muitos especialistas da indústria alegaram que os avanços em LLMs poderiam em breve levar à criação da Inteligência Artificial Geral (AGI), basicamente um computador que pensa como um ser humano e é bom em muitas tarefas diferentes. Alguns  soaram o alarme de que ele pode se tornar maligno e autoconsciente. Mas até mesmo seus detratores concordaram que os LLMs são uma tecnologia revolucionária que mudará fundamentalmente a forma como interagimos com os computadores.

P: Por que os caras da tecnologia estão tão bravos?

Grandes empresas de tecnologia também têm dito ao governo e investidores que construir IA é muito, muito caro. Em sua primeira semana no cargo, o presidente dos EUA, Donald Trump, anunciou US$ 500 bilhões em investimentos do setor privado em IA sob um projeto chamado Stargate — uma colaboração entre OpenAI, Softbank e Oracle.

No passado, o fundador da OpenAI, Sam Altman, afirmou que precisaria de até US$ 7 trilhões para criar sua IA dos sonhos e estava levantando investimentos usando essa meta. Para contextualizar, nenhum homem em toda a história do mundo já gastou essa quantia de dinheiro em uma única coisa. Mas a mensagem subjacente parece ser: esta é uma tecnologia mágica e uma força mais poderosa do que qualquer outra que o mundo já viu, precisamos de quantias astronômicas de dinheiro para construí-la e precisamos da proteção do governo dos EUA enquanto fazemos isso.

Então veio uma pequena empresa chinesa que estourou essa bolha com seu projeto paralelo. Ela usou US$ 5,5 milhões em poder computacional para fazer isso, usando apenas 2.048 GPUs Nvidia H800 que a empresa chinesa tinha porque não podia comprar as GPUs superiores H100 ou A100 que as empresas americanas estão reunindo em centenas de milhares.

Para contextualizar, a Meta AI estabeleceu a meta de possuir um cluster de 600.000 GPUs H100 até o final de 2024. Elon Musk tem 100.000 GPUs, enquanto a OpenAI treinou seu modelo GPT-4 em aproximadamente 25.000 GPUs A100. Enquanto isso, a DeepSeek foi fundada pela gestora de fundos de hedge chinesa High Flyer que queria colocar seu cluster de, de acordo com a mídia chinesa , 10.000 GPUs H800 em bom uso.

A DeepSeek, de acordo com a tradição , contratou uma equipe muito jovem e os impulsionou a inovar e aproveitar ao máximo seu hardware limitado. Eles lançaram o modelo DeepSeek-V3 no mês passado, um modelo que supera o OpenAI GPT-4 e todos os outros modelos do setor na maioria dos benchmarks. Não há nenhum desenvolvimento significativo na tecnologia básica, eles apenas usam o hardware de forma eficiente e treinam melhor seu modelo.

Os manos da tecnologia são salgados porque isso os faz parecer ruins. O que complica ainda mais as coisas é que o DeepSeek lançou seu modelo e métodos de treinamento como software de código aberto, o que significa que qualquer um pode ver como eles fizeram seu modelo e replicar o processo. Isso também significa que os usuários podem instalar modelos do DeepSeek em suas próprias máquinas e executá-los em suas próprias GPUs , onde eles parecem estar tendo um desempenho muito bom.

P: Como os caras da tecnologia estão reagindo?

R: Embora tenha havido uma mudança significativa na vibração em direção a “acabou “, alguns ainda afirmam que “estamos de volta ” e este é o “momento Sputnik da IA “. Outros não foram tão magnânimos.

“Deepseek é uma operação psicológica do estado do Partido Comunista da China+ guerra econômica para tornar a IA americana não lucrativa. Eles estão fingindo que o custo era baixo para justificar a fixação de um preço baixo e esperando que todos mudem para ele, prejudicando a competitividade da IA nos EUA, não morda a isca”, tuitou Neal Khosla, filho do investidor Vinod Khosla. A Khosla Ventures levantou mais de US$ 400 milhões para a OpenAI e é um dos maiores investidores da empresa.

“O DeepSeek é um alerta para a América”, disse Alexandr Wang, fundador da empresa de IA Scale AI, e alguém que acusou mais notavelmente o DeepSeek de esconder um estoque secreto de 50.000 GPUs H100.

“As acusações/obsessões sobre o DeepSeek usar o H100 parecem como se um time de crianças ricas tivesse sido derrotado por um time de crianças pobres, que nem sequer tinham permissão para usar sapatos”, tuitou Jen Zhu, um investidor em IA, “e agora as crianças ricas estão exigindo uma investigação para saber se sapatos foram usados em vez de treinar mais para se aprimorarem”.

P: Por que o mercado de ações está despencando?

R: Embora o DeepSeek v3 já esteja disponível há quase um mês, as notícias estão começando a chegar ao mercado somente agora. As ações da Nvidia caíram quase 15% antes do mercado na segunda-feira, perdendo aproximadamente US$ 420 bilhões de sua capitalização de mercado e desencadeando um banho de sangue nas ações de semicondutores que poderia varrer US$ 1 trilhão do mercado de ações em um único dia. Quando foi lançado no final de dezembro, Andrej Karpathy, um importante cientista na área, comentou sobre sua eficiência surpreendente, mas as repercussões de uma empresa chinesa desconhecida lançando um modelo fundamental de código aberto só decolaram quando o Vale do Silício começou a testar o DeepSeek em seus computadores pessoais e o DeepSeek subiu para o aplicativo número um .

Ironicamente, os caras da tecnologia surtando e gerando níveis de conflito nunca antes vistos estão contribuindo para a viralidade do DeepSeek.


Fonte:  DropSite

Ações da Nvidia despencam com grande avanço da chinesa DeepSeek que está abalando os investidores de IA

DeepSeek lançou um concorrente ChatGPT e Llama usando chips de capacidade reduzida da Nvidia

Por Rocio Fabbro para o “Quartz” 

As ações da Nvidia ( NVDA ) caíram até 14% no pré-mercado na segunda-feira, depois que o modelo mais recente da startup chinesa de inteligência artificial (IA) DeepSeek levantou questões sobre a competitividade americana no espaço da IA.

A DeepSeek lançou em dezembro um modelo de linguagem grande (LLM) de código aberto e gratuito, que ela alegou ter desenvolvido em apenas dois meses por menos de US$ 6 milhões. E na semana passada, a empresa disse que lançou um modelo que rivaliza com o ChatGPT da OpenAI e o Llama 3.1 da Meta ( META ) — e que chegou ao topo da App Store da Apple ( AAPL ) no fim de semana.

Mais notavelmente, a DeepSeek construiu o modelo usando chips de menor capacidade da Nvidia, o que pode pressionar a queridinha dos semicondutores se outras empresas se afastarem de suas ofertas premium.

Analistas da Wedbush disseram em uma nota de pesquisa na segunda-feira que “as ações de tecnologia estão sob enorme pressão liderada pela Nvidia, já que a Wall Street verá o DeepSeek como uma grande ameaça percebida ao domínio da tecnologia dos EUA e à posse desta Revolução da IA”.

As ações da Nvidia caíram quase 12% na manhã de segunda-feira. A notícia fez outras grandes ações de chips caírem, incluindo a ASML ( ASML ), que caiu 7%, e a Broadcom ( AVGO ), que teve uma queda de 12%. A liquidação fez o índice Nasdaq, pesado em tecnologia, cair no pré-mercado , com os futuros quase 4% mais baixos.

“As empresas de tecnologia dos EUA estão sendo negociadas com avaliações premium, com grandes players de IA como Nvidia, Microsoft ( MSFT ) e Alphabet ( GOOGL ) comandando múltiplos [preço-lucro] futuros muito acima das médias históricas”, disse Charu Chanana, estrategista-chefe de investimentos na plataforma de investimentos Saxo, em uma declaração. “Com essas ações precificadas para a perfeição, até mesmo pequenas interrupções, como a DeepSeek provando que a IA avançada pode ser construída sem chips de primeira linha, podem pesar muito nos preços das ações.”

Com o objetivo final da IA ​​sendo a inteligência artificial geral (AGI) — e com as empresas dos EUA bem encaminhadas para alcançá-la nos próximos anos — os analistas da Wedbush acreditam que o nervosismo dos investidores de segunda-feira pode ser exagerado.

“Embora o modelo seja impressionante e tenha um impacto cascata”, eles disseram, “a realidade é que a Mag 7 e a tecnologia dos EUA estão focadas no jogo final da AGI com toda a infraestrutura e ecossistema que a China e especialmente a DeepSeek não conseguem chegar perto, em nossa opinião”.


Fonte: Quartz

O exército israelense é um dos principais clientes de IA da Microsoft, revelam documentos vazados

Por Ryan Grim e Waqas Ahmed para o Drop Site

A Microsoft é uma grande provedora de serviços de nuvem e inteligência artificial para o exército israelense, de acordo com documentos internos relacionados aos contratos entre o Ministério da Defesa de Israel (MoD) e a Microsoft Israel obtidos pelo Drop Site News. Os documentos vazados mostram que o uso de Israel aumentou drasticamente nos meses seguintes a 7 de outubro de 2023, quando Israel estava usando Inteligência Artificial (IA) e outras tecnologias para travar sua guerra brutal em Gaza.

O tesouro de documentos revela que os laços da Microsoft com o exército israelense são mais profundos e lucrativos do que se sabia anteriormente, expondo o papel da gigante da tecnologia no fornecimento de serviços avançados de nuvem e IA durante a guerra que vários órgãos internacionais, incluindo a Corte Internacional de Justiça, decidiram que pode plausivelmente constituir um genocídio . O Drop Site compartilhou os documentos com a revista investigativa israelense +972, que expôs anteriormente o uso de IA por Israel em sua campanha de bombardeio , e com o The Guardian, ambos os quais também publicaram histórias na quinta-feira.

As negociações da Microsoft com o exército israelense são parte de um padrão entre gigantes da tecnologia americana que correm para fornecer tecnologias de nuvem e IA para garantir uma parte do crescente fundo de guerra de Israel desde outubro de 2023. De acordo com os documentos, a Microsoft expandiu drasticamente seu relacionamento com o exército israelense desde o início da guerra em Gaza e se tornou uma grande fornecedora de serviços de nuvem para várias unidades militares israelenses.

No total, os custos apenas para suporte de engenharia e consultoria com os militares israelenses somaram aproximadamente US$ 10 milhões desde o início da ofensiva em Gaza em outubro de 2023, com projetos de suporte adicionais no valor de outros US$ 30 milhões sob consideração em 2024. O tamanho total do contrato do Ministério da Defesa israelense com a Microsoft, incluindo o uso da plataforma Azure, é muito maior, mas o valor exato não pôde ser determinado a partir dos documentos.

Os militares israelenses têm aproveitado uma gama de serviços de nuvem da Microsoft para dar suporte às suas operações em andamento, de acordo com os documentos. O Microsoft Azure é uma plataforma de computação em nuvem que fornece um conjunto de aplicativos e serviços para seus clientes corporativos. Seus componentes mais importantes historicamente têm sido computação e armazenamento, que permitem que os clientes da Microsoft processem e armazenem grandes quantidades de dados em servidores de nuvem hospedados globalmente. Mais recentemente, devido ao investimento de bilhões de dólares da Microsoft na OpenAI, a mesma empresa que administra o ChatGPT, a Microsoft adicionou os Large Language Models da OpenAI ao seu conjunto de ofertas do Azure.

Juntos, esses serviços são o que formam o núcleo dos serviços que o exército israelense comprou da Microsoft. Entre seus serviços mais usados estão a tradução e o serviço Azure OpenAl, um serviço empresarial baseado na mesma tecnologia do ChatGPT, juntos respondendo por quase 75 por cento do uso total. Serviços de fala e voz compõem o restante.

Dados vazados mostram um aumento dramático no armazenamento em nuvem da Microsoft usado pelos militares israelenses, saltando mais de 155% entre junho de 2023 e abril de 2024, e atingindo o pico pouco antes da ofensiva de Rafah em maio de 2024. O uso de armazenamento é um indicador importante que mostra a extensão do uso de IA, já que o armazenamento geralmente cresce junto com o uso de outros produtos de nuvem.

A inteligência artificial assumiu um novo papel na guerra de Israel em Gaza, com os militares israelenses usando um programa chamado Lavender para identificar alvos, de acordo com reportagem do +972 — embora não se saiba exatamente quais empresas alimentaram esse programa em particular e os militares reduziram esse programa nos meses subsequentes. O relatório deles em agosto também revelou que o Microsoft Azure e o Amazon AWS estavam competindo por lucrativos contratos militares israelenses.

O conflito em Gaza estimulou uma “corrida do ouro” entre empresas de tecnologia que buscavam fornecer serviços aos militares israelenses. Nas semanas seguintes ao ataque de 7 de outubro, o Google intensificou seus esforços para fornecer ao Ministério da Defesa de Israel maior acesso à sua tecnologia de IA. Essa urgência foi motivada pela preocupação de que os militares recorreriam à concorrente do Google, a Amazon, que também tem um contrato com o governo israelense. O novo conjunto de documentos mostra que a Microsoft estava igualmente entusiasmada com os contratos israelenses e deu grandes descontos pela oportunidade.

Desde o início da guerra em Gaza, Israel surgiu como um dos 500 principais clientes globais da Microsoft, com o MoD israelense servindo como um cliente guarda-chuva da Microsoft, supervisionando o relacionamento geral do exército israelense com a empresa. Mas, diferentemente de um modelo de aquisição centralizado tradicional, onde uma única organização toma decisões de compra em nome de toda a entidade, a estrutura do exército israelense é mais descentralizada. O que diferencia o exército israelense de outras contas guarda-chuva é que vários departamentos e entidades dentro do exército israelense operam com um grau significativo de autonomia e podem assinar contratos de forma independente com base em seus orçamentos internos.

Os documentos também revelam a amplitude das negociações da Microsoft com o exército israelense; várias unidades dentro do exército israelense contrataram serviços da Microsoft de forma independente, incluindo a Unidade 8200, uma unidade de inteligência de elite especializada em inteligência de sinais, guerra cibernética, descriptografia de código e vigilância militar; Matzov, o Centro de Criptografia e Segurança da Informação; Mamram, a unidade central do sistema de computação; Tikshuv, a Diretoria de Computadores e TI supervisionando comunicações e segurança cibernética; e Lotem, a unidade de Telecomunicações e Tecnologia da Informação. A Força Aérea e a Marinha israelenses também fizeram acordos significativos com a Microsoft imediatamente após o início da ofensiva de Gaza em outubro de 2023.

Os data centers da Microsoft que prestam serviços ao exército israelense não se limitam a Israel, com muitos sendo hospedados em países europeus que reconhecem a jurisdição do Tribunal Internacional de Justiça como compulsória. Se o tribunal finalmente decidir que a guerra é um genocídio, hospedar os servidores de dados da Microsoft utilizados pelo exército israelense pode constituir uma violação da lei internacional e pode causar problemas legais relacionados às operações da Microsoft nessas jurisdições.

Internamente, os funcionários da Microsoft já estavam solicitando ao seu empregador que examinasse suas políticas relacionadas a Israel. O Drop Site havia relatado em setembro do ano passado que a Microsoft foi criticada por seu patrocínio da conferência “I Love Mamram”, celebrando o 65º aniversário do Mamram, a unidade do Centro de Computação e Sistemas de Informação do exército israelense, onde o CEO da Microsoft Israel estava programado para falar. Os documentos agora revelam que o Mamram era um cliente da Microsoft. A empresa também enfrentou críticas por igualar doações de funcionários a organizações que apoiam o exército israelense, enquanto não igualou doações a organizações que apoiam os palestinos, e até mesmo retirou organizações da lista como a UNRWA, a agência da ONU para refugiados palestinos.


Fonte: Drop Site

Guia inédito norteia pesquisadores sobre uso ético e responsável da IA generativa

Gratuito, livro foi elaborado por pesquisadores que têm se debruçado sobre os impactos da inteligência artificial generativa (IAG) na pesquisa acadêmica e no ensino

LIVRO IA

Por Camille Bropp para a UFPR 

Lançado em dezembro pela Sociedade Brasileira de Estudos Interdisciplinares da Comunicação (Intercom) e já disponível para download, o livro Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa busca discutir e promover o uso producente da inteligência artificial (IA) generativa no mundo acadêmico.

A obra tem entre seus autores o professor e pesquisador do Departamento de Ciência Política da Universidade Federal do Paraná (UFPR), Rafael Cardoso Sampaio. Os outros autores são Marcelo Sabbatini, da Universidade Federal de Pernambuco (UFPE), e Ricardo Limongi, da Universidade Federal de Goiás (UFG).

Segundo eles, a premissa do livro é “desmistificar o entusiasmo exagerado (hype) em torno da tecnologia, assim como os temores infundados”. Assim, tem como objetivo ser um guia prático e de fácil consulta em meio à ausência de materiais similares no Brasil.

O e-book aborda dos princípios de funcionamento e aplicações práticas da tecnologia às possibilidades de uso em diferentes fases da pesquisa acadêmica. Também aprofunda a discussão sobre as atuais limitações da IA, entre eles os vieses e os riscos à privacidade e integridade acadêmica, assim como a necessidade de preservação da agência humana e do uso eticamente orientado.

A publicação tem apoio da Associação Brasileira de Ciência Política (ABCP) e da Associação Nacional de Pós-Graduação e Pesquisa em Ciências Sociais (Anpocs), que reconhecem a importância do debate sobre os impactos da IA nas pesquisas acadêmicas e a necessidade de maturação da discussão.


Fonte: UFPR

As lâmpadas têm classificações de energia — então por que os chatbots de IA não podem ter?

O crescente custo energético e ambiental do boom da inteligência artificial está alimentando preocupações. Mecanismos de política verde que já existem oferecem um caminho para uma solução

data ia

À medida que mais data centers surgem em comunidades rurais, a oposição local a eles tem crescido. Crédito: Brian Lawless/PA/Alamy

Por Sasha Luccioni , Boris Gamazaychikov , Sara Hooker , Régis Pierrard , Emma Strubell , Yacine Jernite e Carole-Jean Wu para a Nature

À medida que milhões de pessoas usam cada vez mais modelos de inteligência artificial generativa (IA) para tarefas que vão desde pesquisas na Web até a criação de videoclipes , há uma urgência crescente em minimizar a pegada energética da tecnologia.

O preocupante custo ambiental da IA ​​é óbvio mesmo neste estágio inicial de sua evolução. Um relatório publicado em  de janeiro pela Agência Internacional de Energia estimou que o consumo de eletricidade dos data centers pode dobrar até 2026 e sugeriu que melhorias na eficiência serão cruciais para moderar esse aumento esperado.

Alguns líderes da indústria de tecnologia têm procurado minimizar o impacto na rede de energia. Eles sugerem que a IA poderia permitir avanços científicos que podem resultar em uma redução nas emissões de carbono planetárias . Outros têm jogado seu peso por trás de fontes de energia ainda não realizadas, como a fusão nuclear .

No entanto, do jeito que as coisas estão, as demandas de energia da IA ​​estão mantendo as antigas usinas de energia a carvão em serviço e aumentando significativamente as emissões das empresas que fornecem o poder de computação para essa tecnologia. Dado que o consenso claro entre os cientistas do clima é que o mundo enfrenta um momento de “agora ou nunca” para evitar mudanças planetárias irreversíveis 2 , reguladores, formuladores de políticas e empresas de IA devem abordar o problema imediatamente.

Para começar, estruturas de políticas que incentivam a eficiência energética ou de combustível em outros setores econômicos podem ser modificadas e aplicadas a aplicações alimentadas por IA. Esforços para monitorar e comparar os requisitos de energia da IA ​​— e as emissões de carbono associadas — devem ser estendidos além da comunidade de pesquisa. Dar ao público uma maneira simples de tomar decisões informadas eliminaria a divisão que agora existe entre os desenvolvedores e os usuários de modelos de IA, e poderia eventualmente provar ser um divisor de águas.

Este é o objetivo de uma iniciativa chamada projeto AI Energy Star, que descrevemos aqui e recomendamos como um modelo que os governos e a comunidade de código aberto podem adotar. O projeto é inspirado nas classificações Energy Star da Agência de Proteção Ambiental dos EUA . Elas fornecem aos consumidores uma medida transparente e direta do consumo de energia associado a produtos que vão de máquinas de lavar a carros. O programa ajudou a atingir mais de 4 bilhões de toneladas de reduções de gases de efeito estufa nos últimos 30 anos, o equivalente a tirar quase 30 milhões de carros movidos a gasolina das ruas por ano.

O objetivo do projeto AI Energy Star é semelhante: ajudar desenvolvedores e usuários de modelos de IA a levar em conta o consumo de energia. Ao testar uma gama suficientemente diversa de modelos de IA para um conjunto de casos de uso populares, podemos estabelecer uma faixa esperada de consumo de energia e, em seguida, classificar os modelos dependendo de onde eles se encontram nessa faixa, com aqueles que consomem menos energia recebendo a classificação mais alta. Este sistema simples pode ajudar os usuários a escolher os modelos mais apropriados para seu caso de uso rapidamente. Espera-se que uma maior transparência também incentive os desenvolvedores de modelos a considerar o uso de energia como um parâmetro importante, resultando em uma redução em toda a indústria nas emissões de gases de efeito estufa.

Corredor em uma sala de servidores do centro aata com racks de servidores

Ferramentas para quantificar o uso de energia da IA ​​podem melhorar a eficiência e a sustentabilidade. Crédito: Getty

Nosso benchmarking inicial foca em um conjunto de modelos de código aberto hospedados no Hugging Face, um repositório líder para modelos de IA. Embora alguns dos chatbots amplamente usados ​​lançados pelo Google e OpenAI ainda não façam parte do nosso conjunto de testes, esperamos que empresas privadas participem do benchmarking de seus modelos proprietários à medida que o interesse do consumidor no tópico cresce.

A avaliação

Um único modelo de IA pode ser usado para uma variedade de tarefas — variando de resumo a reconhecimento de fala — então nós selecionamos um conjunto de dados para refletir esses diversos casos de uso. Por exemplo, para detecção de objetos, nós recorremos ao COCO 2017 ao Visual Genome — ambos conjuntos de dados de avaliação estabelecidos usados ​​para pesquisa e desenvolvimento de modelos de IA — assim como o conjunto de dados Plastic in River , composto de exemplos anotados de objetos plásticos flutuantes em cursos d’água.

Nós decidimos por dez maneiras populares nas quais a maioria dos consumidores usa modelos de IA, por exemplo, como um chatbot de resposta a perguntas ou para geração de imagens. Então, extraímos uma amostra representativa do conjunto de dados de avaliação específica da tarefa. Nosso objetivo era medir a quantidade de energia consumida para responder a 1.000 consultas. O pacote de código aberto CodeCarbon foi usado para rastrear a energia necessária para calcular as respostas. Os experimentos foram realizados executando o código em unidades de processamento gráfico NVIDIA de última geração, refletindo configurações de implantação baseadas em nuvem usando hardware especializado, bem como nas unidades de processamento central de computadores disponíveis comercialmente.

Em nosso conjunto inicial de experimentos, avaliamos mais de 200 modelos de código aberto da plataforma Hugging Face, escolhendo os 20 mais populares (por número de downloads) para cada tarefa. Nossas descobertas iniciais mostram que tarefas envolvendo classificação e geração de imagens geralmente resultam em emissões de carbono milhares de vezes maiores do que aquelas envolvendo apenas texto (veja ‘Pegada energética da IA’). Indústrias criativas que consideram a adoção em larga escala da IA, como a produção de filmes, devem tomar nota.

Pegada energética da IA. Um gráfico de dispersão mostrando a energia total consumida por vários modelos para cinco tarefas diferentes, como geração de imagem e reconhecimento automático de fala. A unidade do eixo x é watt-hora. A geração de imagem consome mais energia e a média é semelhante a um laptop funcionando por 20 horas.

Fonte: Análise não publicada por S. Luccioni et al. / Projeto AI Energy Star

Dentro do nosso conjunto de amostra, o modelo de perguntas e respostas mais eficiente usou aproximadamente 0,1 watt-hora (aproximadamente a energia necessária para alimentar uma lâmpada incandescente de 25 W por 5 minutos) para processar 1.000 perguntas. O modelo de geração de imagens menos eficiente, por outro lado, exigiu até 1.600 Wh para criar 1.000 imagens de alta definição — essa é a energia necessária para carregar totalmente um smartphone aproximadamente 70 vezes , totalizando uma diferença de 16.000 vezes. À medida que milhões de pessoas integram modelos de IA em seu fluxo de trabalho, as tarefas em que eles os implantam serão cada vez mais importantes.

Em geral, tarefas supervisionadas como responder perguntas ou classificar textos — nas quais os modelos recebem um conjunto de opções para escolher ou um documento que contém a resposta — são muito mais eficientes em termos de energia do que tarefas generativas que dependem dos padrões aprendidos dos dados de treinamento para produzir uma resposta do zero 3 . Além disso, tarefas de sumarização e classificação de texto usam relativamente pouca energia, embora deva ser observado que quase todos os casos de uso que envolvem grandes modelos de linguagem são mais intensivos em energia do que uma pesquisa no Google (consultar um chatbot de IA uma vez usa cerca de dez vezes a energia necessária para processar uma solicitação de pesquisa na web).

Essas classificações podem ser usadas por desenvolvedores para escolher arquiteturas de modelos mais eficientes para otimizar o uso de energia. Isso já é possível, como mostrado por nossos testes ainda não publicados em modelos de tamanhos semelhantes (determinados com base no número de conexões na rede neural). Para uma tarefa específica, como geração de texto, um modelo de linguagem chamado OLMo-7B, criado pelo Allen Institute em Seattle, Washington, consumiu 43 Wh para gerar 1.000 respostas de texto, enquanto o Gemma-7B do Google e um chamado Yi-6B LLM, da empresa 01.AI, sediada em Pequim, usaram 53 Wh e 147 Wh, respectivamente.

Com uma gama de opções já existentes, classificações por estrelas baseadas em classificações como a nossa podem levar os desenvolvedores de modelos a reduzir sua pegada energética. Da nossa parte, lançaremos um site de classificação de estrelas de IA Energy Star, juntamente com uma plataforma de testes centralizada que pode ser usada para comparar e referenciar modelos conforme eles forem lançados. Os limites de energia para cada classificação por estrelas mudarão se a indústria se mover na direção certa. É por isso que pretendemos atualizar as classificações rotineiramente e oferecer aos usuários e organizações uma métrica útil, além do desempenho, para avaliar quais modelos de IA são os mais adequados.

As recomendações

Para atingir um progresso significativo, é essencial que todos os stakeholders tomem medidas proativas para garantir o crescimento sustentável da IA. As recomendações a seguir fornecem algumas orientações específicas para a variedade de players envolvidos.

Envolva os desenvolvedores. Pesquisadores e desenvolvedores de IA estão no centro da inovação neste campo. Ao considerar a sustentabilidade durante todo o ciclo de desenvolvimento e implantação, eles podem reduzir significativamente o impacto ambiental da IA ​​desde o início. Para tornar uma prática padrão medir e compartilhar publicamente o uso de energia dos modelos (por exemplo, em um “cartão de modelo” que define informações como dados de treinamento, avaliações de desempenho e metadados), é essencial envolver os desenvolvedores.

Impulsione o mercado em direção à sustentabilidade. Empresas e desenvolvedores de produtos desempenham um papel crucial na implantação e uso comercial de tecnologias de IA. Seja criando um produto autônomo, aprimorando software existente ou adotando IA para processos comerciais internos, esses grupos geralmente são tomadores de decisão importantes na cadeia de valor de IA. Ao exigir modelos de eficiência energética e definir padrões de aquisição, eles podem impulsionar o mercado em direção a soluções sustentáveis. Por exemplo, eles podem definir expectativas básicas (como exigir que os modelos alcancem pelo menos duas estrelas de acordo com o esquema AI Energy Star) ou apoiar a legislação de IA sustentável.

Fortalecer a regulamentação e a governança. Os formuladores de políticas têm autoridade para tratar a sustentabilidade como um critério obrigatório no desenvolvimento e na implantação de IA. Com exemplos recentes de legislação que pede transparência do impacto da IA ​​na União Europeia e nos Estados Unidos , os formuladores de políticas já estão se movendo em direção a uma maior responsabilização. Isso pode ser inicialmente voluntário, mas eventualmente os governos podem regular a implantação do sistema de IA com base na eficiência dos modelos subjacentes.

Os reguladores podem adotar uma visão panorâmica , e sua contribuição será crucial para criar padrões globais. Também pode ser importante estabelecer autoridades independentes para rastrear mudanças no consumo de energia da IA ​​ao longo do tempo.

Fazendo um balanço

Claramente, muito mais precisa ser feito para colocar um regime regulatório adequado em prática antes que a adoção em massa da IA ​​se torne uma realidade (veja go.nature.com/4dfp1wb ). O projeto AI Energy Star é um pequeno começo e pode ser refinado ainda mais. Atualmente, não contabilizamos as despesas gerais de energia gastas em armazenamento e rede de modelos, bem como o resfriamento do data center, que pode ser medido apenas com acesso direto às instalações da nuvem. Isso significa que nossos resultados representam o limite inferior do consumo geral de energia dos modelos de IA, que provavelmente dobrará 4 se a despesa geral associada for levada em consideração.

Como o uso de energia se traduz em emissões de carbono também dependerá de onde os modelos são finalmente implantados e da mistura de energia disponível naquela cidade ou vila. O maior desafio, no entanto, continuará sendo a impenetrabilidade do que está acontecendo no ecossistema de modelos proprietários. Os reguladores governamentais estão começando a exigir acesso a modelos de IA, especialmente para garantir a segurança. Maior transparência é urgentemente necessária porque os modelos proprietários são amplamente implantados em configurações voltadas para o usuário.

O mundo está agora em um ponto de inflexão fundamental. As decisões que estão sendo tomadas hoje repercutirão por décadas, à medida que a tecnologia de IA evolui junto com um clima planetário cada vez mais instável. Esperamos que o projeto Energy Star sirva como um ponto de partida valioso para enviar uma forte demanda de sustentabilidade por toda a cadeia de valor de IA.

Natureza 632 , 736-738 (2024)

doi: https://doi.org/10.1038/d41586-024-02680-3

Isenção de responsabilidade: todos os experimentos e processamento de dados foram realizados pela Hugging Face, e a Hugging Face hospeda todos os dados relacionados a esta pesquisa.

Referências

  1. Agência Internacional de Energia. Eletricidade 2024 (IEA, 2024).

  2. IPCC. Mudanças Climáticas 2022: Mitigação das Mudanças Climáticas. Contribuição do Grupo de Trabalho III para o Sexto Relatório de Avaliação do Painel Intergovernamental sobre Mudanças Climáticas (eds Shukla, PR et al. ) (Cambridge Univ. Press, 2023).

  3. Luccioni, AS, Jernite, Y. & Strubell, E. em Proc. Conferência ACM 2024. Justiça, conta. Transpar. 85–99 (ACM, 2024).

  4. Luccioni, AS, Viguier, S. & Ligozat, AR J. Machin. Aprender. Res. 24 , 253 (2023).


Fonte: Nature

Chegamos aos limites da altmetria?

A IA aumenta tanto o risco de manipulação deliberada de métricas quanto o ruído geral no sistema de publicação acadêmica

almetria

Por David Stuart para a Research Information

Tem sido fascinante observar o crescimento das altmetrias e outras métricas da web nos últimos 20 anos. Eles deixaram de ser uma curiosidade ociosa e passaram a ser incorporados nas páginas da web de algumas das maiores universidades e editoras acadêmicas do mundo.

Os desenvolvimentos tecnológicos, a normalização e um interesse crescente em métricas alternativas significam que as informações sobre o número de visualizações ou menções nas redes sociais que uma publicação recebeu são frequentemente anunciadas com ousadia juntamente com outras métricas mais estabelecidas.

Contudo, o sucesso passado não é um indicador de crescimento futuro e a web está em constante mudança. O maior disruptor da Web hoje é, sem dúvida, a inteligência artificial (IA) e, embora a extensão total do seu impacto futuro seja atualmente desconhecida, uma questão que levanta é se atingimos os limites da altmetria.

O fascínio das métricas

Num mundo em rápida mudança, as métricas apelam à objectividade. Quer sejam usados ​​para avaliação, motivação ou celebração, oferecem a promessa de algo mais sólido do que a mera opinião individual. Durante muito tempo, na publicação académica, as métricas dominantes basearam-se em citações e, embora as limitações da análise de citações sejam amplamente reconhecidas, muitas vezes sente-se que, ao agregar e normalizar as citações de diferentes maneiras, podem indicar algo de valor.

A mudança para a publicação online, no entanto, aumentou muito as métricas disponíveis. A rica variedade de dados em tempo real sobre o uso de uma publicação e a ascensão da altmetrics nas mídias sociais prometiam fornecer uma compreensão mais rápida e mais matizada do impacto que a pesquisa estava tendo, além do âmbito acadêmico e além das publicações formais.

As publicações informais são, no entanto, mais abertas à manipulação do que as publicações formais, e parece que, no momento em que a altmetria começa a ganhar uma aceitação mais ampla, a sua legitimidade pode ser prejudicada. Até agora, os problemas de manipulação têm sido mínimos, mas com a IA o risco é que tais métricas informais possam rapidamente perder o sentido.

O desafio da IA

A IA aumenta tanto o risco de manipulação deliberada de métricas como o ruído geral no sistema de publicação científica.

Todas as métricas estão abertas à manipulação e é inevitável que indivíduos e organizações sejam incitados a agir de forma a obter a impressão mais favorável. Como afirma a lei econômica de Goodhart: “Quando uma medida se torna uma meta, deixa de ser uma boa medida”. Embora as consequências negativas das métricas na publicação académica possam não ser tão imediatamente aparentes como quando um médico só quer atender pacientes com resultados favoráveis, ou a polícia apenas regista crimes que são facilmente resolvidos, uma ênfase excessiva nas métricas corre o risco de minar o sistema. O problema das fábricas de papel que produzem artigos de investigação que são posteriormente retirados também tem aumentado recentemente, e o problema só deverá aumentar à medida que as melhorias na IA generativa tornarem cada vez mais difícil a identificação de tais artigos. No entanto, na publicação académica ainda existem muitas verificações humanas, poucas das quais se aplicam à altmetria.

A história das métricas da web tem sido uma das duas: a crescente facilidade com que as métricas podem ser coletadas e com que podem ser manipuladas. Quando comecei a contar objetos na web, quase 20 anos atrás, a unidade de escolha para ser contada era o hiperlink. Embora qualquer um pudesse ter criado vários sites com domínios diferentes para aumentar o impacto de sua presença online, o custo em tempo e dinheiro, e o pouco interesse em métricas da web na comunidade acadêmica, significava que o tempo da maioria das pessoas seria melhor gasto criando melhores publicações acadêmicas. A padronização dos grandes sites de mídia social, no entanto, proporcionou maior interesse em métricas da web e também reduziu a barreira para criar um impacto online. Não era mais necessário criar vários sites, apenas perfis diferentes em várias plataformas de mídia social. O custo, em grande parte, foi reduzido a zero, tudo o que era necessário era tempo. Com a IA, no entanto, o tempo envolvido também pode ser reduzido a zero, pelo menos após a configuração inicial.

Não é difícil imaginar um momento no futuro próximo em que, se você quiser gerar cem ou até mil contas de microblog para divulgar a qualidade de sua pesquisa, você poderá simplesmente pedir a um programa de IA generativo para fazer isso em seu nome. Não será necessário selecionar cuidadosamente a imagem de cada conta para distingui-las dos spambots, mas o conteúdo será gerado automaticamente. Você pode ficar um pouco irritado ao descobrir que os insights artificiais ganham mais seguidores do que suas postagens cuidadosamente selecionadas, mas o rápido aumento da pontuação de atenção sem dúvida aliviará a dor.

Nem todo o barulho será deliberado. À medida que o conteúdo é cada vez mais criado automaticamente, a ideia de que partes de conteúdo podem ser contadas como se cada uma tivesse sido criada como um ato individual de um ser humano tornar-se-á cada vez mais falha. Proporções cada vez maiores da web vêm com um aviso de que “esta página foi criada automaticamente com a ajuda da IA”, e tais secções crescerão inevitavelmente mais rapidamente do que as porções criadas por humanos. Como a criação de conteúdo é cada vez mais baseada em outros conteúdos já criados, a vantagem de ser o primeiro artigo mencionado sobre um assunto será cada vez mais difícil de superar.

Com uma distribuição de atenção cada vez mais distorcida, torna-se também cada vez mais importante garantir que as menções sejam associadas ao documento académico correto. A atribuição errada de menções académicas e as flutuações resultantes nas métricas só deverão aumentar à medida que mais dados forem gerados automaticamente.

O fim da altmetria?

À primeira vista, parece que o uso cada vez maior de IA generativa inevitavelmente anunciará o fim da altmetria, mas isso só se todo o resto permanecer igual. Sem dúvida, não será.

Os sites e serviços de mídia social também provavelmente mudarão de várias maneiras. Pode ser que os sites de redes sociais gratuitos sejam evitados em favor de serviços de subscrição ou distribuídos, onde existem maiores restrições à geração de conteúdos, permitindo-lhes formar a base de métricas novas e mais robustas. O interesse no impacto acadêmico sobre um serviço genérico como o X pode ser substituído pelo interesse apenas em contas verificadas ou em servidores selecionados que fazem parte de uma rede distribuída.

Também parece provável que amplie o interesse em métricas da web além da altmetria. Há uma ampla gama de insights que podem ser obtidos na web, ou em cantos dela, desde a análise do que as atividades de pesquisa das pessoas no Google Trends nos dizem sobre o estado da sociedade até como os links entre sites fornecem insights sobre relacionamentos no mundo real e o robustez de uma economia local. No entanto, muitas vezes estas alternativas têm sido marginalizadas com enfoque em métricas avaliativas de grande escala.

Conclusão

As métricas da Web sempre tiveram que se adaptar à medida que novas tecnologias surgiram e, embora a IA sem dúvida ponha fim a uma era de altmetria, novas áreas de investigação surgirão sem dúvida. A inclusão de uma série de literatura cinzenta e citações de patentes que anteriormente teriam sido excluídas da bibliometria provavelmente continuará, mas a ideia de que pode capturar significativamente conteúdo informal em escala superior a essa pode ser cada vez mais duvidosa.

As métricas da Web sempre tiveram bases mais suaves do que a bibliometria, mais propensas a insights ilícitos que são interessantes em vez de confiáveis, e isso pode não ser uma coisa ruim se isso for o máximo que podem acontecer. As métricas avaliativas têm frequentemente um impacto negativo, especialmente quando lhes é dada demasiada credibilidade, pelo que controlar as altmetrias no momento em que estão a ganhar interesse não é necessariamente uma coisa má.

++++++++++++++++++++++

David Stuart é autor do recentemente publicado Web Metrics for Library and Information Professionals (2ª edição ),  que mostra que há muito mais em métricas da web do que altmetria.


Fonte:  Research Information

Wiley fecha 19 revistas acadêmicas em meio a problemas de uso de IA em fábricas de artigos científicos falsos

Ciência falsa desafia editoras científicas

transferir

Por Thomas Claburn para o “The Register”

A editora norte-americana Wiley descontinuou esta semana 19 revistas científicas supervisionadas pela sua subsidiária Hindawi, centro de um escândalo de publicação académica de longa data.

Em dezembro de 2023, a Wiley anunciou que deixaria de usar a marca Hindawi, adquirida em 2021 , após sua decisão em maio de 2023 de fechar quatro de suas revistas “para mitigar a manipulação sistemática do processo de publicação”.

Descobriu-se que as revistas de Hindawi publicam artigos de fábricas de artigos científicos –  que são organizações ou grupos de indivíduos que tentam subverter o processo de publicação acadêmica para obter ganhos financeiros. Nos últimos dois anos, disse um porta-voz da Wiley ao The Register , a editora retirou mais de 11.300 artigos de seu portfólio Hindawi.

Conforme descrito em um white paper de autoria de Wiley publicado em dezembro de 2023, “Combatendo a manipulação de publicação em escala: a jornada de Hindawi e lições para publicação acadêmica”, as fábricas de papel dependem de várias práticas antiéticas – como o uso de IA na fabricação de manuscritos e manipulações de imagens, e manipular o processo de revisão por pares.

O caso Hindawi coincidiu com a saída do presidente e CEO da Wiley, Brian Napack, em outubro de 2023. Em seu relatório de lucros fiscais do segundo trimestre de 2024  em dezembro passado, a Wiley admitiu que seu declínio de US$ 18 milhões na receita de publicação de pesquisas foi “principalmente devido à perturbação nas publicações da Hindawi .”

Em janeiro, Wiley assinou o United2Act – uma iniciativa da indústria para combater as fábricas de artigos científicos.

Mas a preocupação com a integridade da investigação acadêmica não se limita às publicações da Wiley. Um estudo publicado na revista Nature em julho de 2023 sugere que até um quarto dos ensaios clínicos são problemáticos ou totalmente inventados.

A crescente disponibilidade e sofisticação da IA ​​generativa não é o único factor que contribui para a crise da publicação académica, mas as ferramentas de IA facilitam a falsificação.

“A indústria reconhece que a IA é utilizada pelas fábricas de papel para gerar conteúdo fraudulento”, disse-nos o porta-voz de Wiley. “Recentemente, introduzimos uma nova tecnologia de triagem que ajuda a identificar artigos com potencial uso indevido de Inteligência Artificial (IA) generativa antes do ponto de publicação”.

De acordo com um artigo pré-impresso divulgado em fevereiro, o volume de artigos submetidos ao ArXiv aumentou consideravelmente nas três principais categorias entre 2019 e 2023 – período que coincide aproximadamente com a estreia de ferramentas como o ChatGPT. Os artigos de ciência da computação aumentaram 200% durante esses quatro anos, seguidos pelos artigos de física (45%) e matemática (22%).

Os editores acadêmicos, no entanto, parecem querer os benefícios da assistência para redação de IA, sem as desvantagens. A Springer Nature, por exemplo, lançou em outubro passado o Curie – um assistente de redação com tecnologia de IA destinado a ajudar cientistas cuja primeira língua não é o inglês. Daí a necessidade de melhores ferramentas para detectar resultados generativos de IA – um apelo respondido por esforços recentes para melhorar a marca d’água de conteúdo de IA – que alguns pesquisadores argumentam que não funcionará .

Um porta-voz da Wiley caracterizou a decisão de fechar as 19 revistas como parte do plano anunciado anteriormente para integrar os portfólios da Hindawi e da Wiley, e distinta da questão da fábrica de papel.

“Como parte desta integração, e como é prática padrão, revisamos nosso portfólio de periódicos e decidimos fechar 19 periódicos Hindawi que não atendem mais suas comunidades”, disse o porta-voz ao The Register .

“É importante fazer uma distinção entre os fechamentos de revistas que ocorrem agora como parte da integração de nosso portfólio e as quatro revistas fechadas em maio de 2023. As revistas fechadas em maio de 2023 foram fortemente impactadas pelas fábricas de papel a tal ponto que estavam no melhor interesse da comunidade acadêmica em descontinuá-los imediatamente.”

Enquanto isso, no relatório de ganhos fiscais do terceiro trimestre de 2024 da Wiley , a editora observou que a receita de sua divisão de aprendizagem deverá estar no limite superior das projeções devido aos “acordos de direitos de conteúdo do quarto trimestre para treinamento de modelos de IA”.


color compass

Fonte: The Register