Universidades paulistas definem regras para o uso da IA

Universidades definem regras para o uso da IA • DOL

Por Laura Mattos – Folhapress

Três das principais universidades do país, USP, Unicamp e Unesp estão criando protocolos para o uso da inteligência artificial (IA). Em geral, a regra é a transparência. A utilização da IA deve ser combinada entre professores e alunos e declarada nas pesquisas e nos demais trabalhos acadêmicos. E não basta dizer “Eu usei IA”. O rigor acadêmico exige que sejam listadas quais ferramentas foram utilizadas, detalhando versões e modelos, e de que maneira, reproduzindo até os prompts (comandos para execução de tarefas).

Diante da importância dessas três universidades, o caminho adotado por elas diz respeito não somente às suas comunidades, mas deve servir como referência a outras instituições de ensino, à educação brasileira em geral e até a outras áreas.

Nas universidades, a definição de regras é parte de um projeto maior. A exemplo do que vem ocorrendo em universidades no mundo todo, USP, Unicamp e Unesp estão estruturando departamentos para estabelecer protocolos e diretrizes da IA, coordenar debates, pesquisas e desenvolvimento de ferramentas, além de promover a formação de alunos, professores, funcionários e da comunidade externa.

A Unesp publicou no ano passado a resolução geral e uma portaria para a pós-graduação. Finalizou agora um guia para a graduação, ao qual a Folha de S.Paulo teve acesso, com normas divididas em “O que você PODE fazer”, “O que você NUNCA pode fazer” e “O que você TALVEZ possa fazer”.

Exemplos do que o aluno pode fazer: usar IA para traduzir textos, parafrasear parágrafos e elaborar resumos. E do que nunca pode fazer: submeter trabalhos gerados por IA, de forma integral ou parcial, como se fossem produções originais, usar IA em avaliações sem autorização do professor.

Docentes podem, por exemplo, usar IA para elaborar aulas e auxiliá-los na correção é obrigatório que revisem o resultado. Nunca podem criar materiais didáticos sem revisão humana e sem declarar o uso da IA aos alunos.

O guia orienta que os docentes reflitam com os alunos sobre a IA e estipulem em que fases dos trabalhos ela pode ser utilizada e como. Curiosamente, o guia foi elaborado com a ajuda de IA, trazendo um capítulo para falar sobre isso.

O laboratório deve ser ampliado e se tornar o Instituto de Inovação em Inteligência Artificial (I3A), para coordenar ações e pesquisas na universidade e articular debates e parcerias com a comunidade externa. “Há muitas questões em aberto na sociedade e precisamos achar um equilíbrio no uso dessas ferramentas”, diz. “A Unesp tem muitos cursos de licenciatura, forma professores. Como falar com os alunos sobre IA?”, questiona.

“Não há ferramentas de detecção de IA confiáveis, elas levam ao risco de acusações injustas. Devemos ter outras estratégias para o ensino, como reforçar os projetos, os debates, as questões orais feitas em sala de aula.”


Fonte: Bem Paraná

As empresas de IA vão quebrar, mas podemos salvar parte dos destroços

IA é o amianto nas paredes da nossa sociedade tecnológica, esmagado ali por monopolistas descontrolados. Uma luta séria contra ela deve atingir suas raízes

HR Magazine - Is the AI bubble about to burst?

Por Cory Doctorow para “The Guardian” 

Sou escritor de ficção científica, o que significa que meu trabalho é criar parábolas futuristas sobre nossos atuais arranjos tecno-sociais para questionar não apenas o que um aparelho faz, mas para quem ele faz e para quem faz.

O que eu não faço é prever o futuro. Ninguém pode prever o futuro, o que é bom, pois se o futuro fosse previsível, isso significaria que não poderíamos mudá-lo.

Agora, nem todo mundo entende essa distinção. Eles acham que escritores de ficção científica são oráculos. Até alguns dos meus colegas vivem sob a ilusão de que podemos “ver o futuro”.

Depois, há os fãs de ficção científica que acreditam que estão lendo o futuro. Um número deprimente dessas pessoas parece ter se tornado irmãos da Inteligência Artificial (IA). Esses caras não param de falar sobre o dia em que sua máquina apimentada de autopreenchimento vai acordar e transformar todos nós em clipes de papel, o que levou muitos jornalistas e organizadores de conferências confusos a tentarem me convencer a comentar sobre o futuro da IA.

Isso era algo que eu costumava resistir veementemente a fazer, porque perdi dois anos da minha vida explicando pacientemente e repetidamente por que achava a cripto estúpida, e sendo incessantemente criticado por cultistas das criptomoedas que, no começo, insistiam que eu simplesmente não entendia cripto. E então, quando deixei claro que entendia de cripto, eles insistiram que eu devia ser um agente pago.

Isso é literalmente o que acontece quando você discute com cientologistas, e a vida é curta demais. Dito isso, as pessoas não paravam de perguntar – então vou explicar o que penso sobre IA e como ser um bom crítico de IA. Com isso quero dizer: “Como ser um crítico cuja crítica causa o máximo de dano às partes da IA que estão causando mais dano.”


Pessoa vigiada por olhos dentro das janelas do computador

Um exército de centauros reversos

Na teoria da automação, um “centauro” é uma pessoa assistida por uma máquina. Dirigir um carro faz de você um centauro, assim como usar o autocompletado.

Um centauro reverso é uma cabeça de máquina em um corpo humano, uma pessoa que serve como um apêndice de carne mole para uma máquina indiferente.

Por exemplo, um entregador da Amazon, que fica em uma cabine cercada por câmeras de IA que monitoram os olhos do motorista e retiram pontos se ele olhar em uma direção prescrita, e monitora a boca do motorista porque cantar não é permitido no trabalho, e dedura o motorista para o chefe se não cumprir a cota.

O motorista está nessa van porque ela não consegue dirigir sozinha e não consegue levar um pacote da calçada até a sua varanda. O motorista é um periférico para uma van, e a van conduz o motorista em velocidade sobre-humana, exigindo resistência sobre-humana.

Obviamente, é bom ser um centauro, e é horrível ser um centauro invertido. Existem muitas ferramentas de IA que podem ser muito semelhantes a centauros, mas minha tese é que essas ferramentas são criadas e financiadas com o propósito expresso de criar centauros reversos, o que nenhum de nós quer ser.

Mas, como eu disse, o trabalho de um escritor de ficção científica é fazer mais do que pensar no que o gadget faz, e aprofundar para quem ele faz isso e para quem ele faz. Os chefes de tecnologia querem que acreditemos que só existe uma forma de uma tecnologia ser usada. Mark Zuckerberg quer que você pense que é tecnologicamente impossível conversar com um amigo sem que ele esteja ouvindo. Tim Cook quer que você pense que é impossível ter uma experiência computacional confiável a menos que ele tenha direito de veto sobre qual software você instala e sem que ele tire 30 centavos de cada dólar que você gasta. Sundar Pichai quer que você pense que é para você encontrar uma página na web, a menos que ele possa te espionar do ânus ao apetite.

Tudo isso é uma espécie de Thatcherismo vulgar. O mantra de Margaret Thatcher era: “Não há alternativa.” Ela repetia isso tantas vezes que a chamavam de “Tina” Thatcher: Pronto. É. Não. Alternativa.

“Não há alternativa” é uma ofensa retórica barata. É uma exigência disfarçada de observação. “Não há alternativa” significa: “pare de tentar pensar em uma alternativa.”

Sou escritora de ficção científica – meu trabalho é pensar em uma dúzia de alternativas antes do café da manhã.

Então deixe-me explicar o que acho que está acontecendo aqui com essa bolha de IA e quem o exército dos centauros reversos está servindo, e separar a besteira da realidade material.


a mão de um empresário bombeando uma bolha de arame

Como bombear uma bolha

Comece pelos monopólios: as empresas de tecnologia são gigantescas e não competem, apenas dominam setores inteiros, sozinhos ou em cartéis.

Google e Meta controlam o mercado de publicidade. Google e Apple controlam o mercado móvel, e o Google paga à Apple mais de 20 bilhões de dólares por ano para não criar um motor de busca concorrente, e, claro, o Google tem 90% de participação no mercado de buscas.

Agora, você pensaria que isso seria uma boa notícia para as empresas de tecnologia, que dominam todo o seu setor.

Mas na verdade é uma crise. Veja, quando uma empresa está crescendo, ela é uma “ação de crescimento”, e os investidores realmente gostam de ações de crescimento. Quando você compra uma ação em uma ação de crescimento, está apostando que ela continuará crescendo. Portanto, as ações de crescimento negociam a um múltiplo enorme de seus lucros. Isso é chamado de “razão preço/lucro” ou “razão PE”.

Mas, uma vez que uma empresa para de crescer, ela se torna uma ação “madura” e negocia com um índice de lucro muito menor. Então, para cada dólar que a Target – uma empresa madura – arrecada, vale $10. Ele tem um índice de investimento (PE) de 10, enquanto a Amazon tem um índice de custo (PE) de 36, o que significa que para cada dólar que a Amazon arreca, o valor de mercado é de $36.

É maravilhoso administrar uma empresa que tem uma ação de crescimento. Suas ações valem tanto quanto dinheiro. Se quiser comprar outra empresa ou contratar um trabalhador-chave, pode oferecer ações em vez de dinheiro. E ações são muito fáceis para as empresas conseguirem, porque as ações são fabricadas ali mesmo, tudo o que você precisa fazer é digitar alguns zeros em uma planilha, enquanto dólares são muito mais difíceis de conseguir. Uma empresa só pode receber dólares de clientes ou credores.

Então, quando a Amazon faz lance contra a Target por uma aquisição ou contratação de chave, a Amazon pode dar lances com ações que ganha digitando zeros em uma planilha, e a Target só pode dar lances com dólares que ganha vendendo coisas para nós ou fazendo empréstimos, por isso a Amazon geralmente vence essas guerras de lances.

Esse é o lado positivo de ter uma ação de crescimento. Mas aqui está o lado negativo: eventualmente uma empresa precisa parar de crescer. Por exemplo, se você tiver 90% de participação de mercado no seu setor, como você vai crescer?

Se você é executivo em uma empresa dominante com uma ação em crescimento, precisa viver com medo constante de que o mercado decida que você provavelmente não crescerá mais. Pense no que aconteceu com o Facebook no primeiro trimestre de 2022. Eles disseram aos investidores que tiveram um crescimento um pouco mais lento nos EUA do que haviam previsto, e os investidores entraram em pânico. Eles realizaram uma venda de um dia, no valor de 240 bilhões de dólares. Um quarto de trilhão de dólares em 24 horas! Na época, foi a maior e mais acentuada queda na avaliação corporativa da história humana.

Esse é o pior pesadelo de um monopolista, porque uma vez que você está comandando uma empresa “madura”, os funcionários-chave com que você tem compensado passam por uma queda acentuada nos salários e fogem para sair, então você perde as pessoas que poderiam ajudar a crescer novamente, e só pode contratar seus substitutos com dinheiro – não ações.

Esse é o paradoxo do capital de crescimento. Enquanto você está crescendo para dominar, o mercado te ama, mas uma vez que você alcança a dominância, o mercado perde 75% ou mais seu valor de uma só vez se não confiar no seu poder de precificação.

Por isso, as empresas de ações de crescimento estão sempre desesperadamente inflando uma bolha ou outra, gastando bilhões para promover a transição para vídeo, criptomoedas, NFTs, metaverso ou IA.

Não estou dizendo que os chefes de tecnologia estão fazendo apostas que não planejam ganhar. Mas vencer a aposta – criar um metaverso viável – é o objetivo secundário. O objetivo principal é manter o mercado convencido de que sua empresa continuará crescendo, e permanecer convencido até que a próxima bolha apareça.

É por isso que eles estão promovendo a IA: a base material para centenas de bilhões em investimentos em IA.


uma mão de arame segurando uma bolsa de dinheiro

IA não pode fazer seu trabalho

Agora quero falar sobre como eles estão vendendo IA. A narrativa de crescimento da IA é que a IA vai desestabilizar os mercados de trabalho. Eu uso “disrupt” aqui no sentido mais desrespeitável de ‘tech-bro’.

A promessa da IA – a promessa que as empresas de IA fazem aos investidores – é que haverá IA capaz de fazer seu trabalho, e quando seu chefe te demitirá e te substituir por IA, ele ficará com metade do seu salário para si e dará a outra metade para a empresa de IA.

Essa é a história de crescimento de 13 bilhões de dólares que Morgan Stanley está contando. É por isso que grandes investidores estão dando às empresas de IA centenas de bilhões de dólares. E como estão se acumulando, os normies também estão sendo sugados, arriscando suas economias de aposentadoria e a segurança financeira da família.

Agora, se a IA pudesse fazer seu trabalho, isso ainda seria um problema. Teríamos que descobrir o que fazer com todas essas pessoas desempregadas.

Mas a IA não pode fazer seu trabalho. Isso pode ajudar você a fazer seu trabalho, mas isso não significa que vai economizar dinheiro para alguém.

Pegue a radiologia: há algumas evidências de que a IA às vezes pode identificar tumores de massa sólida que alguns radiologistas não percebem. Olha, eu tenho câncer. Felizmente, é muito tratável, mas tenho interesse em que a radiologia seja o mais confiável e precisa possível.

Digamos que meu hospital comprou algumas ferramentas de radiologia com IA e disse aos radiologistas: “Pessoal, aqui está o negócio. Hoje, você está processando cerca de 100 raios-X por dia. De agora em diante, vamos obter uma segunda opinião instantânea da IA, e se a IA achar que você deixou passar um tumor, queremos que você volte e dê outra olhada, mesmo que isso signifique que você processe apenas 98 raios-X por dia. Tudo bem, só nos importamos em encontrar todos esses tumores.”

Se foi isso que disseram, eu ficaria encantado. Mas ninguém está investindo centenas de bilhões em empresas de IA porque acham que a IA vai encarecer a radiologia, nem mesmo que isso também torne a radiologia mais precisa. A aposta do mercado na IA é que um vendedor de IA vai visitar o CEO da Kaiser e fazer esta proposta: “Olha, você demite nove em cada dez radiologistas, economizando 20 milhões de dólares por ano. Você nos dá 10 milhões de dólares por ano, e ganha 10 milhões por ano, e o trabalho dos radiologistas restantes será supervisionar os diagnósticos que a IA faz em velocidade sobre-humana – e de alguma forma permanecer vigilantes enquanto o fazem, apesar de a IA geralmente estar certa, exceto quando está catastróficamente errada.

“E se a IA não detectar um tumor, a culpa será do radiologista humano, porque ele é o ‘humano no loop’. É a assinatura deles no diagnóstico.”

Este é um centauro invertido, e é um tipo específico de centauro reverso: é o que Dan Davies chama de “sumidouro de responsabilidade”. O trabalho do radiologista não é realmente supervisionar o trabalho da IA, mas sim assumir a culpa pelos erros da IA.

Essa é outra chave para entender – e, assim, esvaziar – a bolha da IA. A IA não consegue fazer seu trabalho, mas um vendedor de IA pode convencer seu chefe a te demitir e te substituir por uma IA que não consegue fazer seu trabalho. Isso é fundamental porque nos ajuda a construir os tipos de coalizões que terão sucesso na luta contra a bolha da IA.

Se você é alguém preocupado com câncer e está ouvindo que o preço de tornar a radiologia barata demais para medir é que teremos que realocar os 32.000 radiologistas americanos, com a troca de que ninguém jamais será negado de serviços de radiologia novamente, você pode dizer: “Bem, ok, sinto muito por esses radiologistas, e eu apoio totalmente conseguir para eles treinamento profissional, RBU ou qualquer outra forma. Mas o objetivo da radiologia é combater o câncer, não pagar radiologistas, então eu sei de que lado estou.”

Os charlatãs de IA e seus clientes na alta direção querem o público do seu lado. Eles querem forjar uma aliança de classes entre os deployers de IA e as pessoas que desfrutam dos frutos do trabalho dos centauros reversos. Eles querem que nos vejamos como inimigos dos trabalhadores.

Agora, algumas pessoas estarão do lado dos trabalhadores por questões políticas ou estéticas. Mas se você quer conquistar todas as pessoas que se beneficiam do seu trabalho, precisa entender e enfatizar como os produtos da IA serão de qualidade inferior. Que eles vão ser cobrados mais por coisas piores. Que eles têm um interesse material compartilhado com você.

Esses produtos serão de qualidade inferior? Há todos os motivos para pensar assim.

Pense na geração de software de IA: há muitos programadores que adoram usar IA. Usar IA para tarefas simples pode realmente torná-las mais eficientes e dar mais tempo para fazerem a parte divertida da programação, ou seja, resolver quebra-cabeças realmente complexos e abstratos. Mas quando você ouve líderes empresariais falando sobre seus planos de IA para programadores, fica claro que eles não esperam criar alguns centauros.

Eles querem demitir muitos trabalhadores de tecnologia – 500.000 nos últimos três anos – e fazer o restante continuar o trabalho de programação, o que só é possível se você deixar a IA fazer toda a resolução criativa e elaborada de problemas, e aí você fizer a parte mais entediante e esmagadora do trabalho: revisar o código da IA.

E como a IA é apenas um programa de adivinhação de palavras, porque tudo o que ela faz é calcular a palavra mais provável a ser seguida, os erros que ela comete são especialmente sutis e difíceis de detectar, porque esses bugs são quase indistinguíveis de código funcionando.

Por exemplo: programadores rotineiramente usam “bibliotecas de código” padrão para lidar com tarefas rotineiras. Digamos que você queira que seu programa absorva um documento e faça algum sentido disso – encontre todos os endereços, por exemplo, ou todos os números dos cartões de crédito. Em vez de escrever um programa para dividir um documento em suas partes constituintes, você simplesmente pega uma biblioteca que faz isso para você.

Essas bibliotecas vêm em famílias e têm nomes previsíveis. Se for uma biblioteca para puxar um arquivo html, pode ser chamada de algo como lib.html.text.parsing; E se for um arquivo FOR DOCX, será lib.docx.text.parsing.

Mas a realidade é bagunçada, os humanos são desatentos e as coisas dão errado, então às vezes há outra biblioteca, digamos, uma para análise de PDFs, e em vez de ser chamada de lib.pdf.text.parsing, ela se chama lib.text.pdf.parsing. Alguém acabou de digitar um nome de biblioteca errado e ele ficou. Como eu disse, o mundo é bagunçado.

Now, AI is a statistical inference engine. All it can do is predict what word will come next based on all the words that have been typed in the past. That means that it will “hallucinate” a library called lib.pdf.text.parsing, because that matches the pattern it’s already seen. And the thing is, malicious hackers know that the AI will make this error, so they will go out and create a library with the predictable, hallucinated name, and that library will get automatically sucked into the AI’s program, and it will do things like steal user data or try to penetrate other computers on the same network.

And you, the human in the loop – the reverse centaur – you have to spot this subtle, hard-to-find error, this bug that is indistinguishable from correct code. Now, maybe a senior coder could catch this, because they have been around the block a few times, and they know about this tripwire.

Mas adivinha quem os chefes de tecnologia querem demitir preferencialmente e substituir por IA? Programadores seniores. Aqueles trabalhadores tagarelas, arrogantes, extremamente bem pagos, que não se veem como trabalhadores. Que se veem como fundadores em espera, colegas da alta administração da empresa. O tipo de programador que lideraria uma greve por causa da empresa que construiu sistemas de mira de drones para o Pentágono, que custou ao Google 10 bilhões de dólares em 2018.

Para que a IA seja valiosa, ela precisa substituir os trabalhadores de alta remuneração, e são justamente esses trabalhadores que podem perceber alguns desses erros estatisticamente camuflados da IA.

Se você pode substituir programadores por IA, quem não pode substituir por IA? Demitir programadores é um anúncio de IA.

O que me leva à arte – ou “arte” – que é frequentemente usada como um anúncio para IA, mesmo que não faça parte do modelo de negócios da IA.

Deixe-me explicar: em média, ilustradores não ganham dinheiro. Eles já são um dos grupos de trabalhadores mais miseráveis e precários que existem. Se geradores de imagens por IA tirassem todo ilustrador que trabalha hoje sem emprego, a economia resultante na massa salarial seria indetectável como parte de todos os custos associados ao treinamento e operação de geradores de imagens. A fatura salarial total dos ilustradores comerciais é menor do que a conta do kombucha para a cafeteria da empresa em apenas um dos campi da OpenAI.

O propósito da arte com IA – e a história da arte com IA como um toque de morte para os artistas – é convencer o público em geral de que a IA é incrível e fará coisas incríveis. É para criar burburinho. O que não quer dizer que não seja repugnante que a ex-CTO da OpenAI, Mira Murati, tenha dito a uma plateia da conferência que “alguns empregos criativos nem deveriam ter existido”.

Dizem que é nojento. Era para fazer os artistas correrem e dizerem: “A IA pode fazer meu trabalho, e vai roubar meu emprego, e isso não é terrível?”

Mas será que a IA pode fazer o trabalho de um ilustrador? Ou qualquer trabalho de artista?

Vamos pensar nisso por um segundo. Sou artista profissional desde os 17 anos, quando vendi meu primeiro conto. Aqui está o que eu acho que a arte é: ela começa com um artista, que tem um sentimento vasto, complexo, numinoso e irredutível em sua mente. E o artista infunde esse sentimento em algum meio artístico. Eles fazem uma canção, um poema, uma pintura, um desenho, uma dança, um livro ou uma fotografia. E a ideia é que, quando você experimenta esse trabalho, uma réplica do grande, numinoso e irredutível sentimento se materializará em sua mente.

Mas o programa de geração de imagens não sabe nada sobre o seu grande, numinoso e irredutível sentimento. A única coisa que ele sabe é o que você coloca no seu prompt, e essas poucas frases são diluídas em um milhão de pixels ou cem mil palavras, de modo que a densidade média comunicativa da obra resultante é indistinguível de zero.

É possível infundir mais intenção comunicativa em uma obra: escrever prompts mais detalhados, ou fazer o trabalho seletivo de escolher entre várias variantes, ou mexer diretamente na imagem da IA depois, com pincel, Photoshop ou o Gimp. E se algum dia existir uma obra de arte de IA que seja boa arte – em vez de meramente marcante, interessante ou um exemplo de bom desenho – será graças a essas infusões adicionais de intenção criativa de um humano.

E, enquanto isso, é arte ruim. É arte ruim no sentido de ser “assustadora”, a palavra que o teórico cultural Mark Fisher usou para descrever “quando há algo presente onde não deveria haver nada, ou não há nada presente quando deveria haver algo”.

A arte de IA é assustadora porque parece haver um pretendente e uma intenção por trás de cada palavra e cada pixel, porque temos uma vida inteira de experiência que nos diz que pinturas têm pintores, e a escrita tem escritores. Mas falta algo. Não tem nada a dizer, ou o que quer que tenha a dizer é tão diluído que é indetectável.


um martelo cravado em um cavalete

Não devemos simplesmente dar de ombros e aceitar o fatalismo do Thatcherismo: “Não há alternativa.”

Então, qual é a alternativa? Muitos artistas e seus aliados acham que têm uma resposta: dizem que devemos estender os direitos autorais para cobrir as atividades associadas ao treinamento de um modelo.

E estou aqui para dizer que eles estão errados. Errado, porque isso representaria uma enorme expansão dos direitos autorais sobre atividades atualmente permitidas – e com razão. Vou explicar:

O treinamento de IA envolve raspar várias páginas da web, o que é inequívocamente legal sob a lei atual de direitos autorais. Em seguida, você realiza uma análise desses trabalhos. Basicamente, você conta as coisas neles: conta pixels, suas cores e proximidade com outros pixels; Ou contar palavras. Obviamente, isso não é algo para o qual você precisa de licença.

E depois de contar todos os pixels ou palavras, é hora da etapa final: publicá-los. Porque é isso que é um modelo: uma obra literária (ou seja, um software) que incorpora um monte de fatos sobre várias outras obras, informações de distribuição de palavras e pixels, codificadas em um arranjo multidimensional.

E, novamente, o direito autoral absolutamente não proíbe você de publicar fatos sobre obras protegidas por direitos autorais. E, novamente, ninguém deveria querer viver em um mundo onde outra pessoa decide quais declarações factuais você pode publicar.

Mas olha, talvez você ache que tudo isso é sofisma. Talvez você ache que eu sou mentira. Tudo bem. Não seria a primeira vez que alguém pensa assim.

Afinal, mesmo que eu esteja certo sobre como os direitos autorais funcionam hoje, não há motivo para não mudarmos direitos autorais para proibir atividades de treinamento, e talvez exista até uma forma inteligente de manipular a lei para que ela só capture coisas ruins que não gostamos, e não todas as coisas boas que vêm da extração, análise e publicação – como motores de busca e pesquisas acadêmicas.

Bem, mesmo assim, você não vai ajudar os criadores criando esse novo direito autoral. Expandimos os direitos autorais de forma monótona desde 1976, de modo que hoje o direito autoral abrange mais tipos de obras, concede direitos exclusivos sobre mais usos e dura mais.

E hoje, a indústria da mídia está maior e mais lucrativa do que nunca, e também – a parcela da renda da indústria da mídia que vai para trabalhadores criativos é menor do que nunca, tanto em termos reais quanto como proporção desses ganhos incríveis feitos pelos chefes dos criadores na empresa de mídia.

Em um mercado criativo dominado por cinco editoras, quatro estúdios, três gravadoras, duas lojas de aplicativos móveis e uma única empresa que controla todos os ebooks e audiolivros, dar a um trabalhador criativo direitos extras para negociar é como dar mais dinheiro para o almoço do seu filho vítima de bullying.

Não importa quanto dinheiro do almoço você dê para o garoto, os valentões vão levar tudo. Dê dinheiro suficiente para essa criança e os valentões contratarão uma agência para conduzir uma campanha global proclamando: “Pense nas crianças famintas! Dê mais dinheiro para o almoço para eles!”

Trabalhadores criativos que torcem por processos movidos por grandes estúdios e gravadoras precisam lembrar da primeira regra da luta de classes: coisas que são boas para seu chefe raramente são o que é bom para você.

Um novo direito autoral para treinar modelos não vai nos proporcionar um mundo onde modelos não sejam usados para destruir artistas, vai apenas nos proporcionar um mundo onde os contratos padrão das poucas empresas que controlam todos os mercados de trabalho criativo sejam atualizados para exigir que entreguemos esses novos direitos de treinamento para essas empresas. Exigir um novo direito autoral só faz de você um útil para seu chefe.

Quando na verdade o que eles estão exigindo é um mundo onde 30% do capital investido das empresas de IA vá para o bolso dos acionistas. Quando um artista está sendo devorado por monopólios vorazes, importa como eles dividem a refeição?

Precisamos proteger os artistas da predação da IA, não apenas criar uma nova forma de os artistas ficarem irritados com sua pobreza.

Incrivelmente, existe uma maneira muito simples de fazer isso. Depois de mais de 20 anos sendo consistentemente errado e terrível para os direitos dos artistas, o Escritório de Direitos Autorais dos EUA finalmente fez algo gloriosamente e maravilhosamente certo. Durante toda essa bolha de IA, o Escritório de Direitos Autorais manteve – corretamente – que obras geradas por IA não podem ser protegidas por direitos autorais, porque os direitos autorais são exclusivamente para humanos. Por isso a “selfie do macaco” está em domínio público. O direito autoral só é concedido a obras de expressão criativa humana fixadas em um meio tangível.

E não apenas o Escritório de Direitos Autorais adotou essa posição, como também a defendeu vigorosamente nos tribunais, vencendo repetidamente decisões para defender esse princípio.

O fato de que toda obra criada por IA está em domínio público significa que, se jornais Getty, Disney, Universal ou Hearst usam IA para gerar obras – qualquer outra pessoa pode pegar essas obras, copiá-las, vendê-las ou doá-las gratuitamente. E a única coisa que essas empresas odeiam mais do que pagar trabalhadores criativos é que outras pessoas peguem suas coisas sem permissão.

A posição do Escritório de Direitos Autorais dos EUA significa que a única forma dessas empresas conseguirem um direito é pagando humanos para fazerem trabalhos criativos. Esta é uma receita para a centauridade. Se você é um artista visual ou escritor que usa prompts para criar ideias ou variações, isso não é problema, porque o trabalho final vem de você. E se você é um editor de vídeo que usa deepfakes para mudar a linha de olhar de 200 figurantes em uma cena de multidão, então claro, esses olhos estão em domínio público, mas o filme permanece protegido por direitos autorais.

Mas trabalhadores criativos não precisam depender do governo dos EUA para nos resgatar de predadores de IA. Podemos fazer isso sozinhos, como os roteiristas fizeram em sua histórica greve dos escritores. Os roteiristas colocaram os estúdios de joelhos. Eles fizeram isso porque são organizados e solidários, mas também têm permissão para fazer algo que praticamente nenhum outro trabalhador pode fazer: podem participar de “negociação setorial”, pela qual todos os trabalhadores de um setor podem negociar um contrato com todos os empregadores do setor.

Isso é ilegal para a maioria dos trabalhadores desde o final dos anos 1940, quando a Lei Taft-Hartley o proibiu. Se vamos fazer campanha para aprovar uma nova lei na esperança de ganhar mais dinheiro e ter mais controle sobre nosso trabalho, devemos lutar para restaurar a negociação setorial, não para expandir os direitos autorais.


uma bolha de arame estourando

Como estourar a bolha

A IA é uma bolha e bolhas são terríveis.

As bolhas transferem as economias de uma vida de pessoas comuns que só querem uma aposentadoria digna para as pessoas mais ricas e antiéticas da nossa sociedade, e toda bolha eventualmente estoura, levando suas economias junto.

Mas nem toda bolha é criada igual. Algumas bolhas deixam algo produtivo. A Worldcom roubou bilhões de pessoas comuns ao enganá-las sobre pedidos de cabos de fibra óptica. O CEO foi preso e morreu lá. Mas a fibra sobreviveu a ele. Ainda está enterrado. Na minha casa, tenho 2GB de fibra simétrica, porque a AT&T iluminou um pouco daquela antiga fibra escura da Worldcom.

Teria sido melhor se a Worldcom nunca tivesse existido, mas a única coisa pior do que a Worldcom cometer toda aquela fraude horrível seria se não houvesse nada a ser salvo dos destroços.

Não acho que vamos salvar muito com as criptomoedas, por exemplo. Quando a cripto morrer, o que ela deixará para trás são uma má economia austríaca e piores jpegs de macaco.

A IA é uma bolha e vai estourar. A maioria das empresas vai fracassar. A maioria dos datacenters será fechada ou vendida para peças. Então, o que ficará para trás?

Teremos vários programadores que são muito bons em estatística aplicada. Teremos muitas GPUs baratas, o que será uma boa notícia para, digamos, artistas de efeitos e cientistas do clima, que poderão comprar esse hardware crítico por uma cópia de centavo. E teremos modelos de código aberto que rodam em hardware comum, ferramentas de IA que podem fazer muitas coisas úteis, como transcrever áudio e vídeo; descrever imagens; resumindo documentos; e automatizar muita edição gráfica trabalhosa – como remover fundos ou retocar fotos de transeuntes. Esses computadores vão rodar em nossos laptops e celulares, e hackers de código aberto vão encontrar maneiras de forçá-los a fazer coisas que seus criadores nunca imaginaram.

Se nunca tivesse existido uma bolha de IA, se tudo isso surgisse apenas porque cientistas da computação e gerentes de produto ficaram alguns anos criando novos aplicativos legais, a maioria das pessoas teria ficado agradavelmente surpresa com essas coisas interessantes que seus computadores podiam fazer. Nós os chamaríamos de “plugins”.

O que é ruim é a bolha, não essas aplicações. A bolha não quer coisas baratas e úteis. Quer coisas caras, “disruptivas”: grandes modelos de fundação que perdem bilhões de dólares todos os anos.

Quando a mania do investimento em IA parar, a maioria desses modelos vai desaparecer, porque simplesmente não será econômico manter os datacenters funcionando. Como diz a lei de Stein: “Tudo que não pode continuar para sempre, eventualmente para.”

O colapso da bolha da IA vai ser feio. Sete empresas de IA atualmente representam mais de um terço do mercado de ações, e elas repassam incessantemente o mesmo depoimento, em cerca de 100 bilhões de dólares.

A IA é o amianto nas paredes da nossa sociedade tecnológica, amontoado ali com abandono selvagem por um setor financeiro e monopolistas tecnológicos desenfreados. Vamos escavá-la por uma geração ou mais.

Para estourar a bolha, precisamos martelar as forças que a criaram: o mito de que a IA pode fazer seu trabalho, especialmente se você recebe salários altos que seu chefe pode recuperar; a compreensão de que empresas em crescimento precisam de uma sucessão de bolhas cada vez mais extravagantes para sobreviver; o fato de que os trabalhadores e o público que eles servem estão de um lado dessa luta, e os patrões e seus investidores do outro lado.

Como a bolha da IA realmente é uma notícia muito ruim, vale a pena lutar seriamente, e uma luta séria contra a IA atinge sua raiz: os fatores materiais que alimentam as centenas de bilhões em capital desperdiçado que estão sendo gastos para nos colocar na linha do pão e encher todas as nossas paredes com amianto de alta tecnologia.

  • Cory Doctorow é autor, ativista e jornalista de ficção científica. Ele é autor de dezenas de livros, mais recentemente Enshittification: Por que Tudo Piorou de Repente e O Que Fazer a Respeito. Este ensaio foi adaptado de uma palestra recente sobre seu próximo livro, The Reverse Centaur’s Guide to Life After AI, que será lançado em junho

  • Ilustrações pontuais por Brian Scagnelli


Fonte: The Guardian

‘Uma quantidade inacreditável de poluição’: qual é a dimensão da ameaça da IA ​​para o clima?

Defensores da IA ​​afirmam que ela pode contribuir para o combate à crise climática. No entanto, o aumento vertiginoso dos custos de energia e água preocupa os especialistas

Um computador de grande porte consumindo toda a energia de um reservatório.

O custo ambiental do boom da IA ​​é difícil de mensurar, mesmo enquanto dispara. Imagem composta: Alex Mellon para o The Guardian: Getty Images

Por Ajit Niranjan para “The Guardian” 

“Foi de cair o queixo”, disse Wilson, um ex-trabalhador do setor de petróleo e gás do Texas que documenta emissões de metano há mais de uma década e estima que o data center Colossus da xAI estivesse expelindo mais desse gás que aquece o planeta do que uma grande usina de energia. “Uma quantidade inacreditável de poluição.”

Naquela mesma semana, o principal produto da empresa estava causando alvoroço nos noticiários. O chatbot irreverente de Musk, Grok, repetiu uma teoria da conspiração de que um “genocídio branco” estava ocorrendo na África do Sul quando questionado sobre assuntos tão aleatórios quanto beisebol e andaimes. As postagens foram rapidamente apagadas, mas Grok continuou elogiando Hitler , promovendo ideologias de extrema-direita e fazendo afirmações falsas.

Grok de Elon Musk

Grok, o chatbot de IA de Elon Musk, já elogiou Hitler e repetiu teorias da conspiração sobre o “genocídio branco”. Fotografia: Algi Febri Sugita/ZUMA Press Wire/Shutterstock

“É um desperdício horrível, horrível”, disse Wilson, diretor do grupo de campanha Oilfield Witness, apontando para imagens do Mickey Mouse nazista geradas pelo Grok como um exemplo do que o gás fóssil estava sendo queimado para produzir. “Que utilidade isso tem?”

Alguns especialistas temem que os centros de dados possam prejudicar a transição para uma economia limpa, adicionando um obstáculo desnecessário à tarefa inglória de impedir que o planeta aqueça 1,5°C (2,7°F). Outros se mostram otimistas em relação aos custos de energia, argumentando que eles são insignificantes em comparação não apenas com as indústrias poluentes, mas também com o poder da tecnologia de transformar a sociedade.

Qual é a dimensão da ameaça da IA ​​para o clima? E será que ela pode trazer mais benefícios do que prejuízos?

Quando Hannah Daly dirigia modelos para a Agência Internacional de Energia (IEA) em Paris e depois se tornou professora de energia sustentável na University College Cork, na Irlanda, ela dedicava pouco tempo a se preocupar com o custo de carbono dos computadores. Carros, vacas e aquecimento doméstico estavam entre os problemas complexos que consumiam o orçamento de carbono; as emissões dos serviços digitais eram pequenas e relativamente estáveis.

Mas na Irlanda, a demanda computacional por energia atingiu níveis impossíveis de ignorar. Os centros de dados consomem um quinto da eletricidade do país e a previsão é de que esse consumo chegue a quase um terço em poucos anos. A rápida expansão de armazéns repletos de chips, que surgiram em um ritmo mais acelerado do que a rede elétrica consegue suportar, levou à sua proibição efetiva de conexão à rede em 2021.

A trajetória de “crescimento enorme e exponencial” é o que preocupa, disse Daly. “Não sei se a Irlanda é uma exceção ou um prenúncio do que está por vir. Mas é definitivamente um conto de advertência.”

Os centros de dados consomem apenas 1% da eletricidade mundial, mas em breve poderão demandar muito mais. Sua participação no consumo de eletricidade dos EUA deverá mais que dobrar, chegando a 8,6% até 2035, segundo a BloombergNEF, enquanto a AIE (Agência Internacional de Energia) projeta que os centros de dados serão responsáveis ​​por pelo menos 20% do crescimento da demanda de eletricidade nos países desenvolvidos até o final da década.

Parte da demanda está sendo atendida por meio de contratos de longo prazo para a compra de energia renovável – apoiando a expansão da energia limpa mesmo quando a eletricidade que alimenta a instalação é poluente – enquanto algumas empresas de tecnologia assinaram acordos para usar energia nuclear.

Mas, num futuro próximo, os combustíveis fósseis deverão dominar o fornecimento. Os centros de dados da China estão concentrados no leste do país, região com forte presença do carvão. Nos EUA, onde se espera que o gás natural gere a maior parte da eletricidade nos centros de dados na próxima década, o governo Trump usou esse argumento para justificar a queima de mais carvão. “O carvão, bonito e limpo, será essencial para… vencer a corrida da IA”, disse o secretário de Energia, Chris Wright, em setembro, ao anunciar um pacote de investimentos de US$ 625 milhões (R$ 2,7 bilhões).

Um centro de dados da Amazon em Didcot, Oxfordshire.

Um datacenter da Amazon em Didcot, Oxfordshire. Fotografia: Horst Friedrichs/Alamy

Na Irlanda, que está construindo terminais para importar gás natural liquefeito (GNL) e usinas para queimá-lo, o boom dos data centers compensou os ganhos climáticos da expansão das energias renováveis ​​no setor elétrico, de acordo com uma análise que Daly realizou para a Friends of the Earth Ireland no ano passado. Países mais pobres também podem não estar imunes. A energia solar barata começou a substituir o carvão a um ritmo notável no Paquistão, mas os data centers estão prestes a ocupar a capacidade ociosa de usinas de energia desativadas, após o governo anunciar que dedicaria 2 GW de energia à inteligência artificial e ao bitcoin.

“Essa ideia de que o menor custo das energias renováveis ​​por si só impulsionará a descarbonização não é suficiente”, disse Daly. “Porque se houver uma enorme demanda de energia que queira crescer, ela recairá sobre esses ativos de combustíveis fósseis obsoletos.”

Isso significa que usar chatbots para redigir e-mails, escrever ensaios e planejar férias coloca o planeta em risco? As empresas de tecnologia têm resistido à pressão para fornecer dados detalhados sobre o consumo de energia de sua IA, mas estimativas populares giram em torno de 0,2 a 3 watts-hora (Wh) para uma simples consulta de texto e aumentam consideravelmente para “pesquisas complexas” e produção de vídeo. Em uma postagem de blog em julho, o CEO da OpenAI, Sam Altman, afirmou que uma consulta no ChatGPT usa tão pouca energia quanto uma lâmpada acesa por alguns minutos, em consonância com um relatório recente do Google sobre o consumo médio de texto para seu assistente de IA, Gemini.

Os números são insignificantes em comparação com atividades como voar, comer carne ou dirigir um carro. Ainda assim, os céticos se preocupam com a enorme escala da tecnologia – o ChatGPT afirma ter várias centenas de milhões de usuários semanais apenas três anos após seu lançamento – e com o fervor com que as empresas a inseriram em todos os aspectos da vida digital. O Google controla cerca de 90% do mercado global de mecanismos de busca e impôs a IA generativa em sua página de resultados. A ascensão de agentes de IA e serviços nos bastidores deve aumentar ainda mais esse burburinho.

“O que me preocupa é que estamos implementando IA de uma forma que não nos permite ter uma boa noção do consumo de energia”, disse Sasha Luccioni, líder de clima da empresa de IA Hugging Face, que se frustrou com as “divulgações seletivas” de grandes empresas que obscurecem o verdadeiro impacto climático de seus produtos. “Estamos essencialmente operando sob a hipótese de que não é um problema – ou que, se for um problema, será resolvido de alguma forma – em vez de nos anteciparmos a ele.”

Se a IA pudesse pagar suas dívidas energéticas economizando carbono em outros setores da economia? Essa é a tese apresentada em um relatório da AIE (Agência Internacional de Energia) em abril, que argumentou que as aplicações de IA existentes poderiam reduzir as emissões em uma proporção muito maior do que a produzida pelos data centers. Um artigo de pesquisadores da London School of Economics e da Systemiq chegou a uma conclusão semelhante em junho, após modelar cenários nos quais a IA ajudaria a integrar energia solar e eólica à rede elétrica, identificar proteínas alternativas que imitam a carne, melhorar a composição das baterias em carros elétricos e incentivar as pessoas a fazerem escolhas sustentáveis.

“A IA pode acelerar a implementação dessas tecnologias limpas, basicamente acelerando sua posição na curva de inovação e adoção”, disse a coautora Roberta Pierfederici, pesquisadora de políticas públicas do Instituto Grantham da LSE.

As projeções de redução de carbono trazem grandes incertezas – maior eficiência pode levar a um maior consumo, alerta a AIE (Agência Internacional de Energia), e efeitos rebote podem anular os ganhos, como carros autônomos prejudicando o transporte público – mas exemplos já existem. O Google afirma que a IA o ajudou a reduzir o resfriamento em data centers em 40%. A espanhola Iberdrola diz que a IA otimizou a manutenção e o desempenho de turbinas eólicas, aumentando a eficiência operacional em 25%. A francesa Engie afirma ter reduzido o tempo de inatividade em usinas solares usando IA para detectar falhas.

Como outros setores são muito poluentes, dizem os pesquisadores, a IA precisaria reduzir suas emissões em apenas uma pequena fração para compensar o custo de carbono de sua computação, que um estudo recente estimou em 0,1-0,2% das emissões globais, e está aumentando. “No setor de energia, já estamos vendo os resultados”, disse Pierfederici. “Já o setor de carne ainda não chegou lá.”

s defensores da tecnologia limpa não são os únicos que perceberam o potencial transformador da IA.

Quando Holly e Will Alpine decidiram deixar seus empregos na Microsoft no ano passado, sabiam que estavam abrindo mão de uma ótima oportunidade. O casal de millennials desfrutava de salários típicos do setor de tecnologia americano, graças às suas posições nas equipes de IA responsável e sustentabilidade da empresa, com colegas próximos e um trabalho que lhes dava um senso de propósito. Will estava entre as primeiras vozes a pressionar para que se enfrentasse a redução do custo de energia dos data centers.

Mas o trabalho da Microsoft para clientes do setor de petróleo e gás incomodava o casal, que começou a se preocupar mais com as emissões que a empresa possibilitava do que com as que ela produzia. Em 2019, a empresa anunciou uma parceria com a ExxonMobil com potencial para expandir a produção em até 50 mil barris por dia. No mesmo ano, iniciou um projeto digital com a Chevron que, segundo a petrolífera, reduziu em 30 dias o tempo de planejamento de seus poços em águas profundas. Com o surgimento de mais contratos, os Alpines começaram a pressionar a empresa por respostas.

“A resposta da empresa frequentemente apontava para sua própria pegada operacional, o que não é relevante”, disse Holly Alpine, que deixou a empresa com Will para fazer campanha para que a indústria de tecnologia combatesse as emissões que gera. “Após uma campanha interna de quatro anos, na qual recebemos muitas promessas, mas a maioria não foi cumprida, percebemos que a pressão interna não era suficiente.”

Um poço de petróleo no deserto

O diretor executivo da petrolífera Saudi Aramco afirmou recentemente que a empresa incorporou inteligência artificial “em tudo”. Fotografia: Bloomberg/Getty Images

A Agência Internacional de Energia (IEA) estima que a IA poderá aumentar as reservas tecnicamente recuperáveis ​​de petróleo e gás em 5% e reduzir o custo de um projeto em águas profundas em 10%. As grandes petrolíferas estão ainda mais otimistas. “A inteligência artificial será, em última análise, o próximo boom do fracking na indústria”, disse Mike Sommers, diretor do Instituto Americano de Petróleo, à Axios . Amin Nasser, CEO da Saudi Aramco, afirmou que a empresa incorporou IA “em tudo” em uma entrevista à Bloomberg Television no início deste ano. A maior petrolífera do mundo dobrou seus investimentos em tecnologia de 2023 para 2024, segundo Nasser, e a ampla adoção da IA ​​”aumentou a produtividade e, consequentemente, o número de poços”.

Ao mesmo tempo, a indústria de petróleo e gás afirma que a IA pode reduzir sua intensidade de carbono, por exemplo, analisando dados de satélite para detectar vazamentos de metano. Mas mesmo nesse aspecto, críticos apontam que existe uma lacuna entre as percepções digitais e as ações corporativas. Wilson, que viu “nuvens gigantescas de gás escapando por todos os lados” durante uma recente viagem de campo à Bacia Permiana, disse que a sofisticada rede de satélites da indústria obteve poucos resultados, pois os vazamentos representam um problema pequeno em comparação com as liberações intencionais de metano.

“Eles estão usando isso como desculpa para adiar a ação”, disse Wilson. “Observar o metano do espaço não vai impedir a emissão de metano.”

Talvez ainda mais preocupante do que a expansão da oferta de combustíveis fósseis seja o efeito sobre o consumo. Um estudo publicado em outubro revelou que anúncios gerados por IA superam os criados por humanos, e a facilidade com que podem ser prouzidos reduz drasticamente o custo de incentivar o consumo. O setor de marketing, já familiarizado com anúncios hiperpersonalizados e compras simplificadas, está se preparando para agentes de IA que poderão comprar presentes e reservar voos em nome do cliente. A Tui, maior operadora de viagens da Europa, afirma estar investindo fortemente em IA, à medida que as pessoas recorrem ao ChatGPT para reservar suas férias.

“A narrativa está realmente focada nessa comparação falsa entre a energia usada para operar a tecnologia e os casos de uso positivos”, disse Alpine. “Mas é perigoso omitir os casos de uso negativos.”

Algumas vozes pedem uma pausa, pelo menos até que regras melhores sejam implementadas. Em outubro, o relator especial da ONU para o direito humano à água potável pediu uma moratória no desenvolvimento de novos centros de dados, citando os impactos ambientais prejudiciais. Em dezembro, uma coalizão de mais de 230 grupos ambientalistas nos EUA exigiu uma moratória nacional até que esses centros de dados fossem regulamentados. A Comissão de Serviços Públicos da Irlanda suspendeu sua proibição de fato às conexões à rede elétrica, mas afirmou que 80% do consumo anual de eletricidade de um centro de dados deve vir, eventualmente, de novos projetos de energia renovável.

Outros defenderam que se pressione o setor para que faça o bem. A Espanha, único país a mencionar a IA em uma legislação climática, obriga o governo a promover a digitalização que possa ajudar a descarbonizar a economia. Laurence Tubiana, uma das arquitetas do Acordo de Paris sobre o clima, sugeriu a taxação da IA ​​para gerar os fundos necessários para impedir o aquecimento global.

Os alpinistas, que afirmam não ser contra a IA, mas apenas desejar “limites razoáveis” para a tecnologia, estão pressionando para que o projeto de lei da UE sobre IA classifique os combustíveis fósseis como uma aplicação de alto risco da tecnologia. Eles também querem que os investidores considerem as emissões geradas pela IA na avaliação das empresas em relação a métricas ambientais, sociais e de governança (ESG).

O Google e a xAI não responderam ao pedido de comentários. A OpenAI afirmou que dedica muita atenção à melhor utilização de seu poder computacional, apoia iniciativas com parceiros para atingir metas de sustentabilidade e acredita que a IA será fundamental no combate às mudanças climáticas.

A Microsoft afirmou que a transição energética é complexa e exige avançar de forma ética, com a tecnologia desempenhando um papel importante na descarbonização do setor. “Isso requer equilibrar as necessidades energéticas e as práticas industriais atuais, ao mesmo tempo que se inventam e implementam as do futuro”, disse um porta-voz.

Luccioni afirmou que, em vez de entrar em pânico com a IA, as pessoas deveriam pressionar as empresas para que criem ferramentas que sejam econômicas desde a sua concepção.

“Talvez eu seja um pouco ingênua, mas ainda acredito que a IA pode fazer bem no combate à crise climática – projetando a próxima geração de baterias, monitorando o desmatamento, prevendo furacões”, disse ela. “Há tantas coisas boas para as quais poderíamos usá-la – e, em vez disso, estamos criando sites de mídia social repletos de conteúdo gerado por IA, enquanto data centers são alimentados por geradores a diesel.”


Fonte: The Guardian

As análises de IA da Google colocam as pessoas em risco com conselhos de saúde enganosos

Investigação do Guardian revela informações imprecisas em resumos

Homem olhando para o smartphone na cama

O jornal The Guardian revelou diversos casos de informações de saúde imprecisas nos Resumos de IA do Google. Fotografia: Caia Image/Alamy

Por Andrew Gregory para “The Guardian” 

Uma investigação do jornal The Guardian revelou que as pessoas estão sendo expostas a riscos devido a informações de saúde falsas e enganosas nos resumos de inteligência artificial do Google.

A empresa afirmou que seus Resumos de IA, que usam IA generativa para fornecer instantâneos de informações essenciais sobre um tópico ou questão, são úteis ” e “confiáveis ”.

No entanto, alguns dos resumos, que aparecem no topo dos resultados de pesquisa, forneciam informações de saúde imprecisas e colocavam as pessoas em risco de sofrer danos.

Em um caso que especialistas descreveram como “realmente perigoso”, o Google aconselhou erroneamente pessoas com câncer de pâncreas a evitarem alimentos ricos em gordura. Especialistas afirmaram que isso era exatamente o oposto do que deveria ser recomendado e pode aumentar o risco de morte dos pacientes pela doença.

Em outro exemplo “alarmante”, a empresa forneceu informações falsas sobre testes cruciais de função hepática, o que poderia levar pessoas com doenças hepáticas graves a acreditarem erroneamente que estão saudáveis.

As buscas no Google por respostas sobre exames de câncer em mulheres também forneceram informações “completamente erradas”, o que, segundo especialistas, pode levar as pessoas a ignorar sintomas reais.

Um porta-voz do Google afirmou que muitos dos exemplos de saúde compartilhados com eles eram “capturas de tela incompletas”, mas, pelo que puderam avaliar, continham links “para fontes conhecidas e confiáveis ​​e recomendavam a busca por aconselhamento especializado”.

A investigação do The Guardian surge em meio à crescente preocupação de que os dados de IA possam confundir os consumidores, que podem presumir que sejam confiáveis. Em novembro do ano passado, um estudo descobriu que chatbots de IA em diversas plataformas forneciam conselhos financeiros imprecisos , enquanto preocupações semelhantes foram levantadas em relação a resumos de notícias .

Sophie Randall, diretora do Patient Information Forum, que promove informações de saúde baseadas em evidências para pacientes, público em geral e profissionais de saúde, afirmou que os exemplos mostram que “os Resumos de IA do Google podem colocar informações de saúde imprecisas no topo das buscas online, representando um risco para a saúde das pessoas”.

Stephanie Parker, diretora da área digital da Marie Curie, uma instituição de caridade que oferece cuidados paliativos, afirmou: “As pessoas recorrem à internet em momentos de preocupação e crise. Se as informações que recebem forem imprecisas ou estiverem fora de contexto, isso pode prejudicar seriamente a sua saúde.”

O jornal The Guardian revelou diversos casos de informações de saúde imprecisas nos Resumos de IA do Google, após várias organizações de saúde, instituições de caridade e profissionais expressarem preocupação.

Anna Jewell, diretora de apoio, pesquisa e influência da Pancreatic Cancer UK, afirmou que aconselhar pacientes a evitarem alimentos ricos em gordura é “completamente incorreto”. Fazer isso “pode ​​ser muito perigoso e comprometer as chances de uma pessoa estar bem o suficiente para receber tratamento”, acrescentou.

Jewell afirmou: “A resposta da IA ​​do Google sugere que pessoas com câncer de pâncreas evitem alimentos ricos em gordura e fornece uma lista de exemplos. No entanto, se alguém seguisse o que o resultado da pesquisa indica, poderia não ingerir calorias suficientes, ter dificuldade para ganhar peso e não tolerar a quimioterapia ou uma cirurgia que poderia salvar sua vida.”

Digitar “qual é a faixa normal para exames de sangue do fígado” também forneceu informações enganosas, com uma grande quantidade de números, pouco contexto e sem levar em consideração a nacionalidade, o sexo, a etnia ou a idade dos pacientes.

Pamela Healy, diretora executiva da British Liver Trust, afirmou que os resumos gerados por IA são alarmantes. “Muitas pessoas com doenças hepáticas não apresentam sintomas até os estágios avançados, por isso é tão importante que façam exames. Mas o que as análises de IA do Google consideram ‘normal’ pode variar drasticamente do que é realmente considerado normal.”

“É perigoso porque significa que algumas pessoas com doenças hepáticas graves podem achar que têm um resultado normal e, portanto, não se preocuparem em comparecer a uma consulta de acompanhamento com o profissional de saúde.”

Uma busca por “sintomas e exames para câncer vaginal” listou o exame de Papanicolau como um exame para detectar câncer vaginal, o que está incorreto.

Athena Lamnisos, diretora executiva da instituição de caridade para o câncer Eve Appeal, disse: “Não é um teste para detectar câncer e certamente não é um teste para detectar câncer vaginal – essa informação está completamente errada. Receber informações erradas como essa pode levar alguém a não procurar atendimento médico para sintomas de câncer vaginal por ter tido um resultado negativo em um exame preventivo recente de câncer do colo do útero.”

“Também nos preocupou o fato de o resumo da IA ​​mudar quando realizávamos exatamente a mesma pesquisa, apresentando uma resposta diferente a cada vez, baseada em fontes distintas. Isso significa que as pessoas recebem uma resposta diferente dependendo de quando pesquisam, e isso não é aceitável.”

Lamnisos disse estar extremamente preocupada. “Alguns dos resultados que vimos são realmente preocupantes e podem potencialmente colocar as mulheres em perigo”, afirmou.

O jornal The Guardian também descobriu que o Google AI Overviews fornecia resultados enganosos para pesquisas sobre transtornos mentais. “Isso é extremamente preocupante para nós como instituição de caridade”, afirmou Stephen Buckley, chefe de informações da Mind.

Alguns dos resumos de IA para condições como psicose e distúrbios alimentares ofereciam “conselhos muito perigosos” e eram “incorretos, prejudiciais ou poderiam levar as pessoas a evitar procurar ajuda”, disse Buckley.

Alguns também deixaram de considerar contextos ou nuances importantes, acrescentou. “Eles podem sugerir o acesso a informações de sites inadequados e sabemos que, quando a IA resume informações, muitas vezes pode refletir preconceitos, estereótipos ou narrativas estigmatizantes preexistentes.”

O Google afirmou que a grande maioria de seus Resumos de IA eram factuais e úteis, e que realiza melhorias contínuas na qualidade. A taxa de precisão dos Resumos de IA estava em pé de igualdade com seus outros recursos de busca, como os snippets em destaque, que já existiam há mais de uma década, acrescentou a empresa.

A empresa também afirmou que, quando o AI Overviews interpretasse erroneamente o conteúdo da web ou ignorasse o contexto, tomaria as medidas cabíveis de acordo com suas políticas.

Um porta-voz do Google afirmou: “Investimos significativamente na qualidade das Visões Gerais de IA, principalmente em tópicos como saúde, e a grande maioria fornece informações precisas.”


Fonte: The Guardian

Presos na bolha da Inteligência Artificial

Cada vez mais dinheiro está sendo investido no setor de Inteligência Artificial (IA). No entanto, o entusiasmo atual não se reflete nos lucros das empresas que aplicam a tecnologia 

9.JPG

Uma avaliação exorbitante no mercado de ações que supera em muito os lucros anuais. A Nvidia não está sozinha nessa situação, e muitas empresas de IA estão no mesmo barco.

Por Dominic Iten para o “JungeWelt”

No final de outubro, o CEO da Nvidia, Jensen Huang, foi visto com o vice-presidente da Samsung Electronics e o CEO da Hyundai Motor Company desfrutando de cerveja e frango frito no restaurante Kkanbu Chicken, em Seul – uma refeição com consequências: em poucos dias, o preço das ações de restaurantes e fornecedores de frango frito sul-coreanos disparou em até 20%. Essa anedota ilustra o que todos já sabem: os investidores estão despejando dinheiro em tudo que tenha o rótulo de IA e em qualquer coisa remotamente relacionada ao hype da IA.

Bill Gates está agora traçando paralelos com a bolha da internet que arrastou metade da economia global para baixo por volta da virada do milênio. Naquela época, os investidores também apostaram na formação de novos mercados, ganhos de produtividade e lucros correspondentes em função dos avanços tecnológicos. Então, como agora, as expectativas infladas levaram a investimentos equivocados – também em um contexto de crise de acumulação de capital: por décadas, houve um excesso de capital disponível em comparação com a escassez de oportunidades reais de investimento lucrativas.

Excesso crônico de capital

Essa configuração constitui a base de uma economia de bolha que se tornou crônica desde a década de 1980. Como a acumulação real já não é suficiente para estabilizar as taxas de lucro, o crescimento é repetidamente forçado pela especulação: primeiro com a bolha das empresas ponto-com, depois com a bolha imobiliária e, finalmente, com a bolha de liquidez inflada pelos bancos centrais durante os anos de juros zero. Em vez de resolver a crise, essas bolhas apenas adiam as consequências do excesso de capital. A inteligência artificial surge como a mais recente tentativa de mascarar esse problema estrutural com um novo mito do lucro: uma promessa final e grandiosa de que o capital fictício acumulado ainda pode ser transformado em lucros reais.

Já em meados de outubro, o Banco da Inglaterra e o Fundo Monetário Internacional alertaram para uma forte correção de mercado. Pouco depois, o jornal NZZ ( Neue Zürcher Zeitung) observou que a euforia em torno da IA ​​estava levando os investidores a um frenesi perigoso; todos estavam cientes do perigo, “mas não conseguiam sair”. Isso é verdade: é um desastre anunciado — mas enquanto o dinheiro continuar fluindo, nenhuma empresa, nenhum investidor consegue se retirar. A IA, como tecnologia do futuro, é “grande demais para ser ignorada”. Enquanto todos os outros continuarem investindo, ninguém se atreve a sair — aqueles que o fizerem podem perder a oportunidade. Essas decisões individuais forçadas vincularam, de forma fatídica, os fluxos de capital globais e toda a economia dos EUA ao desenvolvimento do setor de IA.

A bolha da IA ​​é 17 vezes maior que a bolha das empresas ponto-com e quatro vezes maior que a bolha dos empréstimos subprime, cujo estouro desencadeou a crise financeira de 2008. Oitenta por cento dos lucros gerados no mercado de ações dos EUA em 2025 foram obtidos por empresas de IA. O mercado de ações impulsionado pela IA está atraindo dinheiro do mundo todo: no segundo trimestre de 2025, fundos estrangeiros no valor de US$ 290 bilhões foram investidos em ações americanas, representando cerca de 30% do mercado – um nível não visto desde a Segunda Guerra Mundial.

Tecnicamente imaturo

Todo o mundo dos investimentos aposta que a IA aumentará a produtividade do trabalho e, consequentemente, os retornos, mas até agora há poucas evidências que sustentem essa ideia. Projetos isolados de sucesso não conseguem disfarçar o fato de que as receitas não acompanham os investimentos e que muitos sistemas ainda são tecnicamente imaturos. De acordo com um relatório recente do Instituto de Tecnologia de Massachusetts (MIT), cerca de 95% das empresas ainda não observaram um aumento mensurável nos lucros ou nas receitas, apesar de investirem bilhões em IA. A consultoria de gestão McKinsey chegou a conclusões semelhantes: 80% das empresas não veem nenhuma contribuição significativa para seus lucros proveniente do uso de IA generativa.

Antes da etapa final

Nesse contexto, estabeleceu-se uma dinâmica que sugere um fim iminente, ou pelo menos uma transição para o estágio final da bolha. A especulação está presa em uma espécie de ciclo vicioso. Por meio de fundos de índice e outras estratégias passivas, quantias cada vez maiores de dinheiro fluem para algumas poucas empresas de IA. Suas avaliações estão subindo e o capital está prontamente disponível. Para sustentar essas altas expectativas com crescimento tangível, elas estão canalizando cada vez mais esse dinheiro barato em negócios entre si: estão transferindo bilhões de dólares em chips e serviços em nuvem umas para as outras – essencialmente comprando suas próprias receitas futuras.

Por exemplo, a Microsoft aumentou sua participação na OpenAI e, em troca, garantiu que a OpenAI comprasse aproximadamente US$ 250 bilhões em serviços de nuvem da plataforma Azure da Microsoft. A Amazon está adotando uma abordagem semelhante com a Anthropic: bilhões em investimentos na startup estão atrelados à promessa de obter poder computacional e chips especializados principalmente da Amazon Web Services nos próximos anos. Isso cria a impressão de um crescimento enorme, embora parte dele esteja simplesmente sendo redistribuída dentro do setor. A bolha se perpetua.


Fonte: JungeWelt

A Springer Nature amplia seu portfólio de ferramentas de integridade em pesquisa

Shutterstock.com/Andrii Zastrozhnov

Por Research Information 

A Springer Nature lançou uma nova ferramenta para ser usada em submissões a seus periódicos e livros, com o objetivo de detectar frases não padronizadas em manuscritos submetidos.

A ferramenta funciona detectando frases incomuns, construídas de forma confusa ou excessivamente complexas, como por exemplo, “consciência falsificada” em vez de “inteligência artificial”. Essas frases indicam que os autores utilizaram ferramentas de paráfrase para burlar a detecção de plágio. Caso a ferramenta identifique diversas frases atípicas, o trabalho será retirado.

A ferramenta foi desenvolvida utilizando o catálogo público de frases problemáticas do  Problematic Paper Screener  (PPS), criado por Guillaume Cabanac, Cyril Labbé e Alexander Magazinov, e passou por múltiplas rodadas de testes e validação para fornecer uma avaliação confiável de trabalhos submetidos em diversas disciplinas acadêmicas.  

Tamara Welschot, Chefe de Integridade em Pesquisa e Prevenção da Springer Nature, comentou: “Pesquisas fraudulentas são um desafio que afeta a todos nós na indústria editorial e precisamos trabalhar juntos para combatê-las. O desenvolvimento desta ferramenta foi um projeto de longa duração que envolveu estreita colaboração entre o grupo de integridade em pesquisa e diversas equipes de tecnologia da Springer Nature, com base em importantes trabalhos de investigadores de integridade da comunidade acadêmica.

“Agradecemos a Cabanac, Labbé e Magazinov por seus esforços no desenvolvimento do Problematic Paper Screener e por destacarem artigos com frases confusas para a comunidade editorial em geral. Nossa ferramenta identifica esses artigos problemáticos no momento da submissão, impedindo sua publicação e economizando o valioso tempo de editores e revisores  .”

A ferramenta de detecção de frases não padronizadas é a mais recente adição ao conjunto de soluções de integridade científica da Springer Nature e complementa as ferramentas já existentes: um detector de textos sem sentido,   o Snappshot  (que identifica imagens duplicadas ou manipuladas) e uma  ferramenta de verificação de referências irrelevantes.   Essas ferramentas foram desenvolvidas internamente como parte do compromisso contínuo da Springer Nature em garantir a integridade do trabalho que publica. Esse compromisso inclui investimentos em uma equipe de especialistas em rápido crescimento e no desenvolvimento contínuo de tecnologia.

A Springer Nature também se comprometeu a colaborar com a comunidade editorial em geral, como uma organização contribuinte do STM Integrity Hub , que facilita a troca de conhecimento e dados e desenvolve ferramentas tecnológicas compartilhadas, e para o qual a Springer Nature  doou seu detector de textos sem sentido para uso em todo o setor.


Fonte: Research Information

Estamos perdendo a cabeça?

Um novo documento de posicionamento alerta contra a adoção acrítica da IA ​​no meio acadêmico

Por Kent Anderson para o “The Geyser” 

Vale a pena ler um recente documento de posicionamento de um grupo internacional composto por especialistas da Holanda, EUA, Alemanha e Dinamarca como um antídoto ao exagero em torno da Inteligência Artificial (IA) ​​— que parece estar perdendo força por muitos dos motivos explorados no trabalho, outro sinal de que “ o inverno da IA ” pode estar chegando.

O público-alvo do artigo é o meio acadêmico, incluindo cientistas e profissionais da ciência, um grupo que inclui editores científicos:

Neste documento de posicionamento, explicamos por que as universidades devem levar a sério seu papel de a) combater o marketing, o exagero e os danos da indústria de tecnologia; e b) proteger o ensino superior, o pensamento crítico, a expertise, a liberdade acadêmica e a integridade científica.

Tópicos pesados, mas esses são os dias em que vivemos.

Os autores sabem o que fazem e começam com uma citação surpreendentemente boa de 1985:

A cultura da IA ​​é imperialista e busca expandir o reino da máquina.

Sim, isso definitivamente ainda é verdade…

No entanto, os autores têm bastante munição própria:

IA sempre foi uma frase de marketing que corrói a integridade científica e a discussão acadêmica por natureza, deixando a porta aberta para pseudociência, exclusão e vigilância.

Eles lançam luz sobre os problemas de definição da expressão “inteligência artificial”, observando que um coração artificial bombearia sangue, fazendo a função que imita. A IA não faz isso. Eles também observam que o termo “inteligência” é vago e carregado de um histórico de eugenia, racismo e capacitismo, portanto, quando aceitamos as alegações antropomórficas da IA, estamos nos tornando suscetíveis a sermos enganados por um sistema que tem problemas em sua essência.

Termos como “frames falsos” e “software lixo” me fizeram querer comemorar lendo o artigo, já que este último foi um que usei outro dia para responder a um entusiasta de IA — afinal, IAs não conseguem somar de forma confiável, jogar xadrez sem quebrar as regras do próprio sistema de armazenamento e assim por diante. Um lixo completo.

Descrevendo a IA como uma “tecnologia colonizadora” — o que significa que ela busca dominar qualquer campo em que seja usada — os autores rejeitam a “degradação e o desmantelamento da expertise e a desumanização dos acadêmicos”, observando que os proponentes da IA ​​rejeitam tacitamente a “autodeterminação livre das forças da indústria”.

Quanto ao uso da IA ​​como uma muleta, eles escrevem: “Os LLMs não melhoram a capacidade de escrita de alguém, assim como pegar um táxi não melhora a capacidade de dirigir de alguém”.

  • Em uma nota relacionada, um autor gracejou sobre Bluesky: “Correlação não é cognição”.

Os autores também sabem que precisamos seguir em frente, então eles oferecem cinco princípios para um futuro melhor com a IA ainda viável, mas colocada em seu lugar:

  • Honestidade  não use IA secretamente e não faça afirmações sobre ela que você não pode provar
  • Escrupulosidade  usar a IA apenas de formas científicas bem especificadas e validadas
  • Transparência  tornar toda a IA de código aberto e computacionalmente reproduzível
  • Independência garantir que qualquer pesquisa seja imparcial em relação às agendas das empresas de IA
  • Responsabilidade  não use produtos de IA que prejudiquem animais, pessoas ou o meio ambiente

Com o ceticismo em relação à IA aumentando desde o lançamento do GPT-5 e como ele caiu com um estrondo apesar do enorme hype, é ótimo ler um artigo de posicionamento escrito por pessoas que tratam isso como tecnologia, uma tecnologia que deve ser avaliada a todo momento como uma tecnologia — e não como uma tecnologia particularmente boa, compatível, eficiente, inevitável ou segura.

Para a academia, a IA é parte de um ataque tecno-utópico a todo o sistema. Não é uma ótima tecnologia nova projetada para nos ajudar a evitar tarefas domésticas. Como escreve uma de suas fontes: “Quando você terceiriza o pensamento, terceiriza o aprendizado”.

Espero que este documento sirva como um alerta.


Fonte: The Geyser

IA sinaliza centenas de periódicos científicos como potencialmente predatórios, revela estudo

Acompanhar a proliferação dos chamados “periódicos predatórios” tem sido uma tarefa árdua para os humanos, que optaram por usar IA para vasculhar uma lista de quase 15.200 periódicos de acesso aberto na internet, afirma Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação da Universidade do Colorado em Boulder.

Acompanhar a proliferação dos chamados "periódicos predatórios" tem sido uma tarefa árdua para os humanos, então a equipe recorreu à IA para analisar uma lista de quase 15.200 periódicos de acesso aberto na internet, afirma Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação da Universidade do Colorado em Boulder. Foto

Foto: Europa Press / Arquivo

Por La Jornada

Madri. Uma plataforma de inteligência artificial (IA) que busca periódicos científicos questionáveis ​​sinalizou mais de 1.400 como “potencialmente problemáticos” em uma lista de quase 15.200 periódicos de acesso aberto na internet.

O estudo, publicado na Science Advances e liderado pela Universidade do Colorado em Boulder, aborda uma tendência alarmante no mundo da pesquisa.

Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação, recebe lembretes por e-mail várias vezes por semana: essas mensagens de spam vêm de pessoas que se passam por editores de periódicos científicos, geralmente aqueles dos quais Acuña nunca ouviu falar, oferecendo-se para publicar seus artigos por uma taxa alta.

Essas publicações são às vezes chamadas de periódicos “predatórios”. Elas têm como alvo cientistas, convencendo-os a pagar centenas ou até milhares de dólares para publicar suas pesquisas sem a devida verificação.

“Tem havido um esforço crescente entre cientistas e organizações para verificar esses periódicos”, disse Acuña. “Mas é como brincar de caça-toupeiras. Você pega um, e logo aparece outro, geralmente da mesma empresa. Eles simplesmente criam um novo site e dão um novo nome.”

A nova ferramenta de IA de seu grupo filtra automaticamente periódicos científicos, avaliando seus sites e outros dados online com base em certos critérios: os periódicos têm um conselho editorial com pesquisadores renomados? Seus sites contêm muitos erros gramaticais? Acuña enfatiza que a ferramenta não é perfeita. Em última análise, ele acredita que especialistas humanos, e não máquinas, devem tomar a decisão final sobre a reputação de um periódico.

Mas, em um momento em que figuras proeminentes questionam a legitimidade da ciência, conter a proliferação de publicações questionáveis ​​se tornou mais importante do que nunca, disse ele.

“Na ciência, você não começa do zero. Você constrói com base na pesquisa de outros”, disse Acuña. “Então, se a fundação daquela torre desabar, tudo desaba.”

Extorsão

Quando cientistas submetem um novo estudo a uma revista de prestígio, ele normalmente passa por uma prática chamada revisão por pares. Especialistas externos leem o estudo e avaliam sua qualidade — ou, pelo menos, esse é o objetivo.

Um número crescente de empresas tem tentado burlar esse processo para lucrar. Em 2009, Jeffrey Beall, bibliotecário da Universidade do Colorado, cunhou o termo “periódicos predatórios” para descrever essas publicações.

Eles geralmente têm como alvo pesquisadores de fora dos Estados Unidos e da Europa, como na China, Índia e Irã, países onde as instituições científicas podem ser jovens e a pressão e os incentivos para que os pesquisadores publiquem são altos.

“Eles dizem: ‘Se você pagar US$ 500 ou US$ 1.000, nós revisaremos seu artigo'”, explicou Acuña. “Na verdade, eles não oferecem nenhum serviço. Eles apenas pegam o PDF e publicam no site deles.”

Vários grupos têm tentado coibir essa prática. Entre eles está uma organização sem fins lucrativos chamada Directory of Open Access Journals (DOAJ). Desde 2003, voluntários sinalizaram milhares de periódicos como suspeitos com base em seis critérios. (Publicações respeitáveis, por exemplo, frequentemente incluem uma descrição detalhada de suas políticas de revisão por pares em seus sites.)

Mas acompanhar a proliferação dessas publicações tem sido uma tarefa assustadora para os humanos.

Para acelerar o processo, Acuña e seus colegas recorreram à IA. A equipe treinou o sistema com dados do DOAJ e, em seguida, pediu à IA que examinasse uma lista de quase 15.200 periódicos de acesso aberto na internet.

Dessas postagens, a IA sinalizou inicialmente mais de 1.400 como potencialmente problemáticas.

Acuña e seus colegas pediram a especialistas humanos que revisassem um subconjunto dos periódicos suspeitos. A IA cometeu erros, segundo os humanos, sinalizando aproximadamente 350 publicações como questionáveis ​​quando provavelmente eram legítimas. Isso ainda deixou mais de 1.000 periódicos que os pesquisadores identificaram como questionáveis. “Acredito que isso deveria ser usado para ajudar a pré-selecionar um grande número de periódicos”, explicou ele. “Mas a análise final deveria ser feita por profissionais humanos.”

Não é uma caixa preta

Acuña acrescentou que os pesquisadores não queriam que seu sistema fosse uma “caixa preta” como outras plataformas de IA.

“Com o ChatGPT, por exemplo, muitas vezes é difícil entender por que ele sugere algo”, disse Acuña. “Tentamos tornar o nosso o mais fácil de entender possível.”

A equipe descobriu, por exemplo, que periódicos questionáveis ​​publicaram um número anormalmente alto de artigos. Eles também incluíam autores com mais afiliações do que periódicos mais legítimos, e autores que citavam suas próprias pesquisas, em vez das de outros cientistas, com frequência anormalmente alta.


Fonte: La Jornada

IA, a bolha

Is an AI Bubble Inevitable?

Quando se pensa que a crise sistêmica do Capitalismo não pode ficar mais ruim do que já está, a realidade vem mostrar que, como na primeira Lei de Murphy, que aquilo que há sempre espaço para piora.

Vejam abaixo extratos de uma reportagem assinada pela jornalista Tamires Vitorio para a revista Exame sobre o que está exarando no movimento das bolsas estadunidenses em relação às empresas de tecnologia que produzem a chamada Inteligência Artificial (IA).

Segundo Vitorio,  as gigantes de tecnologia não conseguiram escapar do mal-estar dos mercados em elação a elas nesta semana.  Isto ocorreu por causa dos temores de uma possível bolha, as ações das big techs, juntas, acumulam queda de 5,6% até esta quinta-feira, 21, enquanto o Nasdaq Composite, principal índice de tecnologia nos Estados Unidos, caiu 2,1% em dois dias. Assim, empresas como Palantir, Nvidia, Apple e Microsoft lideram as quedas, com investidores começando a questionar se as expectativas de crescimento do setor são, de fato, sustentáveis.

A repórter da Exame também informou que um estudo recente do Massachusetts Institute of Technology (MIT) intensificou as preocupações ao apontar que 95% das empresas que investem em inteligência artificial ainda não viram retornos sobre esses investimentos.  Segundo o MIT, a maioria das startups e empresas que estão na vanguarda da IA queimam mais dinheiro do que geram receita. Em média, de acordo com a pesquisa, as companhias gastam US$ 5 para cada US$ 1 de receita. Outro ponto destacado pelo MIT foi a dificuldade de muitos projetos de IA de se traduzirem em soluções concretas e escaláveis, com uma grande parte dos produtos de IA ainda não gerando nenhum faturamento. Em 2024, uma análise de 600 empresas B2B revelou que 42% dos produtos de IA ainda não tinham gerado receita alguma.

Por outro lado, a reportagem afirma que Sam Altman, CEO da OpenAI, dona do ChatGPT, também adicionou tensão ao mercado ao afirmar que a IA está “em uma bolha”. Altman destacou que, embora a IA tenha o potencial de ser uma revolução tecnológica, o entusiasmo atual cria expectativas inflacionadas sobre os retornos que essas empresas podem gerar no futuro. Para ele, a situação atual reflete uma “euforia” que pode não ser sustentada, já que o desenvolvimento de IA em larga escala ainda enfrenta grandes desafios e, por enquanto, os lucros não acompanham o ritmo das valorizações das empresas.

O resultado dessa sensação de bolha da IA (sensação?) é que às 07h42 desta 5a. feira, no horário de Brasília, as principais ações de tecnologia operavam em queda no pré-mercado dos EUA.

Resumo da ópera: todo o frenesi em torno da IA e seus impactos futuros sobre o trabalho pode não passar de uma bolha, uma ilusão.

Ao “publicar ou perecer”, precisamos acrescentar “IA ou morrer”?

 A revolução da cointeligência está remodelando silenciosamente o que significa excelência acadêmica – e quem pode alcançá-la, afirma Jakub Drábik

Fonte: sompong_tom/Getty Images 

Por Jakub Drábik para o “Times of Higher Education”

Há uma sensação particular de desânimo com a qual muitos centro-europeus certamente estão familiarizados. Ela surge quando, ao ouvir um acadêmico britânico ou americano em uma conferência ou seminário, você percebe que, não importa quantos livros leia ou quão sólidas sejam suas ideias, você nunca falará ou escreverá em inglês com tanto estilo ou confiança quanto eles.

Fluência nativa na língua franca acadêmica, educação de elite e imersão precoce nas normas acadêmicas lhes dão um tipo de vantagem estrutural — uma com a qual os outros aprendem a conviver, mas que raramente conseguem superar.  

Ou assim eu pensava.

Ultimamente, tenho experimentado IA (Inteligência Artificial) generativa – não para terceirizar meu pensamento, mas para aprimorar a forma como o comunico. O resultado? Minha escrita ficou mais rápida, clara e precisa. É uma sensação estranha: ainda sou eu, mas com uma espécie de exoesqueleto intelectual.

Minha experiência — que certamente está longe de ser única — levanta uma questão desconfortável: a regra de ouro da sobrevivência acadêmica — publicar ou perecer — foi agora complementada por outra — IA ou morrer?  

Não quero dizer que a IA substituirá os acadêmicos (pelo menos, espero que não). Mas ela pode remodelar fundamentalmente a excelência acadêmica, como ela é alcançada e quem tem o direito de apresentar um desempenho de alto nível. E isso merece uma análise mais aprofundada.

Uma das mudanças mais visíveis trazidas pelas ferramentas de cointeligência é a redistribuição silenciosa do trabalho cognitivo. Tarefas que antes exigiam um esforço meticuloso – reformular frases incômodas, traduzir ideias para o inglês acadêmico, elaborar esboços – agora podem ser semiautomatizadas. Clareza e velocidade não estão mais vinculadas apenas à habilidade pessoal ou à fluência linguística, mas à fluência com que você consegue direcionar e moldar a produção de grandes modelos de linguagem. E se o que atualmente chamamos de “excelência” é, em parte, a capacidade de produzir textos claros e persuasivos com eficiência, então a excelência tem o potencial de ser compartilhada de forma mais equitativa. 

No entanto, o impacto da IA ​​na equidade tem limites. Acadêmicos em instituições com poucos recursos podem ter dificuldades para acessar os mesmos benefícios. O mesmo pode acontecer com aqueles que trabalham em idiomas pouco suportados pelos modelos tradicionais de IA. E aqueles que não têm proficiência técnica ou que se incomodam com a ausência de normas claras para o uso da IA ​​também podem ficar para trás.

Em relação a essas normas, todos parecem concordar que o autor deve permanecer responsável pelo conteúdo, independentemente do nível de IA envolvido. Mas não há consenso sobre como integrar essas ferramentas ao processo de escrita ou como – ou mesmo se – reconhecer sua contribuição.  

Na minha opinião, a alfabetização em IA deve ser tratada não como um acréscimo técnico, mas como uma competência acadêmica essencial – a par da alfabetização informacional ou da avaliação de fontes. Algumas universidades, especialmente no Reino Unido e nos EUA, já aceitaram isso e estabeleceram programas de alfabetização em IA para ajudar colegas mais cautelosos ou sobrecarregados a acompanhar os pioneiros – a iniciativa da Universidade Estadual do Arizona é frequentemente citada.

Mas outras instituições, particularmente na Europa Central e Oriental, permanecem hesitantes, ainda considerando o uso da IA ​​como suspeito ou até mesmo antiético. Alguns periódicos e conselhos de ética também têm se mostrado cautelosos. E em meio a tanta incerteza, a política não oficial passou a ser: use se quiser, mas não fale sobre isso em voz alta – pelo menos, não em reuniões.

Mas se aceitarmos, como devemos, que o uso da IA ​​é inevitável, precisamos lidar com a questão fundamental do que, exatamente, ainda é “nosso” no trabalho que produzimos quando a formulação, a estrutura e até mesmo parte da estrutura intelectual são cogeradas com a IA.  

Como argumentaram filósofos da tecnologia, como Shannon Vallor ou David J. Gunkel , o conhecimento coproduzido desafia a estrutura profundamente individualista da autoria, na qual se baseia o prestígio acadêmico. Talvez também precisemos repensar os conceitos de originalidade e até mesmo de contribuição intelectual.

Centrá-los em síntese, julgamento e direção pode fazer sentido, mas não tenho respostas. Aliás, nem tenho certeza se compreendo completamente o terreno em que estamos entrando. Mas se não mantivermos os olhos abertos e nos envolvermos com as implicações de para onde estamos indo – éticas, pedagógicas e institucionais –, podemos descobrir que não apenas a distribuição, mas o próprio significado da excelência acadêmica já mudou, enquanto ainda estamos discutindo se deveria mudar.

Jakub Drábik é professor de história na Universidade Anglo-Americana de Praga e pesquisador sênior no Instituto de História da Academia Eslovaca de Ciências


Fonte: Times of Higher Education