Um novo documento de posicionamento alerta contra a adoção acrítica da IA no meio acadêmico
Por Kent Anderson para o “The Geyser”
Vale a pena ler um recente documento de posicionamento de um grupo internacional composto por especialistas da Holanda, EUA, Alemanha e Dinamarca como um antídoto ao exagero em torno da Inteligência Artificial (IA) — que parece estar perdendo força por muitos dos motivos explorados no trabalho, outro sinal de que “ o inverno da IA ” pode estar chegando.
O público-alvo do artigo é o meio acadêmico, incluindo cientistas e profissionais da ciência, um grupo que inclui editores científicos:
Neste documento de posicionamento, explicamos por que as universidades devem levar a sério seu papel de a) combater o marketing, o exagero e os danos da indústria de tecnologia; e b) proteger o ensino superior, o pensamento crítico, a expertise, a liberdade acadêmica e a integridade científica.
Tópicos pesados, mas esses são os dias em que vivemos.
Os autores sabem o que fazem e começam com uma citação surpreendentemente boa de 1985:
A cultura da IA é imperialista e busca expandir o reino da máquina.
Sim, isso definitivamente ainda é verdade…
No entanto, os autores têm bastante munição própria:
IA sempre foi uma frase de marketing que corrói a integridade científica e a discussão acadêmica por natureza, deixando a porta aberta para pseudociência, exclusão e vigilância.
Eles lançam luz sobre os problemas de definição da expressão “inteligência artificial”, observando que um coração artificial bombearia sangue, fazendo a função que imita. A IA não faz isso. Eles também observam que o termo “inteligência” é vago e carregado de um histórico de eugenia, racismo e capacitismo, portanto, quando aceitamos as alegações antropomórficas da IA, estamos nos tornando suscetíveis a sermos enganados por um sistema que tem problemas em sua essência.
Termos como “frames falsos” e “software lixo” me fizeram querer comemorar lendo o artigo, já que este último foi um que usei outro dia para responder a um entusiasta de IA — afinal, IAs não conseguem somar de forma confiável, jogar xadrez sem quebrar as regras do próprio sistema de armazenamento e assim por diante. Um lixo completo.
Descrevendo a IA como uma “tecnologia colonizadora” — o que significa que ela busca dominar qualquer campo em que seja usada — os autores rejeitam a “degradação e o desmantelamento da expertise e a desumanização dos acadêmicos”, observando que os proponentes da IA rejeitam tacitamente a “autodeterminação livre das forças da indústria”.
Quanto ao uso da IA como uma muleta, eles escrevem: “Os LLMs não melhoram a capacidade de escrita de alguém, assim como pegar um táxi não melhora a capacidade de dirigir de alguém”.
- Em uma nota relacionada, um autor gracejou sobre Bluesky: “Correlação não é cognição”.
Os autores também sabem que precisamos seguir em frente, então eles oferecem cinco princípios para um futuro melhor com a IA ainda viável, mas colocada em seu lugar:
- Honestidade — não use IA secretamente e não faça afirmações sobre ela que você não pode provar
- Escrupulosidade — usar a IA apenas de formas científicas bem especificadas e validadas
- Transparência — tornar toda a IA de código aberto e computacionalmente reproduzível
- Independência — garantir que qualquer pesquisa seja imparcial em relação às agendas das empresas de IA
- Responsabilidade — não use produtos de IA que prejudiquem animais, pessoas ou o meio ambiente
Com o ceticismo em relação à IA aumentando desde o lançamento do GPT-5 e como ele caiu com um estrondo apesar do enorme hype, é ótimo ler um artigo de posicionamento escrito por pessoas que tratam isso como tecnologia, uma tecnologia que deve ser avaliada a todo momento como uma tecnologia — e não como uma tecnologia particularmente boa, compatível, eficiente, inevitável ou segura.
Para a academia, a IA é parte de um ataque tecno-utópico a todo o sistema. Não é uma ótima tecnologia nova projetada para nos ajudar a evitar tarefas domésticas. Como escreve uma de suas fontes: “Quando você terceiriza o pensamento, terceiriza o aprendizado”.
Espero que este documento sirva como um alerta.
Fonte: The Geyser


