Como a IA moldou o caminho de Milei até a presidência da Argentina

milei iaO presidente eleito da Argentina, Javier Milei, em uma seção eleitoral em Buenos Aires no domingo | REUTERS 

Por David Feliba, Thomson Reuters Foundation

Nas últimas semanas de campanha, o presidente eleito argentino, Javier Milei, publicou uma imagem fabricada retratando o seu rival peronista Sergio Massa como um comunista à moda antiga em traje militar, com a mão levantada em saudação.

A imagem aparentemente gerada por Inteligência Artificial (IA) atraiu cerca de 3 milhões de visualizações quando Milei a publicou numa conta de rede social, destacando como as equipes de campanha rivais usaram tecnologia de inteligência artificial para chamar a atenção dos eleitores numa tentativa de influenciar a corrida.

“Houve sinais preocupantes de uso de IA” nas eleições, disse Darrell West, pesquisador sênior do Centro de Inovação Tecnológica da Brookings Institution, com sede em Washington.

“Os ativistas usaram a IA para entregar mensagens enganosas aos eleitores, e isso é um risco para qualquer processo eleitoral”, disse ele.

O libertário de direita Milei venceu o segundo turno de domingo com 56% dos votos, ao aproveitar a raiva dos eleitores com a classe política – incluindo o partido peronista dominante de Sérgio Massa, mas ambos os lados recorreram à IA durante a turbulenta campanha eleitoral.

A equipe de Massa distribuiu uma série de imagens e vídeos estilizados gerados por IA por meio de uma conta não oficial do Instagram chamada “AI for the Homeland”.

Num deles, o ministro da economia de centro-esquerda era retratado como um imperador romano. Em outros, ele foi mostrado como um boxeador nocauteando um rival, estrelando uma capa falsa da revista New Yorker e como um soldado em cenas do filme de guerra “1917”.

Outras imagens geradas por IA pretendiam minar e difamar Milei, retratando o economista de cabelos rebeldes e sua equipe como zumbis e piratas enfurecidos.

A utilização de tecnologia de IA cada vez mais acessível em campanhas políticas é uma tendência global, dizem especialistas em tecnologia e direitos, levantando preocupações sobre as potenciais implicações para eleições importantes em países como os Estados Unidos, a Indonésia e a Índia no próximo ano.

Uma série de novas ferramentas de “IA generativa”, como o Midjourney, estão tornando mais barato e fácil a criação de fotos e vídeos fabricados.

Javier Milei fala aos apoiadores depois de vencer o segundo turno das eleições presidenciais na sede de seu partido, em Buenos Aires, no domingo.

Javier Milei fala aos apoiadores depois de vencer o segundo turno das eleições presidenciais na sede de seu partido, em Buenos Aires, no domingo. | AFP-JIJI

Com poucas salvaguardas legais em muitos países, há um desconforto crescente sobre a forma como esse material pode ser utilizado para enganar ou confundir os eleitores no período que antecede as eleições.

“Em todo o mundo, estas ferramentas para criar imagens falsas estão a ser usadas para tentar demonizar a oposição”, disse West.

“Embora não seja ilegal usar conteúdo gerado por IA em quase nenhum país, imagens que retratam pessoas dizendo coisas que não disseram ou inventando coisas claramente ultrapassam os limites éticos”.

Uso político

A maioria das imagens geradas por IA usadas na campanha eleitoral argentina tinham um sabor satírico, buscando provocar uma reação emocional dos eleitores e se espalhar rapidamente nas redes sociais.

Mas os algoritmos de IA também podem ser treinados em muitas imagens on-line para criar imagens, gravações de voz e vídeos realistas, mas fabricados – os chamados deepfakes.

Durante a recente campanha, um vídeo adulterado que parecia mostrar Massa usando drogas circulou nas redes sociais, com imagens existentes manipuladas para adicionar a imagem e a voz de Massa.

É uma nova fronteira perigosa em notícias falsas e desinformação, dizem os pesquisadores, com alguns pedindo que material contendo imagens deepfake carregue um rótulo de divulgação dizendo que foram gerados usando IA.

“Agora eles têm uma ferramenta que lhes permite criar coisas do zero, mesmo que seja evidente que pode ser gerado artificialmente”, disse West, acrescentando que “a divulgação por si só não protege as pessoas do perigo.

“Será um enorme problema nas eleições globais no futuro, pois será cada vez mais difícil para os eleitores distinguirem o falso do real”, disse ele.

Risco para a democracia

À medida que o conteúdo gerado pela IA se torna mais acessível e mais convincente, as plataformas de redes sociais e os reguladores lutam para se manterem à frente, disse o investigador de desinformação Richard Kuchta, que trabalha no Reset, um grupo que se concentra no impacto da tecnologia na democracia.

“É claramente um jogo de gato e rato”, disse Kuchta. “Se você observar como a desinformação funciona durante uma eleição, ela ainda é praticamente a mesma. Mas ela foi enormemente ampliada em termos de quão enganosa pode ser.”

Apoiadores do candidato presidencial argentino Javier Milei comemoram após o fechamento das urnas durante o segundo turno das eleições presidenciais em frente à sede do partido em Buenos Aires, no domingo.

Apoiadores do candidato presidencial argentino Javier Milei comemoram após o fechamento das urnas durante o segundo turno das eleições presidenciais em frente à sede do partido em Buenos Aires, no domingo. | AFP-JIJI

Ele citou um caso na Eslováquia no início deste ano, em que verificadores de factos se esforçaram para verificar gravações de áudio falsas publicadas no Facebook poucos dias antes das eleições de 30 de Setembro no país.

Na fita, uma voz parecida com a de um dos candidatos parecia estar discutindo como fraudar a eleição.

“Eventualmente, a peça foi considerada falsa, mas causou muitos danos”, disse Kuchta.

A Meta Platforms, proprietária do Facebook e do Instagram, disse este mês que a partir de 2024 os anunciantes terão que divulgar quando a IA ou outros métodos digitais forem usados ​​para alterar ou criar anúncios políticos, sociais ou relacionados a eleições nos sites.

Nos Estados Unidos, um grupo bipartidário de senadores propôs legislação para proibir a “distribuição de áudio, imagens ou vídeos materialmente enganosos gerados por IA relacionados a candidatos federais em anúncios políticos ou em determinados anúncios temáticos”.

Além disso, a Comissão Eleitoral Federal dos EUA pretende regular os deepfakes gerados por IA em anúncios políticos para proteger os eleitores contra a desinformação antes das eleições presidenciais do próximo ano.

Outros países estão a liderar esforços semelhantes, embora nenhuma proposta regulamentar deste tipo tenha ainda sido apresentada na Argentina.

“Ainda estamos nos estágios iniciais da IA”, disse Olivia Sohr, jornalista da ONG argentina de verificação de fatos Chequeado, observando que a maior parte das informações falsas que circularam durante a campanha envolviam manchetes de jornais fabricadas e citações falsas atribuídas a um candidato específico. .

“A IA tem o potencial de elevar a desinformação a um novo nível. Mas, por enquanto, existem outras formas igualmente eficazes de cumprir os seus objetivos sem serem necessariamente tão caras ou sofisticadas.”


color compass

Este texto escrito originalmente em inglês foi publicado pelo Japan Times [Aqui!].

Agências de fomento dizem não ao uso de IA na revisão por pares

Preocupações incluem confidencialidade, precisão e “originalidade de pensamento”

peer review IA

Por Jocelyn Kaiser para a Science

O neurocientista Greg Siegle estava em uma conferência no início de abril quando ouviu algo que achou “muito assustador”. Outro cientista estava entusiasmado com o fato de que o ChatGPT, a ferramenta de inteligência artificial (IA) lançada em novembro de 2022, rapidamente se tornou indispensável para redigir críticas às densas propostas de pesquisa que ele teve que percorrer como revisor de pares para os Institutos Nacionais de Saúde (NIH). Outros ouvintes assentiram, dizendo que viam o ChatGPT como uma grande economia de tempo: redigir uma revisão pode envolver apenas colar partes de uma proposta, como resumo, objetivos e estratégia de pesquisa, na IA e solicitar que ela avalie as informações.

O NIH e outras agências de financiamento, no entanto, estão colocando um fim nessa abordagem. Em 23 de junho, o NIH proibiu o uso de ferramentas de IA generativas online como o ChatGPT “para analisar e formular críticas de revisão por pares” – provavelmente estimulado em parte por uma carta de Siegle, que está na Universidade de Pittsburgh, e colegas. Após a conferência, eles alertaram a agência de que permitir que o ChatGPT escreva análises de bolsas é “um precedente perigoso”. Em um movimento semelhante, o Conselho de Pesquisa Australiano (ARC) em 7 de julho proibiu a IA generativa para revisão por pares após saber de revisões aparentemente escritas pelo ChatGPT.

Outras agências também estão desenvolvendo uma resposta. A National Science Foundation dos EUA formou um grupo de trabalho interno para verificar se pode haver usos apropriados de IA como parte do processo de revisão de mérito e, em caso afirmativo, quais “guardas de proteção” podem ser necessárias, diz um porta-voz. E o Conselho Europeu de Pesquisa espera discutir a IA tanto para redação quanto para avaliação de propostas.

O ChatGPT e outros grandes modelos de linguagem são treinados em vastos bancos de dados de informações para gerar texto que parece ter sido escrito por humanos. Os bots já levaram editores científicos preocupados com ética e precisão factual a restringir seu uso para escrever artigos. Algumas editoras e periódicos, incluindo a Science , também estão proibindo seu uso por revisores.

Para as agências financiadoras, a confidencialidade está no topo da lista de preocupações. Quando partes de uma proposta são inseridas em uma ferramenta de IA online, as informações se tornam parte de seus dados de treinamento. O NIH se preocupa com “para onde os dados estão sendo enviados, salvos, visualizados ou usados ​​no futuro”, afirma seu aviso.

Os críticos também temem que as revisões escritas por IA sejam propensas a erros (os bots são conhecidos por fabricar), tendenciosas contra visões não convencionais porque se baseiam em informações existentes e carecem da criatividade que impulsiona a inovação científica. “A originalidade do pensamento que o NIH valoriza é perdida e homogeneizada com esse processo e pode até constituir plágio”, escreveram os funcionários do NIH em um blog. Para periódicos, a responsabilidade do revisor também é uma preocupação. “Não há garantia de que o [revisor] entenda ou concorde com o conteúdo” que está fornecendo, diz Kim Eggleton, que dirige a revisão por pares na IOP Publishing.

Na Austrália, a ARC proibiu os revisores de bolsas de usar ferramentas de IA generativas 1 semana depois que uma conta anônima do Twitter, ARC_Tracker, administrada por um pesquisador local, relatou que alguns cientistas receberam avaliações que pareciam ter sido escritas pelo ChatGPT. Alguns obtiveram avaliações semelhantes quando colaram partes de suas propostas no ChatGPT, diz ARC_Tracker. Uma revisão incluiu até uma oferta, as palavras “regenerar resposta” que aparecem como um prompt no final de uma resposta do ChatGPT. ( O Science Insider confirmou a identidade do ARC_Tracker, mas concordou com o anonimato para que este pesquisador e outros possam usar a conta para criticar livremente o ARC e as políticas governamentais sem medo de repercussões.)

Os cientistas podem pensar que o ChatGPT produz feedback significativo, mas essencialmente regurgita a proposta, diz o proprietário do ARC_Tracker. É certo que alguns revisores humanos também fazem isso. Mas, “Há uma diferença muito grande entre uma revisão adequada – que deve fornecer insight, crítica, opinião informada e avaliação de especialistas – e um mero resumo do que já está em uma proposta”, escreveu o pesquisador em um e-mail ao Science Insider .

Alguns pesquisadores, no entanto, dizem que a IA oferece uma chance de melhorar o processo de revisão por pares. A proibição do NIH é um “recuo tecnofóbico da oportunidade de mudança positiva”, diz o geneticista psiquiátrico Jake Michaelson, da Universidade de Iowa. Os revisores podem usar as ferramentas para verificar suas críticas para ver se eles esqueceram alguma coisa na proposta, ajudá-los a avaliar o trabalho de fora de seu próprio campo e suavizar a linguagem que eles não perceberam soar “mesquinho ou mesmo maldoso”, diz Michaelson. “Eventualmente, vejo a IA se tornando a primeira linha do processo de revisão por pares, com especialistas humanos complementando as revisões de IA de primeira linha. … Prefiro ter minhas próprias propostas revisadas pelo ChatGPT-4 do que por um revisor humano preguiçoso”, acrescenta.

A paisagem provavelmente mudará com o tempo. Vários cientistas observaram no blog do NIH que alguns modelos generativos de IA funcionam offline e não violam a confidencialidade – eliminando pelo menos essa preocupação. O NIH respondeu que espera “fornecer orientação adicional” para uma “área em rápida evolução”. 

Mohammad Hosseini, pesquisador de pós-doutorado em ética da Northwestern University que escreveu sobre IA na revisão de manuscritos, concorda que a proibição do NIH é razoável, por enquanto: “Dada a sensibilidade dos problemas e projetos com os quais o NIH lida e a novidade das ferramentas de IA, adotar uma abordagem cautelosa e medida é absolutamente necessária.”


compass black

Este texto escrito originalmente em inglês foi publicado pela revista Science [Aqui!].

IAgora: inteligência artificial e alienação

Aquilo que a IA acessa em seu banco de dados não é a inteligência artificial, mas o conjunto de saberes e experiências humanas objetivadas, distanciadas de seus criadores e que voltam a ele como uma força hostil que os ameaça. Em outras palavras, aliena-se

ia

Por Mauro Iasi para o Blog da Boitempo

“O cérebro eletrônico comanda
Manda e desmanda
Ele é quem manda
Mas ele não anda”

Gilberto Gil (Cérebro eletrônico, 1969)

Em uma brilhante charge, que infelizmente não sei quem é o autor, vemos uma pessoa perguntado a outra se ela se preocupa com o avanço da inteligência artificial e o outro responde que não, que se preocupa mais com o retrocesso da inteligência natural.

Não foram poucas as reações diante de aplicativos que prometem textos sobre qualquer assunto, desenhos criativos, fotos forjadas, debates sobre o sentido da vida ou da filosofia ou da sociologia ou da arte culinária, poemas e letras de música, tudo isso diante de um mero comando e certos indicativos daquilo que se deseja. Expoentes das empresas lançaram uma carta manifesto contra os perigos da IA e pediram um tempo, não se sabe se para poder entrar na concorrência ou pensar nas dimensões supostamente éticas de tal desenvolvimento tecnológico.

Outros mais pragmáticos lançaram livros, como por exemplo um que apresenta um manual de como escrever romances de sucesso usando o famoso aplicativo, não sabemos se escrito por aquele que se denomina autor ou pelo aplicativo. De qualquer maneira, estranhamente apresentado na forma impressa, naquilo que os mais antigos chamariam de “livro”. Neste pequeno manual se afirma que o pretendente a autor deve oferecer ao aplicativo um tema, protagonistas e personagens, uma linha de desenvolvimento da trama e outras dicas para que a inteligência artificial escreva por ele o romance.

Duas coisas nos chamam a atenção de pronto. Em primeiro lugar, o fato de as buscas e pesquisas sobre inteligência artificial já terem uma história bastante antiga, provavelmente nos anos 1950, despertando eufóricas esperanças e dúvidas éticas desde sempre. Aristóteles, desde a longínqua Antiguidade, já ironizava que se os instrumentos pudessem se mover sozinhos não seriam necessários escravos, evidentemente para, diante do absurdo de tal premissa, justificar a escravidão como necessária e natural. Hannah Arendt, diante dos avanços tecnológicos presenciados nos anos 1950, atualiza a premissa de seu mestre, agora não como ironia, mas como base para a sombria previsão que em poucos anos as fábricas se esvaziariam e a condição humana se veria diante do dilema catastrófico de uma sociedade fundada no trabalho que elimina o emprego.

A segunda ordem de reflexão nos remete a um mito ainda mais antigo, que marca a sociedade moderna. Refiro-me aqui ao receio de que as obras humanas fujam ao controle e se voltem contra seus criadores. Este medo atávico se apresenta de forma recorrente, tal como se expressa no clássico Frankenstein: o Prometeu moderno (1818) de Mary Shelley, no também clássico desespero de Mickey Mouse tentando controlar vassouras que colocou em movimento para evitar seu trabalho no filme da Disney, Fantasia (1940), sem nos esquecermos da premissa fundamental da saga Matrix (1999, 2003 e 2021), em que as máquinas substituíram os seres humanos (Animatrix, 2003).

No caso de Mary Shelley, não por acaso filha da filósofa feminista Mary Wollstonecraft, quando de uma estadia chuvosa com seus amigos divertindo-se no Lago de Genebra, contando histórias de terror e discutindo os estudos de Eramus Darwin (cientista e poeta do século XVIII, avô de Charles Darwin), que afirmava ter movido matéria morta por meio da eletricidade, teve a ideia de um conto que acabou tornando-se o famoso romance sobre Frankenstein. Sobre a ideia, a autora afirmou um tempo depois que seria “terrível, extremamente assustador o efeito de qualquer esforço humano na simulação do estupendo mecanismo do Criador do mundo”.

No entanto, tudo que a humanidade tem feito até hoje no desenvolvimento da tecnologia pode ser descrito como a sina de Prometeu, o subtítulo da obra de Shelley. Ele, diz a lenda, ficou encarregado pelos deuses de criar o homem a partir do barro (no qual observamos que a terceirização e o plágio são coisas antigas), mas acabou roubando o fogo dos deuses para oferecer aos homens e por tal crime foi condenado a ficar preso em um rochedo tendo seu fígado devorado e recriado para ser devorado novamente por abutres.

O ser humano é um ser que faz instrumentos para complementar sua anatomia natural precária, compensando seus dentes retos, a falta de garras e força, com machados de pedra, flechas e lanças. Para tanto, lança mão de duas características naturais da espécie: os polegares opositores e um telencéfalo altamente desenvolvido. Com isso desenvolveu, como afirma Marx, uma atividade exclusiva do gênero humano: o trabalho. Para o pensador alemão, o trabalho exige a capacidade teleológica, isto é, a incrível capacidade de antever o resultado desejado em seu cérebro, interessantemente a raiz do nome Prometeu (aquele que vê antes).

O cérebro humano tem a capacidade armazenar informações e associá-las, quando necessário, por isso pode responder às necessidades usando sua experiência anterior e sua habilidade com as mãos criando instrumentos e técnicas diversas.

O que faz a chamada Inteligência Artificial? Em princípio, ela busca informações e as associa de acordo com a necessidade de responder a algo ou alguém. Este seria o aspecto da inteligência, o caráter artificial é que ela não busca isso usando um cérebro que armazena pessoalmente experiências, ela busca em um banco de dados previamente alimentado de informações por meio de circuitos e algoritmos.

O grande salto desta ferramenta, dizem os especialistas, é que em comparação com as formas computacionais anteriores, que também buscavam dados e os associavam para executar tarefas,  elas podem (ou mais precisamente estão se desenvolvendo para tanto) aprender. Em outras palavras, acumular “experiências” que possam ser usadas em outras situações. A grande dificuldade neste campo, segundo ainda aqueles que entendem do assunto e que diferem de uma malta de palpitadores, é que os computadores não erram e o erro é um caminho importante da inteligência.

Existe uma sintonia muito fina na ação humana, que faz com que pela experiência a ação seja corrigida e assim aperfeiçoada, guardando-a na memória e aplicando quando exigida. Um cientista pesquisador da IA fez um teste interessante. Ele jogava uma bola para uma pessoa. Alterando aleatoriamente e com movimentos pequenos a trajetória da bola, a pessoa rapidamente conseguia pegá-la, corrigindo a posição das mãos e do seu corpo. Já para a máquina, isto implica em uma série de comandos pré-programados e a capacidade ver que a bola está vindo alguns milímetros para um lado ou outro, que não podem ser antecipados, isto é, a maquina tinha que aprender. Bom, é isso que o desenvolvimento da IA busca. Interessante notar que todo desenvolvimento da técnica foi para fazer o que nós como humanos não poderíamos fazer, mas agora seria para fazer aquilo que só nós como humanos fazemos. Estranho.

Mas, por que isto deveria nos assustar? Certamente existe uma série de funções muito úteis para este desenvolvimento tecnológico, desde controle de tráfego aéreo até pedir para a caixinha de som tocar sua música predileta.

Em sua bela cnação da década de 1960, Gilberto Gil procura destacar o que o distingue do cérebro eletrônico. Já no início da música, diz o querido Gil que o cérebro eletrônico “faz quase tudo, mas ele é mudo” e logo depois, em outra parte da letra, afirma que ele “comanda, manda e desmanda”, mas ele “ não anda”. Ora, hoje podemos dizer que a Alexa e alguns robôs estão aí para provar que falam e andam. Parece que alguns aplicativos podem estabelecer até uma interessante conversa sobre se deus existe ou juntar todas as informações disponíveis sobre o tema da morte e talvez oferecer reflexões pertinentes ou simulações de conforto espiritual para avançarmos em nosso caminho inevitável para a morte.

O receio atualizado, fiel à premissa de Arendt, é que tal capacidade venha a substituir os seres humanos. Já aparecem listas de profissões que estarão extintas com a generalização da IA, que incluem atendentes de telemarketing e de atendimento ao cliente, sociólogos, fotógrafos, jornalistas, tradutores, pesquisadores, analistas de dados, assistentes jurídicos, terapeutas e psicólogos, educadores físicos, nutricionistas, entre outras. A previsão, no caso de pesquisadores, é de um ano. Achei interessante que os filósofos não constam na lista, talvez por já serem considerados extintos.

Vamos com calma. Algumas chamadas profissões devem ser mesmo extintas, primeiro pelo fato de que não são profissões, como telemarketing ou serviços de atendimento ao cliente (previsão para desaparecerem de seis meses a um ano – acho muito), trabalhos extremamente precarizados que não oferecem nenhuma perspectiva profissional. Em segundo lugar, pelo fato de que algumas atividades são degradantes e emburrecedoras, por isso seria melhor que fossem relegadas a instrumentos ou algoritmos (que, diga-se logo, precisam melhorar muito – só quem sofreu com os autoatendimentos burros sabe do que se trata).

O que me chama a atenção é que o temor se fundamenta em uma total incompreensão do trabalho humano, reduzido a uma mera tarefa. Seria demais pedir que lessem Marx, mas já ajudaria ver a distinção realizada pela conservadora Hannah Arendt em seu livro sobre a condição humana entre labor e trabalho. O temor é uma expressão de nossos tempos de decadência, mas como tal é uma expressão fidedigna da materialidade miserável em que nos encontramos.

Se os instrumentos, além da mecanização de tarefas, desenvolverem a capacidade de guardar dados, relacioná-los para responder questões, aprenderem e serem capazes de simular experiência e memória, resta algo que parece ser desconsiderado: a intencionalidade. Em outras palavras o porquê de fazer tudo isso.

A resposta é que vivemos em tempos de subordinação real da vida e, portanto, do humano ao capital e ao processo de valorização do valor. Como tal, no auge da reificação na qual o humano se coisifica e as coisas se fetichizam. O lugar do ser humano na atividade do trabalho não se reduz a coisa na qual objetiva seu ser, nela está a intencionalidade e o fim último da coisa no consumo da substância última do  ser objeto, que é a satisfação de uma necessidade do corpo ou do espírito.

Pensando na perspectiva humana, nós seriamos o início e o fim de tal processo, mas subsumidos ao domínio do capital e do valor, nos tornamos meios do processo de valorização no qual a intencionalidade e o fim último é o capital e seu movimento de valorização. O capital é o sujeito e nós os meios de sua realização.

Aquilo que a IA acessa em seu banco de dados não é a inteligência artificial, mas o conjunto de saberes e experiências humanas objetivadas, distanciadas de seus criadores e que voltam a ele como uma força hostil que os ameaça. Em outras palavras, aliena-se. Aquilo que acessa não é mais que um instrumento que foi feito por seres humanos que nele se objetivaram e igualmente se alienaram. Tanto o instrumento tecnológico como o conjunto de dados é produto da inteligência humana que fica escondida em seu produto estranhado. Por precisão terminológica, a sigla IA deveria significar Inteligência Alienada.

O cérebro eletrônico agora fala e anda, pode discutir se deus existe ou o sentido da morte, pode até sistematizar um texto coerente sobre a teoria social marxiana e a possibilidade de uma revolução social, pode até assumir o comando e nos considerar obsoletos, inúteis e nos destruir como em O Exterminador do Futuro (1984) ou em 2001: uma odisseia no espaço (1968), quem sabe. No entanto, o sujeito desta ameaça não é a tecnologia, mas uma classe que transformou os meios necessários à vida em mercadorias e estas em veículos de valor e mais valor. O capital é a força estranhada que pode decidir se vivemos ou morremos, se produziremos vida ou morte. Por trás do capital existe uma classe que tem por interesse manter o processo de acumulação: a grande burguesia monopolista.

Há, ainda, um último elemento neste processo de alienação, aquilo que Marx e depois Lukács chamaram de “decadência ideológica”. Se a tecnologia é uma objetivação da inteligência humana, foi também um meio de desenvolvê-la. Agora, sob o invólucro das relações que constituem a sociedade do capital no máximo de seu desenvolvimento, ela se transforma em seu contrário, passa a constituir uma barreira para o desenvolvimento do saber humano. A ingenuidade decadente imagina um conjunto de dados e um instrumentos de busca, ambos isentos de interesses e valores, mas o simples uso de uma ferramenta de busca demonstra a falácia de tal neutralidade objetiva.

Um aplicativo pode fazer um texto adequado sobre os fundamentos da sociologia e seus três autores fundantes – Marx, Durkheim e Weber –, mas o preguiçoso aluno apreenderá algo ao pedir que a máquina faça seu trabalho? Graças ao aplicativo, até um imbecil pode escrever um romance, mas continuará um imbecil. Há uma diferença entre associar palavras dispersas e dar a isto um formato de um texto ou uma imitação de produção intelectual, porque esta implica a intencionalidade e a subjetividade do autor que ao contribuir com o saber coletivo engrandece a si mesmo. Subsumido à ordem da mercadoria e do capital, como dizia Marx, quanto mais o trabalhador realiza a mercadoria, mais se desrrealiza.

No caso sobre o qual nos debruçamos, o preguiçoso e suposto autor que só pede que a máquina reúna os dados existentes e previamente armazenados, sem acrescentar nada nem ao conhecimento coletivo nem a ele próprio: um algoritmo pode escrever um texto, mas nunca escrevera O Capital, pode escrever um romance, mas nunca escreverá As vinhas da ira. Pode. Pode juntar palavras belas em uma métrica perfeita, mas nunca será Maiakóvski, pode fazer uma música mas nunca poderá ser Caetano Veloso. E se um dia, por uma hipótese absurda o fizer, será para que enquanto máquina possa ser aquilo que nós, enquanto humanos, abdicamos de ser.

Sabe Gil… permita-me mexer em seus versos:

Nosso caminho não precisa ser para a morte
Porque somos vivos
Somos muito vivos e sabemos
Que cérebro eletrônico nenhum nos dá socorro
Com seus botões de plástico e seus olhos de vidro


Quais são os impactos das tecnologias em nossa sociedade? Que consequências enfrentamos com a concentração das principais ferramentas tecnológicas que regem a vida de milhões de pessoas no domínio de um punhado de empresas estadunidenses? De que maneira é possível relacionar algoritmos a racismo, misoginia e outras formas de violência e opressão?

Em Colonialismo digital: por uma crítica hacker-fanoniana, Deivison Faustino e Walter Lippold entrelaçam tecnologia e ciências humanas, apresentando um debate provocador sobre diferentes assuntos de nossa era. Inteligência artificial, internet das coisas, soberania digital, racismo algorítmico, big data, indústrias 4.0 e 5.0, segurança digital, software livre e valor da informação são alguns dos temas abordados.

A obra se inicia com um debate histórico e conceitual sobre o dilema das redes e a atualidade do colonialismo para, em seguida, discutir as expressões “colonialismo digital” e “racismo algorítmico”. Ao fim, apresenta uma reflexão sobre os possíveis caminhos a seguir, partindo das encruzilhadas teóricas e políticas entre o hacktivismo anticapitalista e o pensamento antirracista radical. Para discutir a relação dialética entre tecnologia, dominação e desigualdade e propor pautas fundamentais a movimentos sociais, os autores dispõem, ao longo da obra, da contribuição de intelectuais como Frantz Fanon, Karl Marx, Julian Assange, Shoshana Zuboff, Byung-Chul Han, Marcos Dantas, entre outros.

A edição conta, ainda, com a colaboração de referências no debate nacional: a apresentação é de Sergio Amadeu, especialista em software livre e inclusão digital no Brasil; e o texto de orelha é deTarcízio Silva, pesquisador e um dos maiores nomes do hacktivismo brasileiro.

Mauro Iasi é professor adjunto da Escola de Serviço Social da UFRJ, pesquisador do NEPEM (Núcleo de Estudos e Pesquisas Marxistas), do NEP 13 de Maio e membro do Comitê Central do PCB.


color compass

Este texto foi originalmente publicado pelo Blog da Boitempo [Aqui!].

UFRJ promove evento sobre “produção intelectual na universidade e ChatGPT”

chat

A Câmara Técnica de Ética em Pesquisa (CTEP), instância consultiva do Conselho de Ensino para Graduados (CEPG) da Universidade Federal do Rio de Janeiro (UFRJ), associada à Pró-Reitoria de Pós-Graduação e Pesquisa (PR-2), convida a comunidade universitária para uma discussão sobre “Produção intelectual na universidade e Chat GPT: Novos tempos para a integridade acadêmica”.

O evento será realizado no dia 25 de maio de 2023, das 15:30 às 18h, em formato virtual (link para inscrição ao final desta mensagem). Haverá interpretação de libras.

Detalhes de acesso serão disponibilizados por e-mail no dia 24 de maio, um dia antes do evento.

O tema é de amplo interesse público e, no âmbito da produção intelectual na universidade, são inúmeras as oportunidades e desafios que incluem questões de natureza autoral e de integridade acadêmica de amplo interesse na comunidade universitária. Este evento explorará algumas dessas oportunidades e desafios nas atividades de ensino e pesquisa na graduação e na pós-graduação.

A PR-2 e a PR-1 estimulam a participação, especialmente de docentes e discentes.

Segue a programação:

  • “Produção intelectual na universidade e Chat GPT: Novos tempos para a integridade acadêmica” [25 de maio 2023 – 15:30-18h]
    Abertura (15 min) – Profa. Denise Freire (IQ/CCMN) – Pró-Reitora de Pós-Graduação e Pesquisa (PR-2); Prof. Marcelo de Pádula (FF/CCS) – Pró-Reitor de Graduação (PR-1); Profa. Sonia Vasconcelos (IBqM/CCS) – Coordenadora da CTEP
    Apresentação dos palestrantes (5 min)
  • Apresentação 1 (30 min) – Prof. Jesús Mena-Chalco – Centro de Matemática Computação e Cognição (CMCC); Escritório de Integridade em Pesquisa da UFABC – Universidade Federal do ABC (UFABC)
  • Apresentação 2 (30 min) – Prof. Renan Almeida – Programa de Engenharia Biomédica da COPPE/UFRJ; Membro da Subcâmara de Integridade em Pesquisa da CTEP/UFRJ (Vice-Coordenador)
  • Sessão de Debates com a Audiência (60 min) – Moderadores: Profa. Sandra Becker (Instituto de Relações Internacionais e Defesa/CCJE); Profa. Bianca Ortiz (Decania/CCS/UFRJ); Profa. Mariana Boechat (Decania/CCS/UFRJ); Ariane Roder (COPPEAD) – Superintendente Acadêmica de Pesquisa (PR-2)
  • Considerações Finais (10 min) – Prof. Edson Watanabe (PEE/COPPE)

Inscrições: (15 a 23 de maio de 2023): Aqui

Haverá Certificado de Participação – que deverá ser solicitado pelos participantes no final do evento. 

Inteligência artificial prevê risco de incêndio florestal em 35 zonas do Espírito Santo

eucalipto fogo

bori conteudo

Nos últimos anos, os incêndios florestais têm sido pauta recorrente devido às graves consequências ecológicas, econômicas e sociais. Pesquisadores da Universidade Federal do Piauí (UFPI), Universidade Federal do Espírito Santo (UFES) e Instituto Federal do Espírito Santo (IFES) mostram que a tecnologia pode ser uma importante aliada do meio ambiente ao prever risco de incêndio. Por meio do uso de inteligência artificial, eles conseguiram determinar 35 zonas de gestão do fogo no Espírito Santo, com seus correspondentes níveis de risco de incêndios e influência de variáveis. Os resultados estão publicados na revista “Anais da Academia Brasileira de Ciências” na sexta-feira (28).

Os pesquisadores utilizaram dados de incêndios florestais para gerar um mapa de densidade do fogo e representar os locais de maior e menor ocorrência de incêndio. O objetivo do estudo foi integrar conhecimento de modelagem espacial e inteligência artificial para avaliar a previsão dos incêndios florestais em escala regional. A tecnologia foi parte essencial do estudo, na utilização do algoritmo Classification and Regression Trees (CART), para compreender a importância de doze variáveis socioeconômicas, de vegetação, clima e de relevo na previsão dos incêndios florestais. Os doze preditores definidos são densidade demográfica, precipitação média anual, uso e cobertura da terra, renda, altitude, índice topográfico composto, déficit hídrico médio anual, temperatura média anual, proximidade de estradas, declive, campo contínuo de vegetação e radiação solar.

fire prediction

“A metodologia CART tem como principal atrativo a interpretação proporcionada pela estrutura de árvore de decisão obtida no modelo final que, também pode ser lido, como um conjunto de sentenças lógicas a respeito das variáveis explicativas.”, explica o engenheiro florestal Ronie Juvanhol, um dos autores do estudo. De acordo com o pesquisador, a aplicação do algoritmo gerado é a possibilidade de autoalimentação dos dados, a fim de automaticamente desenvolver a predição do incêndio. “Além disso, há a possibilidade de criar cenários com base em mudanças simuladas nos dados, com o objetivo de observar novas disposições espaciais das zonas de manejo do fogo e seus valores de risco de ocorrências de incêndio e considerar essas informações durante a tomada de decisão”, acrescenta Juvanhol.

“Saber onde os incêndios florestais estão ocorrendo e sua interação com os fatores do clima, vegetação, relevo e socioeconômico é particularmente relevante para estabelecer quais ações devem ser prioritárias nos locais de maior risco de incêndios.”, reforça Ronie Juvanhol. Segundo o autor, é de suma importância que os gestores públicos tenham esse conhecimento, permitindo o planejamento estratégico dos programas de prevenção e combate. Exemplo disso, apontado no estudo, é a relação entre as áreas de maior risco de incêndio e regiões de vulnerabilidade social.


color compass

Este texto foi originalmente publicado pela Agência Bori [Aqui!].

Como o robô do INSS nega aposentadorias e benefícios

robot

Por Priscila Arraes Reino

Se a inteligência artificial está cada vez mais presente em nossa vida, por que o robô do INSS não funciona a favor das pessoas que trabalham e recolhem para a previdência? 

Deveria ser assim, e eu acredito que você concorde comigo. Mas o que nós previdenciaristas constatamos diariamente, é confirmado pelos próprios números da previdência: 3 entre 4 pedidos de aposentadoria são negados pelo INSS.

Depois de quase um ano de implantação no sistema do INSS, o que está acontecendo na prática é que o robô do INSS tira os brasileiros da fila de pedidos para colocar em outra fila, a de recursos. 

Enquanto a fila de requerimentos de benefícios caiu 25%, a fila de recursos e revisões aumentou 32%.

A tendência é de alta e chega a ser cruel com as pessoas que aguardam aposentadoria porque, dessa fila, os segurados demoram ainda mais para sair. 

A espera por uma resposta do INSS para rever um pedido negado é em média 589 dias. Isso mesmo: quase dois anos. 

Situações assim poderiam ser evitadas, pois na maioria das vezes essas pessoas já cumpriram os requisitos para receber o que lhes é de direito, mas caíram na armadilha do robô. 

Vou te explicar como funciona o site do Meu INSS, onde o calvário de uma aposentadoria ou benefício negado começa. 

Quando o segurado entra no site do Meu INSS fazendo um pedido de benefício responde a várias perguntas, com as opções “sim” ou “não”. A inteligência artificial analisa suas respostas e dá o encaminhamento. 

De forma automática, a inteligência artificial utiliza os dados existentes nas bases da administração pública. Boa parte deles possui imprecisões e precisam ser corrigidos a  tempo, do contrário os pedidos são indeferidos.  

A base de dados utilizada pelo robô é o extrato previdenciário CNIS, Cadastro Nacional de Informações Sociais do INSS. Se nesse documento existe algum erro (e quase sempre existe), aí começam os problemas. 

O exemplo mais comum é ter vínculo em aberto, com data de início e sem data fim. Neste caso, o INSS vai desconsiderar esse tempo de trabalho e contribuição, com duas consequências: 

  • pode faltar tempo para fechar os requisitos de acesso a uma aposentadoria ou benefício. 
  • pode acontecer do benefício ser concedido com valor mais baixo do que deveria.

Além disso, robô não analisa o tempo real de contribuição do segurado nessas situações: 

  • de quem trabalhou com atividades expostas a agentes nocivos e recebeu insalubridade
  • prestou serviço militar e poderia incluir esse tempo para fins de benefícios previdenciários
  • se tornou uma pessoa de deficiência e pode usar a condição PcD para melhorar o benefício
  • trabalhou como professor ou professora
  • poderia contar com a reafirmação da DER (Data de Entrada do Requerimento) 
  • poderia contar com reconhecimento de ações trabalhistas ganhas 
  • ou inclusão de tempo sem carteira assinada, ou tempo rural. 

O robô só funciona para aquele segurado com os dados completamente regularizados, que não tem indicação no CNIS, não possui tempo diferenciado ou especial. 

Se você é um dos segurados que sempre trabalhou na mesma empresa, com todos os recolhimentos contabilizados, sem falhas, atrasos ou lacunas, se não tem nenhuma situação que uma máquina não consiga realizar, pode ficar tranquilo. 

Do contrário, o recomendável é que você conte com a ajuda de um especialista previdenciário para não entrar na triste estatística dos 75% de requerimentos negados pelo INSS. 

A situação pode ser resolvida em uma consulta previdenciária ou com o planejamento de aposentadoria para ter a segurança de qual é o momento certo para se aposentar e quais providências podem ser tomadas para melhorar o valor do benefício. 

Mais informações  [Aqui!]

Priscila Arraes Reino, advogada especialista em direito previdenciário e direito trabalhista, palestrante e sócia do escritório Arraes e Centeno.  

Os olhos da Amazon: uma força de trabalho oculta conduz um vasto sistema de vigilância para aumentar o lucro

olhos

Por  Niamh McIntyre e  Rosie Bradbury para o Bureau of Investigative Journalism

Dentro de um vasto armazém da Amazon em Beaumont, Califórnia, robôs azuis atarracados carregando estantes amarelas de 2,5 metros executam uma dança mecanizada entre si enquanto se dirigem para os trabalhadores humanos.

Amari* trabalha 42 horas por semana lá como estivador, colocando os produtos nas prateleiras que os robôs trazem para ele. “As câmeras são apontadas para sua estação o tempo todo”, disse ele. “É meio humilhante ter alguém olhando por cima do seu ombro a cada segundo.”

Mas não são apenas os dirigentes de Amari que estão de olho. Um sistema de câmeras inteligentes também monitora os movimentos dos estoquistas – e se alguém falhar, um vídeo é enviado para alguém a milhares de quilômetros de distância cuja entrada ajuda a melhorar as ferramentas de aprendizado de máquina da Amazon.

Os vídeos são revisados ​​por trabalhadores como Viraj em Bengaluru, na Índia. “É um trabalho muito agitado”, disse ele. “Não devemos piscar os olhos enquanto revisamos um vídeo, porque nossa precisão diminuirá. Temos que estar na tela por pelo menos oito horas – o que é meio doloroso.”

Amari e Viraj podem trabalhar em países diferentes fazendo trabalhos diferentes. Mas ambos executam tarefas repetitivas cuja produção é rigorosamente monitorada, tudo isso servindo para ajustar o próprio sistema usado pela Amazon para monitorar de perto seus próprios funcionários – e criar a experiência perfeita desfrutada por seus clientes.

Revisores como Viraj chegam a 8.000 vídeos por dia, com sua produção classificada em relação à de seus colegas. O ritmo implacável de seu trabalho pode causar sérios danos físicos. Eles recebem apenas £ 212 por mês.

Os revisores de vídeo entrevistados pelo Bureau relataram problemas físicos, incluindo dores de cabeça, dor nos olhos e até deterioração da visão. Eles disseram que foram feitos para atingir alvos punitivos, com o software de rastreamento registrando todos os períodos de inatividade fora dos horários de intervalo designados. Enquanto um especialista recomendou que as pessoas que fazem anotações de vídeo fizessem pausas na tela a cada meia hora, alguns disseram que seus objetivos não permitiam isso.

O Bureau of Investigative Journalism entrevistou 33 funcionários atuais e antigos da Amazon, incluindo 21 revisores de vídeo, para lançar luz sobre um posto avançado pouco conhecido das extensas operações globais da Amazon.

O porta-voz da Amazon, Steve Kelly, contestou várias das alegações nesta história, dizendo que o Bureau e o Verge “selecionaram um punhado de anedotas para pintar uma imagem enganosa e não acreditamos que representem a grande maioria de nossa equipe”.

Anson Chan

‘Não somos capazes nem de piscar os olhos’

A Amazon desenvolveu uma ampla gama de aplicativos que usam visão computacional – um ramo do aprendizado de máquina no qual os computadores processam um grande número de imagens e aprendem a reconhecer padrões.

As câmeras apontadas para a estação de Amari usam visão computacional para registrar automaticamente a localização dos produtos em seu estoque e sinalizar os erros que ele comete. Essa tecnologia também foi implantada nas lojas Amazon Go e para monitorar a conformidade com as diretrizes de distanciamento social dos funcionários do depósito.

A Amazon diz que o algoritmo do sistema é 95% preciso; o restante dos casos requer verificações manuais. Isso significa que todos os dias milhões de imagens e vídeos são enviados para trabalhadores na Índia e na Costa Rica, que decidem se um produto foi armazenado com sucesso e indicam onde ele está localizado na estante.

Os revisores de vídeo disseram que seu papel principal era o gerenciamento de estoque – mas também podem registrar os erros cometidos por seus colegas no exterior: dois ex-funcionários disseram que os revisores poderiam levantar questões de “etiqueta de armazenamento” se vissem os estivadores quebrando as regras da Amazon diante das câmeras.

O mais importante, porém, é que seu trabalho manual ininterrupto ajuda a melhorar o sistema de visão computacional, que aprende com suas respostas e se torna cada vez mais preciso. Mas as pessoas que ensinam os computadores da Amazon a ver disseram que seus próprios olhos foram danificados pelo trabalho.

“Não poderemos nem piscar os olhos, pois precisamos ficar de olho nos vídeos”, disse Prisha, uma ex-revisora ​​de vídeo que mora em Hyderabad, na Índia. “Isso afetou muito minha saúde. Isso deixa os olhos muito secos porque você olha constantemente para aquela tela.”

Os vídeos duram entre dois segundos e dois minutos, e os revisores disseram que podem assistir milhares em um dia. Os turnos geralmente duram de oito a nove horas, embora possam ser aumentados para 11 horas durante os períodos de maior movimento, como na véspera do Natal ou da Black Friday. Os revisores têm cerca de uma hora e meia de intervalo, com quaisquer períodos de inatividade fora disso registrados instantaneamente pelo software de rastreamento.

Os entrevistados indianos disseram que ganhavam 25.000 rúpias (£ 265) por mês em média, enquanto a média da Costa Rica era de 514.000 colones (£ 716).

Observação constante

Os humanos por trás da visão computacional que tudo vê da Amazon são monitorados de perto enquanto trabalham.

Mateo, um ex-revisor na Costa Rica, costumava passar seus turnos verificando se os trabalhadores nos armazéns dos EUA estavam observando os protocolos do COVID-19. Mas em uma ocasião, ele viu algo perturbador em seu feed.

Era uma sala de descanso da Amazon, com cadeiras dispostas, muito parecida com a de seu próprio prédio. Dava-lhe uma estranha sensação de estar sendo observado. “Provavelmente outra pessoa, em outro lugar, estava me observando no momento em que eu os observava”, disse ele.

Os gerentes acompanham o desempenho dos revisores com análises em tempo real e devem manter uma alta taxa de precisão, entre 95 e 99,5%. Nitara, que conseguiu um emprego na Amazon em Bengaluru após a universidade, não conseguiu passar no período de estágio devido a não atingir seus alvos de precisão. “Não tínhamos permissão para cometer erros”, disse ela. “Para mim, isso foi muito difícil de lidar. Sou humano, não sou um robô.”

Enquanto eles decidem como categorizar um vídeo, um cronômetro na tela conta quanto tempo eles demoram. Se eles demorarem muito, seu tempo “takt” – o tempo médio para assistir a um vídeo – aumentará e eles poderão estar sujeitos a retreinamento, processos disciplinares ou até mesmo perder o emprego.

“Você não pode se mover ou fazer nada”, disse Prisha. “Se você der um pequeno intervalo, seu takt aumentará e você poderá cair no fundo.”

Um documento passado ao Bureau por um ex-revisor na Índia mostra o sistema de classificação takt para 25 funcionários, com os quatro últimos nomes destacados em vermelho. O de melhor desempenho tem um takt time de 5,7 segundos; a pessoa com classificação inferior 13 segundos.

Jiyan, outro ex-revisor baseado na Índia, disse que, embora as metas fossem administráveis, o trabalho ainda era “estressante”. O que mais o incomodava, porém, era a monotonia. “É um trabalho muito chato”, disse ele. “O dia inteiro, por sete horas e meia, você está fazendo a mesma coisa repetidamente. Não há nada novo.”

No período de pico da Amazon, de outubro a dezembro, os revisores disseram que seu trabalho aumentou significativamente, com menos tempo entre os vídeos, e um disse que as pausas para ir ao banheiro eram mais difíceis de fazer. Outro trabalhador baseado na Índia disse que não poderia tirar folga por causa do festival hindu de Diwali.

A Amazon disse que os trabalhadores na Índia tinham a opção de cancelar o Diwali, e o porta-voz da empresa, Kelly, disse que os trabalhadores na Índia e na Costa Rica foram “encorajados pelo software que usam a fazer pausas curtas durante os turnos”.

Estoquistas processam itens em um dos enormes armazéns da AmazonPaul Hennessy / NurPhoto / Shutterstock
As estantes são transportadas por pequenos robôs mecânicos. Stefan Puchner / DPA / Alamy Live News

Vigilância do armazém

No verão de 2020, o armazém da Amazon em Bolton, noroeste da Inglaterra, estava lançando um novo sistema de armazenamento – conhecido internamente como Nike – que contava com visão computacional e verificações manuais de trabalhadores na Índia e na Costa Rica.

As estações de trabalho foram remodeladas para incluir três novas câmeras treinadas em estações de armazenamento, que registrariam a localização de um produto, eliminando em grande parte a necessidade de scanners portáteis. A Amazon disse que isso economizaria segundos cruciais na arrumação de cada item.

Mas Naomi, que trabalhava no depósito na época, achou difícil se ajustar. “Era bastante minucioso – a maneira como você tinha que ficar de pé, a maneira como você tinha que se mover”, disse ela. “Você não poderia realmente ter sua própria liberdade na maneira como fazia as coisas.”

Para maximizar a chance de sucesso do computador, os arrumadores foram instruídos a garantir que estivessem à vista da câmera e a usar “movimentos limpos e retos” ao guardar um item. Nos casos em que o sistema falhou, a filmagem foi enviada para revisores de vídeo para verificação.

O novo sistema também foi implantado na instalação da Califórnia, onde Jade, uma ex-supervisora, costumava começar o dia revisando os relatórios de erros dos turnos anteriores. “Havia cerca de 30 ou 40 regras diferentes de como as coisas tinham que ser especificamente guardadas”, disse ela.

Muitos desses relatórios, contendo fotos das violações dos estivadores, foram gerados pelo novo sistema de câmeras. Se um número suficiente desses erros se acumular, isso pode levar a um processo disciplinar conhecido como “escritura”.

Kelly, da Amazon, disse: “As métricas de armazenamento são compartilhadas com funcionários e gerentes para identificar pontos fortes e oportunidades de crescimento. Não usamos as informações do sistema da Nike para instruir os associados sobre ‘reter violações de etiqueta’. As câmeras da Nike são programadas apenas para fins de inventário… Seu foco é a colocação de produtos.”

Jade também verificava se os trabalhadores estavam tendo um bom desempenho em outras métricas importantes: “taxa”, ou o número de unidades que eles armazenavam por hora, e “tempo livre da tarefa”, ou quanto tempo eles ficavam inativos fora dos intervalos.

Isaac, um ex-estivador de um depósito em Michigan, recebeu uma notificação após acumular cerca de quatro minutos de folga na tarefa. Ele estava se sentindo mal e foi buscar remédios e usar o banheiro no final do intervalo. Apesar de explicar isso a um gerente, ele ainda recebeu uma advertência por escrito.

Kelly disse: “Os funcionários são lembrados de fazer pausas curtas ao longo do dia, além de pausas mais longas programadas regularmente durante cada turno”.

Jade disse que sentiu que as metas de produtividade foram estabelecidas em um nível razoável, e as pessoas que tentaram poderiam atingi-las. No entanto, ela também descreveu o trabalho como “entorpecente”.

“Seu cérebro meio que morre lentamente enquanto você faz isso”, disse ela. “Mesmo que as pessoas na Costa Rica não estejam fazendo o lado físico, eles estão fazendo o lado cerebral entorpecente. Você é tratado como um robô.”

Proxêmica e Amazon GO

Durante 2020, quando os protocolos COVID-19 estavam em vigor em todo o mundo, a empresa disse que iria reequipar seus sistemas de aprendizado de máquina para ajudar a impor o distanciamento social em seus armazéns – um programa chamado Proxemics.

Trabalhadores em armazéns americanos se viam exibidos em grandes telas com um círculo verde de quase um metro e oitenta ao redor de seus pés. Se chegassem muito perto de um colega, o anel ficava vermelho. E nos casos em que o computador não tinha certeza de quão perto eles estavam, as imagens eram enviadas ao exterior para verificações adicionais.

Thiago, que trabalhou na equipe da Proxemics na Costa Rica, disse ao Bureau: “Foi um trabalho difícil. Acho que pode ser o pior que já fiz em toda a minha vida.

Como Prisha, ele sentiu que era difícil desviar o olhar da tela se você quisesse manter métricas altas. “No começo, meus olhos choravam”, disse ele. “A cada seis segundos ou menos, você obtém outra imagem. Foi esmagador.

“Foi difícil – a ponto de não conseguir olhar para o lado porque se você olhar para o lado já tinha 10 segundos na tela.”

Sudip Bhattacharya, professor assistente do All India Institute of Medical Sciences, Deoghar, disse que os revisores de vídeo correm o risco de fadiga ocular digital, cujos sintomas incluem olhos secos, visão prejudicada e dores de cabeça. “Se a resolução for baixa”, disse ele, “há risco de dano permanente aos olhos”.

Ele também recomendou pausas na tela a cada 20 a 30 minutos, mas alguns trabalhadores entrevistados pelo Bureau sentiram que era difícil ou impossível fazer pausas fora do horário estipulado.

Thiago disse que recebia cerca de seis minutos por dia como um “refrescante para os olhos” designado, com 10 minutos adicionais para usar o banheiro fora dos horários de intervalo programados.

Quando foi promovido a líder de equipe, ele teve acesso ao software de monitoramento de funcionários da Amazon, que rastreia os períodos de inatividade dos funcionários. “Eles podiam dizer quanto tempo você não tocou em algo na tela ou moveu o mouse”, disse ele.

Os revisores também trabalharam em filmagens dos supermercados Amazon Go, que usam visão computacional para detectar o que um cliente comprou, cobrando seu cartão automaticamente sem a necessidade de escanear itens em um caixa.

Clientes em uma loja Amazon Go sem funcionários em Seattle …David Ryder / Getty
… onde câmeras e sensores rastreiam o que os compradores levaram. David Ryder / Getty

O marketing da Amazon Go baseia-se fortemente na novidade futurista de uma loja amplamente automatizada sem caixas. Mas, na realidade, o papel de assistente de loja foi simplesmente terceirizado para revisores de vídeo na Índia.

Ishan, que trabalhou na equipe Amazon Go, disse que tinha dores de cabeça regulares por causa do trabalho e tinha apenas quatro minutos por dia para usar o banheiro fora de seus intervalos programados. “Alguns que tiverem sorte sobreviverão e o resto terá que partir”, disse ele. “Um funcionário é um ativo substituível para eles.”

“[Era] um pagamento mínimo para o estresse contínuo de alto nível de uma carga de trabalho sem fim.”

A Amazon disse que os funcionários têm liberdade para usar o banheiro quando necessário e as contas prestadas à Mesa não representam a grande maioria dos que trabalham na equipe.

Trabalhadores no escuro

Os trabalhadores filmados pelas câmeras da Amazon sabem pouco sobre as pessoas que os observam do outro lado do mundo. Dos nove estivadores entrevistados, apenas um disse estar ciente de que as imagens de sua estação poderiam ser enviadas a outros países para revisão manual.

E, por sua vez, alguns trabalhadores na Índia e na Costa Rica disseram que não tinham certeza de como a Amazon usava os frutos de seu trabalho. “Não tínhamos ideia de para onde esses dados específicos estavam indo”, disse um trabalhador. “Nunca recebemos tanto conhecimento [sobre] o que exatamente está acontecendo no back-end.”

Na Califórnia, uma nova lei visa abordar as condições enfrentadas pelos trabalhadores da Amazon. O Projeto de Lei 701 da Assembleia, que entrou em vigor no início deste ano, proíbe que as metas de desempenho sejam estabelecidas em um nível que possa representar um risco à segurança ou impedir intervalos suficientes para ir ao banheiro ou para as refeições. Ele também dá aos funcionários do depósito o direito de solicitar três meses de seus próprios dados de produtividade.

Lorena Gonzalez redigiu o projeto de lei quando era deputada estadual e agora dirige a Federação do Trabalho da Califórnia. Ela estava preocupada com as métricas de produtividade que causavam lesões no local de trabalho e acreditava que dar aos trabalhadores acesso aos seus próprios dados seria o primeiro passo para resistir ao gerenciamento por algoritmo.

“Queríamos garantir que eles tivessem direito a essas informações, especialmente se sentissem que isso violava seus direitos trabalhistas básicos à saúde e segurança”, disse Gonzalez.

Amari, o estivador da Califórnia, disse que a lei fez uma diferença tangível no armazém e que os gerentes não estavam mais repreendendo regularmente as pessoas por atrasarem suas taxas de produtividade – embora os trabalhadores ainda pudessem ser punidos por outras violações.

O trabalho de um estoquista na Califórnia é muito diferente do de um revisor de vídeo na Índia, mas ambos são engrenagens vitais na máquina de otimização da Amazon. Enquanto trabalham, estão constantemente gerando novos pontos de dados para refinar as ferramentas algorítmicas que os monitoram e disciplinam.

“A única maneira de lutar contra [o gerenciamento algorítmico] é se recusar a ir mais rápido”, disse Gonzalez. “Mas um indivíduo não pode fazer isso sozinho.”

“Até que os trabalhadores se reúnam e se organizem como um coletivo contra o tipo de aceleração que acontece com o gerenciamento de computadores, eles vão apenas … exigir que as pessoas trabalhem cada vez mais rápido.”

*Os nomes foram alterados

Observação: este artigo foi alterado para esclarecer que o marketing da Amazon para o Amazon Go não afirma que as lojas estão totalmente sem funcionários.

Repórteres: Niamh McIntyre e Rosie Bradbury
Editor de tecnologia: Jasper Jackson
Editor global: James Ball
Editor: Meirion Jones
Produção: Alex Hess Verificador de
fatos: Josephine Molds
Equipe jurídica: RPC
Ilustrações: Anson Chan

Nossos relatórios sobre Big Tech são financiados pela Open Society Foundations. Nenhum de nossos financiadores tem qualquer influência sobre as decisões ou resultados editoriais do Bureau.


compass black

Este texto originalmente escrito em inglês foi publicado pelo Bureau of Investigative Journalism [Aqui!].

Facebook e o mito desfeito da neutralidade dos algoritmos: fascismo tolerado, antifascismo bloqueado

Problemas com o Facebook: por que as postagens antifascistas são bloqueadas e as fascistas são toleradas?

nazi simbolO Facebook pode tolerar esse símbolo?

Por Dario Azzelini para o Neues Deutschland

O Facebook está sempre no centro dos escândalos. Apenas alguns meses atrás, Frances Haugen , ex-gerente sênior de produtos da Team Civic Misinformation, fez sérias alegações contra o Facebook e as apoiou com documentos internos. A equipe que ela liderou deveria combater a desinformação e o discurso de ódio no Facebook, mas Haugen rapidamente concluiu que a tarefa era incontrolável e a administração também não a queria. Porque ódio, mentiras e provocações geram empolgação e, portanto, mais cliques e mais interação – e essa é a base do negócio.

Haugen teve a impressão de que o Facebook não estava interessado em combater a desinformação e o discurso de ódio, disse ela à mídia dos EUA e também testemunhou em uma audiência perante o Congresso dos EUA em 5 de outubro de 2021. Os resultados de suas próprias investigações internas sobre os efeitos negativos sobre crianças e jovens ou informações falsas, apelos à violência, postagens de ódio etc. foram ignorados e encobertos pela administração da empresa. Isso sem falar na pesquisa científica externa.

É “mais fácil para o Facebook e seu algoritmo inspirar as pessoas à raiva do que qualquer outra emoção”, disse Haugen no programa 60 Minutes da CBS. Ela disse a Jan Böhmermann no canal ZDF-Magazine Royale no YouTube: “Você conhece os problemas que esses produtos criam e simplesmente não faz nada a respeito. Só porque você não quer abrir mão dos menores lucros.«

Com base na minha experiência pessoal com o Facebook, só posso confirmar essa crítica. As declarações do denunciante e os estudos científicos sobre a conexão entre os preconceitos (conscientes ou inconscientes) dos programadores e as decisões dos algoritmos alimentam a suspeita de que o Facebook poderia ter uma tendência a ignorar ou mesmo enfatizar conteúdos discriminatórios. Eu tenho um longo histórico de banimentos repetidos no Facebook. Estas referem-se quase exclusivamente a postagens antifascistas. Apenas em um caso fui banido por um comentário em um debate linguístico. Tratava-se dos inúmeros usos possíveis de uma palavra ou raiz de palavra no espanhol venezuelano. Sugeri a possibilidade de usar o termo como “golpe”

Minha última proibição de sete dias para postagens ou comentários foi porque eu postei na página do Facebook de um amigo no Brasil que Reinhard Gehlen, o fundador do serviço secreto da Alemanha Ocidental BND após a Segunda Guerra Mundial, era nazista e meu comentário com uma foto adicionada por Gehlen de Wikipédia. O post do meu amigo que comentei era sobre que nazistas haviam feito carreira na Alemanha, Áustria, em instituições europeias e na OTAN após a Segunda Guerra Mundial. Consegui me opor ao meu bloqueio no Facebook. A objeção foi concedida, mas 15 minutos depois fui bloqueado novamente pela mesma postagem sem a possibilidade de objeção.

Em 2021 fui banido várias vezes. Em 30 de abril, porque no dia em que Adolf Hitler se suicidou em 1945 no chamado Führerbunker em Berlim, eu tinha um conhecido estêncil (um modelo para grafite) com a imagem estilizada do suicídio de Hitler e o slogan “Siga seu líder « (Siga o guia) tinha postado. Pouco tempo depois, o algoritmo do Facebook descobriu minha postagem no aniversário da (auto) libertação do fascismo na Itália em 25 de abril de 1945: uma foto bem conhecida mostrando os corpos de Mussolini e outros líderes fascistas, executados por guerrilheiros e depois pendurado de cabeça para baixo na Piazzale Loreto, em Milão. Na Itália, esta imagem pode ser encontrada repetidamente na mídia no aniversário, e obviamente eu não era o único a tê-la postado.

Então encontrei um meme que tinha a cabeça de Mussolini três vezes certa e uma vez errada. Sob as três primeiras cabeças estava “Facebook, Instagram e Twitter“, sob a quarta estava “Piazzale Loreto”. Depois fui banido novamente. Outras proibições se seguiram porque o Facebook descobriu que eu também havia postado a conhecida foto da Piazzale Loreto em anos anteriores. A razão que me foi dada foi que eu havia violado os “padrões da comunidade”. Somente em casos excepcionais eu poderia recorrer e, quando o fiz, não tive êxito. Isso não deveria ser uma surpresa: mesmo em regimes autoritários, a dissidência não é bem-vinda.

Aproveitei essa experiência como uma oportunidade para realizar meu próprio pequeno estudo empírico. Nos meses que se seguiram, denunciei um total de cerca de 400 postagens e comentários racistas, antissemitas, islamofóbicos, misóginos e fascistas no Facebook em alemão, inglês, espanhol e italiano. As postagens que denunciei foram excluídas em menos de dez casos, embora várias postagens na Alemanha e na Itália também fossem relevantes sob o direito penal.

Vários posts que o Facebook parecia não violar os “padrões da comunidade” incluíam pedir ou exigir que os refugiados fossem baleados ou afogados; Rotular mulheres, homossexuais e pessoas de cor como inferiores ou comparar estes últimos a “escória” ou “verme”. Demandas para estuprar lésbicas também não violam os “padrões da comunidade”. Embora os comentários nas páginas do Facebook da mídia italiana tenham sido particularmente agressivos, eles não foram excluídos por esses meios (principalmente o jornal diário La Repubblica) nem bloqueados pelo Facebook. Dois exemplos marcantes da Alemanha que não foram bloqueados: a comemoração do aniversário de um “certo Adolf” em 20 de abril, e a postagem de que problemas com a cremação de cadáveres em Dresden no auge da pandemia de Covid eram um indício para poder duvidar da existência de campos de extermínio dos nazistas .

Está ficando claro que a prática do Facebook vai além de simplesmente ignorar ou permitir notícias falsas e ódio. Os algoritmos, a inteligência artificial (IA) e os funcionários responsáveis ​​toleram a maioria dessas postagens e ignoram as críticas a elas.

Ao contrário da opinião popular de que a IA e os algoritmos que foram criados são neutros, pode-se dizer que a inteligência artificial é programada por pessoas. E essas pessoas são em sua maioria brancas, masculinas, heterossexuais e do Norte Global, enquanto que seus preconceitos são perpetuados.

Estudos científicos de softwares de avaliação de aplicativos mostram que a IA geralmente avalia pessoas de pele escura ou lenços na cabeça pior do que pessoas de pele branca. Isso também se aplica a concursos de beleza online. Os programas de reconhecimento facial reconhecem rostos escuros pior do que os brancos e são considerados mais suspeitos em softwares de segurança e vigilância. É razoável supor que o viés político de muitos programadores se reflita na IA.

Em outras palavras: o capital, a burguesia e a pequena burguesia sempre classificam as visões e atividades de esquerda, socialistas e comunistas como mais ameaçadoras do que as visões e atividades de direita e extrema direita. Então, por que a IA deveria agir de forma diferente? E se os funcionários no Facebook que verificam oficialmente os relatórios dos usuários tendem a compartilhar essas opiniões ou estão tão sobrecarregados e sobrecarregados que concordam com a IA, ainda não se sabe.  Está claro que isso não altera o resultado.

color compass

Este texto foi escrito originalmente em alemão e publicado pelo jornal “Neues Deutschland” [Aqui!].

Ingram Micro Brasil, IBM e Genesys juntam-se para oferecer uma solução integrada de serviço ao cliente

Com IBM Watson e baseada em Genesys Cloud, solução traz inovação na experiência do cliente para os varejistas brasileiros

omnichannel

Barueri, 23 de novembro de 2021 — A Ingram Micro Brasil acaba de anunciar que vai distribuir uma solução que pode transformar a relação de varejo com os seus clientes digitais, como resultado da integração dos esforços do distribuidor, IBM e Genesys — para Inteligência Artificial e Contact Center as a Service, respectivamente. É um ecossistema de inovação baseado em resultados, fruto da combinação das tecnologias Genesys Cloud, para o atendimento digital “omnichannel” a clientes, com IBM Watson Assistant, para a criação de estratégias de serviço ao cliente usando Inteligência Artificial.

“Estamos muito entusiasmados por oferecer uma solução tão integrada e única aos nossos parceiros e clientes”, disse Roberto Gero, diretor de Advanced Computing da Ingram Micro. Segundo ele, o ecossistema é uma base sólida e fundamental para as empresas que operam no varejo brasileiro alcançarem o sucesso das métricas de Customer Experience, como NPS (Net Promoter Score), CES (Customer Effort Score) e CSAT (Customer Satisfaction).

De acordo com Marcela Vairo, Diretora de Dados, AI Apps e Automação da IBM Brasil, a inteligência artificial tem um imenso potencial para transformar o atendimento ao cliente, desde a praticidade do autosserviço até a personalização das relações entre clientes e empresas. “Combinando a IA conversacional com Machine Learning, capacidades de speech-to-text e integração com uma plataforma omnichannel e CRM, podemos ajudar as empresas a melhorar a resolução logo no primeiro contato, e também permitir que as pessoas se concentrem em empregos de maior valor. Isto reduz os custos, melhora a experiência do cliente e aumenta a sua satisfação” disse a executiva.

Existe uma oportunidade crescente para as empresas que operam no setor de varejo no Brasil de utilizarem dados e IA para transformar a experiência do cliente. A integração de soluções complementares de atendimento ao cliente da Ingram Micro, IBM e Genesys com casos de utilização bem definidos ajuda os clientes a construírem em escala e a melhorarem o envolvimento do cliente e os resultados da experiência.

Rodrigo Marcondes, Country Manager da Genesys, acrescenta: “A pandemia impulsionou a inserção de novos compradores no ambiente digital e aumentou a relevância de uma estratégia bem estruturada, mas a verdade é que há décadas que as empresas querem estar disponíveis a todo o momento e a qualquer hora, tanto para atividades de vendas como de pós-venda, o que inclui relacionamento e apoio ao cliente. Contudo, os custos da prestação de serviços desta natureza têm sido sempre muito elevados. Felizmente, com o advento e melhoria das plataformas de AI e do serviço Omnichannel Cloud, para além da disseminação de aplicações como WhatsApp, ter uma conversa autônoma tornou-se tecnológica e economicamente viável, como é o caso do ecossistema que integra as tecnologias Genesys Cloud com IBM Watson”.

Para saber mais sobre a Ingram Micro, visite o website da Ingram Micro Brasil.

Sobre a Ingram Micro Inc.

A Ingram Micro é a maior distribuidora mundial de tecnologia e líder global na cadeia de fornecimento de TI, serviços móveis, soluções de nuvem, automação e logística. Para além de soluções e serviços de distribuição de produtos, oferece apoio ao desenvolvimento do seu ecossistema, com benefícios exclusivos, recursos logísticos e de mobilidade, apoio técnico profissional e soluções financeiras, atuando como um elo vital na cadeia de valor da tecnologia. No Brasil desde 1997, a Ingram Micro tem produtos e soluções de mais de 80 fabricantes para pronta entrega e importação exclusiva nos modelos VAD, VOD, mobilidade, automação e cloud. Nos últimos anos, a Ingram Micro criou um ritmo rápido de mudança no Brasil, com a expansão do seu portfólio em vários mercados verticais, assim como grandes dados e análises avançadas, segurança, nuvem, experiência do cliente, IoT, estrutura convergente e soluções de mobilidade.

Com escritórios regionais em São Paulo, Rio de Janeiro, Brasília e Porto Alegre, e fornecedores locais em Curitiba, Joinville, Belo Horizonte, Recife, Salvador e interior de São Paulo, a Ingram Micro apoia as necessidades de toda a cadeia de distribuição, assegurando a realização dos objetivos empresariais dos seus parceiros e clientes, dentro das melhores práticas de mercado, servindo setores como o transporte, agronegócios, educação, recursos naturais, saúde, serviços financeiros, retalho e área pública, entre outros. Para mais informações, visite o website da Ingram Micro ou ligue (11) 2078.4200.

Iniciativa busca rastrear desmatamento da Amazônia com uso de inteligência artificial

Objetivo é fornecer informações mais precisas por meio de uma plataforma de construção coletiva sobre o desmatamento floresta

classificação

São Paulo, abril de 2020 – Construir uma comunidade global de inovadores que usam a tecnologia para provocar mudanças positivas para as pessoas e para o planeta. É com essa visão que o Instituto Internacional de Análise de Sistemas Aplicados (IIASA) e o SAS, líder global em analytics, estão promovendo uma ação com a finalidade de coletar informações e imagens que possam ser utilizadas como fonte de dados para construção de modelos de inteligência artificial (AI). O objetivo é fornecer informações mais precisas, por meio de uma plataforma de construção coletiva, sobre o desmatamento florestal, especialmente da região amazônica.

O IIASA, que é uma das mais importantes e respeitadas organizações mundiais de investigação científica multidisciplinar, localizada em Laxeburg, na Áustria, busca mobilizar a comunidade científica e a sociedade civil em todo o mundo para imputar e revisar imagens da floresta amazônica com o intuito de apontar áreas que foram devastadas a partir da influência humana.

Segundo o SAD, Sistema de Alerta de Desmatamento do Imazon, ferramenta de monitoramento baseada em imagens de satélites, o desmatamento na Amazônia cresceu 279% em março deste ano, em comparação com o mesmo mês de 2019. Segundo o relatório, 254 quilômetros quadrados de floresta foram destruídos no período, sendo o número mais alto nos últimos dois anos. Para os autores da pesquisa, esse aumento pode estar ligado ao avanço de áreas ilegais de garimpo e da intensa atuação de grileiros, pessoas que se apossam de terras alheias.

“A urgência necessária para abordar essas transformações requer as melhores soluções de tecnologia. É por isso que escolhemos o SAS”, diz Albert van Jaarsveld, CEO do IIASA. “Ao combinar o poder de nossas plataformas de pesquisa de ciência ambiental, o uso de inteligência artificial e as tecnologias de computer vision do SAS, somado ao poder intelectual dos cidadãos preocupados, nós vamos desenvolver modelos de IA que vão aumentar exponencialmente o valor de insights humanos e nos esforçar para entregar uma avaliação quase em tempo real da mudança ambiental global.”

Modelos poderosos e precisos de IA não surgem por mágica. O desenvolvimento dessa tecnologia começa com inteligência humana. Para este projeto, o SAS e o IIASA estão lançando em conjunto um aplicativo online orientado pelo modelo de crowdsourcing para reunir a inteligência coletiva do público. Eles estão chamando voluntários dos mais diversos perfis – pesquisadores, estudantes do ensino médio, artistas, engenheiros e cientistas de dados profissionais – para iniciar este projeto, avaliando e julgando imagens da floresta Amazônica.

“Já que a análise de imagem é um primeiro passo importante para a avaliação e projeção precisa do desmatamento, estamos pedindo para as pessoas apontarem o que a tecnologia não consegue, examinando e reportando imagens de pequenas áreas que tiveram dano florestal”, afirma van Jaarsveld. “O trabalho colaborativo ajuda a melhorar algoritmos de IA, acelerando o que antes levaria anos para analisar, ajudando assim a conduzir respostas vitais para proteger mais rapidamente as nossas florestas.”

Quando as pessoas marcam regiões que tiveram sinais de impacto humano, elas ajudam a tornar os modelos de IA mais inteligentes. Por exemplo, é fácil para um humano distinguir entre uma estrada (que sinaliza impacto humano) e um rio (que não sinaliza), mas um modelo de IA não saberá a diferença até obter treinamento suficiente – e esse aprendizado se dá a partir de observações humanas. Além disso, os resultados do modelo garantem que o app baseado no modelo de crowdsourcing foca a atenção do julgamento humano onde sua experiência é mais necessária. O modelo permitirá maior eficiência da força humana voluntária que faz melhor uso de sua atenção e insights para uma ampla gama de projetos voltados ao monitoramento e à medição de questões importantes de mudança global.

Combinando o poder das pessoas e dos computadores, o SAS e o IIASA terão uma plataforma robusta e extensiva para fortalecer os cidadãos e nos ajudar a entender melhor e prever as ameaças ao meio ambiente. Embora a primeira fase dessa parceria se concentre no desmatamento, há planos para estender a plataforma a outras preocupações ambientais nas quais o conhecimento colaborativo pode ajudar a servir o bem maior.

Sobre o IIASA

O International Institute for Applied Systems Analysis (IIASA) é um instituto científico internacional que realiza pesquisas sobre as questões críticas das mudanças globais ambientais, econômicas, tecnológicas e sociais que enfrentamos no século XXI. As nossas descobertas fornecem opções valiosas aos decisores políticos para moldar o futuro do nosso mundo em constante mudança. O IIASA é independente e financiado por agências de financiamento de pesquisa de prestígio na África, Américas, Ásia e Europa. http://www.iiasa.ac.at

Sobre o SAS

O SAS é líder global em Analytics e a maior empresa de software de capital fechado do mundo. Fundada em 1976, suas soluções são usadas em mais de 80 mil empresas em todo o planeta, incluindo 93 das top 100 companhias listadas na Fortune Global 500. No Brasil, o SAS está presente desde 1996 com escritórios em São Paulo (SP), Rio de Janeiro (RJ) e Brasília (DF), atuando em setores como finanças, telecomunicações, varejo, energia, governo, educação, entre outros. A empresa também é mundialmente reconhecida por suas boas práticas de Recursos Humanos, inclusive no Brasil, onde foi incluída seis vezes consecutivas entre os três melhores empregadores do país pelo ranking Top Employers Institute. Confira o site: www.sas.com/br