Os olhos da Amazon: uma força de trabalho oculta conduz um vasto sistema de vigilância para aumentar o lucro

olhos

Por  Niamh McIntyre e  Rosie Bradbury para o Bureau of Investigative Journalism

Dentro de um vasto armazém da Amazon em Beaumont, Califórnia, robôs azuis atarracados carregando estantes amarelas de 2,5 metros executam uma dança mecanizada entre si enquanto se dirigem para os trabalhadores humanos.

Amari* trabalha 42 horas por semana lá como estivador, colocando os produtos nas prateleiras que os robôs trazem para ele. “As câmeras são apontadas para sua estação o tempo todo”, disse ele. “É meio humilhante ter alguém olhando por cima do seu ombro a cada segundo.”

Mas não são apenas os dirigentes de Amari que estão de olho. Um sistema de câmeras inteligentes também monitora os movimentos dos estoquistas – e se alguém falhar, um vídeo é enviado para alguém a milhares de quilômetros de distância cuja entrada ajuda a melhorar as ferramentas de aprendizado de máquina da Amazon.

Os vídeos são revisados ​​por trabalhadores como Viraj em Bengaluru, na Índia. “É um trabalho muito agitado”, disse ele. “Não devemos piscar os olhos enquanto revisamos um vídeo, porque nossa precisão diminuirá. Temos que estar na tela por pelo menos oito horas – o que é meio doloroso.”

Amari e Viraj podem trabalhar em países diferentes fazendo trabalhos diferentes. Mas ambos executam tarefas repetitivas cuja produção é rigorosamente monitorada, tudo isso servindo para ajustar o próprio sistema usado pela Amazon para monitorar de perto seus próprios funcionários – e criar a experiência perfeita desfrutada por seus clientes.

Revisores como Viraj chegam a 8.000 vídeos por dia, com sua produção classificada em relação à de seus colegas. O ritmo implacável de seu trabalho pode causar sérios danos físicos. Eles recebem apenas £ 212 por mês.

Os revisores de vídeo entrevistados pelo Bureau relataram problemas físicos, incluindo dores de cabeça, dor nos olhos e até deterioração da visão. Eles disseram que foram feitos para atingir alvos punitivos, com o software de rastreamento registrando todos os períodos de inatividade fora dos horários de intervalo designados. Enquanto um especialista recomendou que as pessoas que fazem anotações de vídeo fizessem pausas na tela a cada meia hora, alguns disseram que seus objetivos não permitiam isso.

O Bureau of Investigative Journalism entrevistou 33 funcionários atuais e antigos da Amazon, incluindo 21 revisores de vídeo, para lançar luz sobre um posto avançado pouco conhecido das extensas operações globais da Amazon.

O porta-voz da Amazon, Steve Kelly, contestou várias das alegações nesta história, dizendo que o Bureau e o Verge “selecionaram um punhado de anedotas para pintar uma imagem enganosa e não acreditamos que representem a grande maioria de nossa equipe”.

Anson Chan

‘Não somos capazes nem de piscar os olhos’

A Amazon desenvolveu uma ampla gama de aplicativos que usam visão computacional – um ramo do aprendizado de máquina no qual os computadores processam um grande número de imagens e aprendem a reconhecer padrões.

As câmeras apontadas para a estação de Amari usam visão computacional para registrar automaticamente a localização dos produtos em seu estoque e sinalizar os erros que ele comete. Essa tecnologia também foi implantada nas lojas Amazon Go e para monitorar a conformidade com as diretrizes de distanciamento social dos funcionários do depósito.

A Amazon diz que o algoritmo do sistema é 95% preciso; o restante dos casos requer verificações manuais. Isso significa que todos os dias milhões de imagens e vídeos são enviados para trabalhadores na Índia e na Costa Rica, que decidem se um produto foi armazenado com sucesso e indicam onde ele está localizado na estante.

Os revisores de vídeo disseram que seu papel principal era o gerenciamento de estoque – mas também podem registrar os erros cometidos por seus colegas no exterior: dois ex-funcionários disseram que os revisores poderiam levantar questões de “etiqueta de armazenamento” se vissem os estivadores quebrando as regras da Amazon diante das câmeras.

O mais importante, porém, é que seu trabalho manual ininterrupto ajuda a melhorar o sistema de visão computacional, que aprende com suas respostas e se torna cada vez mais preciso. Mas as pessoas que ensinam os computadores da Amazon a ver disseram que seus próprios olhos foram danificados pelo trabalho.

“Não poderemos nem piscar os olhos, pois precisamos ficar de olho nos vídeos”, disse Prisha, uma ex-revisora ​​de vídeo que mora em Hyderabad, na Índia. “Isso afetou muito minha saúde. Isso deixa os olhos muito secos porque você olha constantemente para aquela tela.”

Os vídeos duram entre dois segundos e dois minutos, e os revisores disseram que podem assistir milhares em um dia. Os turnos geralmente duram de oito a nove horas, embora possam ser aumentados para 11 horas durante os períodos de maior movimento, como na véspera do Natal ou da Black Friday. Os revisores têm cerca de uma hora e meia de intervalo, com quaisquer períodos de inatividade fora disso registrados instantaneamente pelo software de rastreamento.

Os entrevistados indianos disseram que ganhavam 25.000 rúpias (£ 265) por mês em média, enquanto a média da Costa Rica era de 514.000 colones (£ 716).

Observação constante

Os humanos por trás da visão computacional que tudo vê da Amazon são monitorados de perto enquanto trabalham.

Mateo, um ex-revisor na Costa Rica, costumava passar seus turnos verificando se os trabalhadores nos armazéns dos EUA estavam observando os protocolos do COVID-19. Mas em uma ocasião, ele viu algo perturbador em seu feed.

Era uma sala de descanso da Amazon, com cadeiras dispostas, muito parecida com a de seu próprio prédio. Dava-lhe uma estranha sensação de estar sendo observado. “Provavelmente outra pessoa, em outro lugar, estava me observando no momento em que eu os observava”, disse ele.

Os gerentes acompanham o desempenho dos revisores com análises em tempo real e devem manter uma alta taxa de precisão, entre 95 e 99,5%. Nitara, que conseguiu um emprego na Amazon em Bengaluru após a universidade, não conseguiu passar no período de estágio devido a não atingir seus alvos de precisão. “Não tínhamos permissão para cometer erros”, disse ela. “Para mim, isso foi muito difícil de lidar. Sou humano, não sou um robô.”

Enquanto eles decidem como categorizar um vídeo, um cronômetro na tela conta quanto tempo eles demoram. Se eles demorarem muito, seu tempo “takt” – o tempo médio para assistir a um vídeo – aumentará e eles poderão estar sujeitos a retreinamento, processos disciplinares ou até mesmo perder o emprego.

“Você não pode se mover ou fazer nada”, disse Prisha. “Se você der um pequeno intervalo, seu takt aumentará e você poderá cair no fundo.”

Um documento passado ao Bureau por um ex-revisor na Índia mostra o sistema de classificação takt para 25 funcionários, com os quatro últimos nomes destacados em vermelho. O de melhor desempenho tem um takt time de 5,7 segundos; a pessoa com classificação inferior 13 segundos.

Jiyan, outro ex-revisor baseado na Índia, disse que, embora as metas fossem administráveis, o trabalho ainda era “estressante”. O que mais o incomodava, porém, era a monotonia. “É um trabalho muito chato”, disse ele. “O dia inteiro, por sete horas e meia, você está fazendo a mesma coisa repetidamente. Não há nada novo.”

No período de pico da Amazon, de outubro a dezembro, os revisores disseram que seu trabalho aumentou significativamente, com menos tempo entre os vídeos, e um disse que as pausas para ir ao banheiro eram mais difíceis de fazer. Outro trabalhador baseado na Índia disse que não poderia tirar folga por causa do festival hindu de Diwali.

A Amazon disse que os trabalhadores na Índia tinham a opção de cancelar o Diwali, e o porta-voz da empresa, Kelly, disse que os trabalhadores na Índia e na Costa Rica foram “encorajados pelo software que usam a fazer pausas curtas durante os turnos”.

Estoquistas processam itens em um dos enormes armazéns da AmazonPaul Hennessy / NurPhoto / Shutterstock
As estantes são transportadas por pequenos robôs mecânicos. Stefan Puchner / DPA / Alamy Live News

Vigilância do armazém

No verão de 2020, o armazém da Amazon em Bolton, noroeste da Inglaterra, estava lançando um novo sistema de armazenamento – conhecido internamente como Nike – que contava com visão computacional e verificações manuais de trabalhadores na Índia e na Costa Rica.

As estações de trabalho foram remodeladas para incluir três novas câmeras treinadas em estações de armazenamento, que registrariam a localização de um produto, eliminando em grande parte a necessidade de scanners portáteis. A Amazon disse que isso economizaria segundos cruciais na arrumação de cada item.

Mas Naomi, que trabalhava no depósito na época, achou difícil se ajustar. “Era bastante minucioso – a maneira como você tinha que ficar de pé, a maneira como você tinha que se mover”, disse ela. “Você não poderia realmente ter sua própria liberdade na maneira como fazia as coisas.”

Para maximizar a chance de sucesso do computador, os arrumadores foram instruídos a garantir que estivessem à vista da câmera e a usar “movimentos limpos e retos” ao guardar um item. Nos casos em que o sistema falhou, a filmagem foi enviada para revisores de vídeo para verificação.

O novo sistema também foi implantado na instalação da Califórnia, onde Jade, uma ex-supervisora, costumava começar o dia revisando os relatórios de erros dos turnos anteriores. “Havia cerca de 30 ou 40 regras diferentes de como as coisas tinham que ser especificamente guardadas”, disse ela.

Muitos desses relatórios, contendo fotos das violações dos estivadores, foram gerados pelo novo sistema de câmeras. Se um número suficiente desses erros se acumular, isso pode levar a um processo disciplinar conhecido como “escritura”.

Kelly, da Amazon, disse: “As métricas de armazenamento são compartilhadas com funcionários e gerentes para identificar pontos fortes e oportunidades de crescimento. Não usamos as informações do sistema da Nike para instruir os associados sobre ‘reter violações de etiqueta’. As câmeras da Nike são programadas apenas para fins de inventário… Seu foco é a colocação de produtos.”

Jade também verificava se os trabalhadores estavam tendo um bom desempenho em outras métricas importantes: “taxa”, ou o número de unidades que eles armazenavam por hora, e “tempo livre da tarefa”, ou quanto tempo eles ficavam inativos fora dos intervalos.

Isaac, um ex-estivador de um depósito em Michigan, recebeu uma notificação após acumular cerca de quatro minutos de folga na tarefa. Ele estava se sentindo mal e foi buscar remédios e usar o banheiro no final do intervalo. Apesar de explicar isso a um gerente, ele ainda recebeu uma advertência por escrito.

Kelly disse: “Os funcionários são lembrados de fazer pausas curtas ao longo do dia, além de pausas mais longas programadas regularmente durante cada turno”.

Jade disse que sentiu que as metas de produtividade foram estabelecidas em um nível razoável, e as pessoas que tentaram poderiam atingi-las. No entanto, ela também descreveu o trabalho como “entorpecente”.

“Seu cérebro meio que morre lentamente enquanto você faz isso”, disse ela. “Mesmo que as pessoas na Costa Rica não estejam fazendo o lado físico, eles estão fazendo o lado cerebral entorpecente. Você é tratado como um robô.”

Proxêmica e Amazon GO

Durante 2020, quando os protocolos COVID-19 estavam em vigor em todo o mundo, a empresa disse que iria reequipar seus sistemas de aprendizado de máquina para ajudar a impor o distanciamento social em seus armazéns – um programa chamado Proxemics.

Trabalhadores em armazéns americanos se viam exibidos em grandes telas com um círculo verde de quase um metro e oitenta ao redor de seus pés. Se chegassem muito perto de um colega, o anel ficava vermelho. E nos casos em que o computador não tinha certeza de quão perto eles estavam, as imagens eram enviadas ao exterior para verificações adicionais.

Thiago, que trabalhou na equipe da Proxemics na Costa Rica, disse ao Bureau: “Foi um trabalho difícil. Acho que pode ser o pior que já fiz em toda a minha vida.

Como Prisha, ele sentiu que era difícil desviar o olhar da tela se você quisesse manter métricas altas. “No começo, meus olhos choravam”, disse ele. “A cada seis segundos ou menos, você obtém outra imagem. Foi esmagador.

“Foi difícil – a ponto de não conseguir olhar para o lado porque se você olhar para o lado já tinha 10 segundos na tela.”

Sudip Bhattacharya, professor assistente do All India Institute of Medical Sciences, Deoghar, disse que os revisores de vídeo correm o risco de fadiga ocular digital, cujos sintomas incluem olhos secos, visão prejudicada e dores de cabeça. “Se a resolução for baixa”, disse ele, “há risco de dano permanente aos olhos”.

Ele também recomendou pausas na tela a cada 20 a 30 minutos, mas alguns trabalhadores entrevistados pelo Bureau sentiram que era difícil ou impossível fazer pausas fora do horário estipulado.

Thiago disse que recebia cerca de seis minutos por dia como um “refrescante para os olhos” designado, com 10 minutos adicionais para usar o banheiro fora dos horários de intervalo programados.

Quando foi promovido a líder de equipe, ele teve acesso ao software de monitoramento de funcionários da Amazon, que rastreia os períodos de inatividade dos funcionários. “Eles podiam dizer quanto tempo você não tocou em algo na tela ou moveu o mouse”, disse ele.

Os revisores também trabalharam em filmagens dos supermercados Amazon Go, que usam visão computacional para detectar o que um cliente comprou, cobrando seu cartão automaticamente sem a necessidade de escanear itens em um caixa.

Clientes em uma loja Amazon Go sem funcionários em Seattle …David Ryder / Getty
… onde câmeras e sensores rastreiam o que os compradores levaram. David Ryder / Getty

O marketing da Amazon Go baseia-se fortemente na novidade futurista de uma loja amplamente automatizada sem caixas. Mas, na realidade, o papel de assistente de loja foi simplesmente terceirizado para revisores de vídeo na Índia.

Ishan, que trabalhou na equipe Amazon Go, disse que tinha dores de cabeça regulares por causa do trabalho e tinha apenas quatro minutos por dia para usar o banheiro fora de seus intervalos programados. “Alguns que tiverem sorte sobreviverão e o resto terá que partir”, disse ele. “Um funcionário é um ativo substituível para eles.”

“[Era] um pagamento mínimo para o estresse contínuo de alto nível de uma carga de trabalho sem fim.”

A Amazon disse que os funcionários têm liberdade para usar o banheiro quando necessário e as contas prestadas à Mesa não representam a grande maioria dos que trabalham na equipe.

Trabalhadores no escuro

Os trabalhadores filmados pelas câmeras da Amazon sabem pouco sobre as pessoas que os observam do outro lado do mundo. Dos nove estivadores entrevistados, apenas um disse estar ciente de que as imagens de sua estação poderiam ser enviadas a outros países para revisão manual.

E, por sua vez, alguns trabalhadores na Índia e na Costa Rica disseram que não tinham certeza de como a Amazon usava os frutos de seu trabalho. “Não tínhamos ideia de para onde esses dados específicos estavam indo”, disse um trabalhador. “Nunca recebemos tanto conhecimento [sobre] o que exatamente está acontecendo no back-end.”

Na Califórnia, uma nova lei visa abordar as condições enfrentadas pelos trabalhadores da Amazon. O Projeto de Lei 701 da Assembleia, que entrou em vigor no início deste ano, proíbe que as metas de desempenho sejam estabelecidas em um nível que possa representar um risco à segurança ou impedir intervalos suficientes para ir ao banheiro ou para as refeições. Ele também dá aos funcionários do depósito o direito de solicitar três meses de seus próprios dados de produtividade.

Lorena Gonzalez redigiu o projeto de lei quando era deputada estadual e agora dirige a Federação do Trabalho da Califórnia. Ela estava preocupada com as métricas de produtividade que causavam lesões no local de trabalho e acreditava que dar aos trabalhadores acesso aos seus próprios dados seria o primeiro passo para resistir ao gerenciamento por algoritmo.

“Queríamos garantir que eles tivessem direito a essas informações, especialmente se sentissem que isso violava seus direitos trabalhistas básicos à saúde e segurança”, disse Gonzalez.

Amari, o estivador da Califórnia, disse que a lei fez uma diferença tangível no armazém e que os gerentes não estavam mais repreendendo regularmente as pessoas por atrasarem suas taxas de produtividade – embora os trabalhadores ainda pudessem ser punidos por outras violações.

O trabalho de um estoquista na Califórnia é muito diferente do de um revisor de vídeo na Índia, mas ambos são engrenagens vitais na máquina de otimização da Amazon. Enquanto trabalham, estão constantemente gerando novos pontos de dados para refinar as ferramentas algorítmicas que os monitoram e disciplinam.

“A única maneira de lutar contra [o gerenciamento algorítmico] é se recusar a ir mais rápido”, disse Gonzalez. “Mas um indivíduo não pode fazer isso sozinho.”

“Até que os trabalhadores se reúnam e se organizem como um coletivo contra o tipo de aceleração que acontece com o gerenciamento de computadores, eles vão apenas … exigir que as pessoas trabalhem cada vez mais rápido.”

*Os nomes foram alterados

Observação: este artigo foi alterado para esclarecer que o marketing da Amazon para o Amazon Go não afirma que as lojas estão totalmente sem funcionários.

Repórteres: Niamh McIntyre e Rosie Bradbury
Editor de tecnologia: Jasper Jackson
Editor global: James Ball
Editor: Meirion Jones
Produção: Alex Hess Verificador de
fatos: Josephine Molds
Equipe jurídica: RPC
Ilustrações: Anson Chan

Nossos relatórios sobre Big Tech são financiados pela Open Society Foundations. Nenhum de nossos financiadores tem qualquer influência sobre as decisões ou resultados editoriais do Bureau.


compass black

Este texto originalmente escrito em inglês foi publicado pelo Bureau of Investigative Journalism [Aqui!].

Facebook e o mito desfeito da neutralidade dos algoritmos: fascismo tolerado, antifascismo bloqueado

Problemas com o Facebook: por que as postagens antifascistas são bloqueadas e as fascistas são toleradas?

nazi simbolO Facebook pode tolerar esse símbolo?

Por Dario Azzelini para o Neues Deutschland

O Facebook está sempre no centro dos escândalos. Apenas alguns meses atrás, Frances Haugen , ex-gerente sênior de produtos da Team Civic Misinformation, fez sérias alegações contra o Facebook e as apoiou com documentos internos. A equipe que ela liderou deveria combater a desinformação e o discurso de ódio no Facebook, mas Haugen rapidamente concluiu que a tarefa era incontrolável e a administração também não a queria. Porque ódio, mentiras e provocações geram empolgação e, portanto, mais cliques e mais interação – e essa é a base do negócio.

Haugen teve a impressão de que o Facebook não estava interessado em combater a desinformação e o discurso de ódio, disse ela à mídia dos EUA e também testemunhou em uma audiência perante o Congresso dos EUA em 5 de outubro de 2021. Os resultados de suas próprias investigações internas sobre os efeitos negativos sobre crianças e jovens ou informações falsas, apelos à violência, postagens de ódio etc. foram ignorados e encobertos pela administração da empresa. Isso sem falar na pesquisa científica externa.

É “mais fácil para o Facebook e seu algoritmo inspirar as pessoas à raiva do que qualquer outra emoção”, disse Haugen no programa 60 Minutes da CBS. Ela disse a Jan Böhmermann no canal ZDF-Magazine Royale no YouTube: “Você conhece os problemas que esses produtos criam e simplesmente não faz nada a respeito. Só porque você não quer abrir mão dos menores lucros.«

Com base na minha experiência pessoal com o Facebook, só posso confirmar essa crítica. As declarações do denunciante e os estudos científicos sobre a conexão entre os preconceitos (conscientes ou inconscientes) dos programadores e as decisões dos algoritmos alimentam a suspeita de que o Facebook poderia ter uma tendência a ignorar ou mesmo enfatizar conteúdos discriminatórios. Eu tenho um longo histórico de banimentos repetidos no Facebook. Estas referem-se quase exclusivamente a postagens antifascistas. Apenas em um caso fui banido por um comentário em um debate linguístico. Tratava-se dos inúmeros usos possíveis de uma palavra ou raiz de palavra no espanhol venezuelano. Sugeri a possibilidade de usar o termo como “golpe”

Minha última proibição de sete dias para postagens ou comentários foi porque eu postei na página do Facebook de um amigo no Brasil que Reinhard Gehlen, o fundador do serviço secreto da Alemanha Ocidental BND após a Segunda Guerra Mundial, era nazista e meu comentário com uma foto adicionada por Gehlen de Wikipédia. O post do meu amigo que comentei era sobre que nazistas haviam feito carreira na Alemanha, Áustria, em instituições europeias e na OTAN após a Segunda Guerra Mundial. Consegui me opor ao meu bloqueio no Facebook. A objeção foi concedida, mas 15 minutos depois fui bloqueado novamente pela mesma postagem sem a possibilidade de objeção.

Em 2021 fui banido várias vezes. Em 30 de abril, porque no dia em que Adolf Hitler se suicidou em 1945 no chamado Führerbunker em Berlim, eu tinha um conhecido estêncil (um modelo para grafite) com a imagem estilizada do suicídio de Hitler e o slogan “Siga seu líder « (Siga o guia) tinha postado. Pouco tempo depois, o algoritmo do Facebook descobriu minha postagem no aniversário da (auto) libertação do fascismo na Itália em 25 de abril de 1945: uma foto bem conhecida mostrando os corpos de Mussolini e outros líderes fascistas, executados por guerrilheiros e depois pendurado de cabeça para baixo na Piazzale Loreto, em Milão. Na Itália, esta imagem pode ser encontrada repetidamente na mídia no aniversário, e obviamente eu não era o único a tê-la postado.

Então encontrei um meme que tinha a cabeça de Mussolini três vezes certa e uma vez errada. Sob as três primeiras cabeças estava “Facebook, Instagram e Twitter“, sob a quarta estava “Piazzale Loreto”. Depois fui banido novamente. Outras proibições se seguiram porque o Facebook descobriu que eu também havia postado a conhecida foto da Piazzale Loreto em anos anteriores. A razão que me foi dada foi que eu havia violado os “padrões da comunidade”. Somente em casos excepcionais eu poderia recorrer e, quando o fiz, não tive êxito. Isso não deveria ser uma surpresa: mesmo em regimes autoritários, a dissidência não é bem-vinda.

Aproveitei essa experiência como uma oportunidade para realizar meu próprio pequeno estudo empírico. Nos meses que se seguiram, denunciei um total de cerca de 400 postagens e comentários racistas, antissemitas, islamofóbicos, misóginos e fascistas no Facebook em alemão, inglês, espanhol e italiano. As postagens que denunciei foram excluídas em menos de dez casos, embora várias postagens na Alemanha e na Itália também fossem relevantes sob o direito penal.

Vários posts que o Facebook parecia não violar os “padrões da comunidade” incluíam pedir ou exigir que os refugiados fossem baleados ou afogados; Rotular mulheres, homossexuais e pessoas de cor como inferiores ou comparar estes últimos a “escória” ou “verme”. Demandas para estuprar lésbicas também não violam os “padrões da comunidade”. Embora os comentários nas páginas do Facebook da mídia italiana tenham sido particularmente agressivos, eles não foram excluídos por esses meios (principalmente o jornal diário La Repubblica) nem bloqueados pelo Facebook. Dois exemplos marcantes da Alemanha que não foram bloqueados: a comemoração do aniversário de um “certo Adolf” em 20 de abril, e a postagem de que problemas com a cremação de cadáveres em Dresden no auge da pandemia de Covid eram um indício para poder duvidar da existência de campos de extermínio dos nazistas .

Está ficando claro que a prática do Facebook vai além de simplesmente ignorar ou permitir notícias falsas e ódio. Os algoritmos, a inteligência artificial (IA) e os funcionários responsáveis ​​toleram a maioria dessas postagens e ignoram as críticas a elas.

Ao contrário da opinião popular de que a IA e os algoritmos que foram criados são neutros, pode-se dizer que a inteligência artificial é programada por pessoas. E essas pessoas são em sua maioria brancas, masculinas, heterossexuais e do Norte Global, enquanto que seus preconceitos são perpetuados.

Estudos científicos de softwares de avaliação de aplicativos mostram que a IA geralmente avalia pessoas de pele escura ou lenços na cabeça pior do que pessoas de pele branca. Isso também se aplica a concursos de beleza online. Os programas de reconhecimento facial reconhecem rostos escuros pior do que os brancos e são considerados mais suspeitos em softwares de segurança e vigilância. É razoável supor que o viés político de muitos programadores se reflita na IA.

Em outras palavras: o capital, a burguesia e a pequena burguesia sempre classificam as visões e atividades de esquerda, socialistas e comunistas como mais ameaçadoras do que as visões e atividades de direita e extrema direita. Então, por que a IA deveria agir de forma diferente? E se os funcionários no Facebook que verificam oficialmente os relatórios dos usuários tendem a compartilhar essas opiniões ou estão tão sobrecarregados e sobrecarregados que concordam com a IA, ainda não se sabe.  Está claro que isso não altera o resultado.

color compass

Este texto foi escrito originalmente em alemão e publicado pelo jornal “Neues Deutschland” [Aqui!].

Ingram Micro Brasil, IBM e Genesys juntam-se para oferecer uma solução integrada de serviço ao cliente

Com IBM Watson e baseada em Genesys Cloud, solução traz inovação na experiência do cliente para os varejistas brasileiros

omnichannel

Barueri, 23 de novembro de 2021 — A Ingram Micro Brasil acaba de anunciar que vai distribuir uma solução que pode transformar a relação de varejo com os seus clientes digitais, como resultado da integração dos esforços do distribuidor, IBM e Genesys — para Inteligência Artificial e Contact Center as a Service, respectivamente. É um ecossistema de inovação baseado em resultados, fruto da combinação das tecnologias Genesys Cloud, para o atendimento digital “omnichannel” a clientes, com IBM Watson Assistant, para a criação de estratégias de serviço ao cliente usando Inteligência Artificial.

“Estamos muito entusiasmados por oferecer uma solução tão integrada e única aos nossos parceiros e clientes”, disse Roberto Gero, diretor de Advanced Computing da Ingram Micro. Segundo ele, o ecossistema é uma base sólida e fundamental para as empresas que operam no varejo brasileiro alcançarem o sucesso das métricas de Customer Experience, como NPS (Net Promoter Score), CES (Customer Effort Score) e CSAT (Customer Satisfaction).

De acordo com Marcela Vairo, Diretora de Dados, AI Apps e Automação da IBM Brasil, a inteligência artificial tem um imenso potencial para transformar o atendimento ao cliente, desde a praticidade do autosserviço até a personalização das relações entre clientes e empresas. “Combinando a IA conversacional com Machine Learning, capacidades de speech-to-text e integração com uma plataforma omnichannel e CRM, podemos ajudar as empresas a melhorar a resolução logo no primeiro contato, e também permitir que as pessoas se concentrem em empregos de maior valor. Isto reduz os custos, melhora a experiência do cliente e aumenta a sua satisfação” disse a executiva.

Existe uma oportunidade crescente para as empresas que operam no setor de varejo no Brasil de utilizarem dados e IA para transformar a experiência do cliente. A integração de soluções complementares de atendimento ao cliente da Ingram Micro, IBM e Genesys com casos de utilização bem definidos ajuda os clientes a construírem em escala e a melhorarem o envolvimento do cliente e os resultados da experiência.

Rodrigo Marcondes, Country Manager da Genesys, acrescenta: “A pandemia impulsionou a inserção de novos compradores no ambiente digital e aumentou a relevância de uma estratégia bem estruturada, mas a verdade é que há décadas que as empresas querem estar disponíveis a todo o momento e a qualquer hora, tanto para atividades de vendas como de pós-venda, o que inclui relacionamento e apoio ao cliente. Contudo, os custos da prestação de serviços desta natureza têm sido sempre muito elevados. Felizmente, com o advento e melhoria das plataformas de AI e do serviço Omnichannel Cloud, para além da disseminação de aplicações como WhatsApp, ter uma conversa autônoma tornou-se tecnológica e economicamente viável, como é o caso do ecossistema que integra as tecnologias Genesys Cloud com IBM Watson”.

Para saber mais sobre a Ingram Micro, visite o website da Ingram Micro Brasil.

Sobre a Ingram Micro Inc.

A Ingram Micro é a maior distribuidora mundial de tecnologia e líder global na cadeia de fornecimento de TI, serviços móveis, soluções de nuvem, automação e logística. Para além de soluções e serviços de distribuição de produtos, oferece apoio ao desenvolvimento do seu ecossistema, com benefícios exclusivos, recursos logísticos e de mobilidade, apoio técnico profissional e soluções financeiras, atuando como um elo vital na cadeia de valor da tecnologia. No Brasil desde 1997, a Ingram Micro tem produtos e soluções de mais de 80 fabricantes para pronta entrega e importação exclusiva nos modelos VAD, VOD, mobilidade, automação e cloud. Nos últimos anos, a Ingram Micro criou um ritmo rápido de mudança no Brasil, com a expansão do seu portfólio em vários mercados verticais, assim como grandes dados e análises avançadas, segurança, nuvem, experiência do cliente, IoT, estrutura convergente e soluções de mobilidade.

Com escritórios regionais em São Paulo, Rio de Janeiro, Brasília e Porto Alegre, e fornecedores locais em Curitiba, Joinville, Belo Horizonte, Recife, Salvador e interior de São Paulo, a Ingram Micro apoia as necessidades de toda a cadeia de distribuição, assegurando a realização dos objetivos empresariais dos seus parceiros e clientes, dentro das melhores práticas de mercado, servindo setores como o transporte, agronegócios, educação, recursos naturais, saúde, serviços financeiros, retalho e área pública, entre outros. Para mais informações, visite o website da Ingram Micro ou ligue (11) 2078.4200.

Iniciativa busca rastrear desmatamento da Amazônia com uso de inteligência artificial

Objetivo é fornecer informações mais precisas por meio de uma plataforma de construção coletiva sobre o desmatamento floresta

classificação

São Paulo, abril de 2020 – Construir uma comunidade global de inovadores que usam a tecnologia para provocar mudanças positivas para as pessoas e para o planeta. É com essa visão que o Instituto Internacional de Análise de Sistemas Aplicados (IIASA) e o SAS, líder global em analytics, estão promovendo uma ação com a finalidade de coletar informações e imagens que possam ser utilizadas como fonte de dados para construção de modelos de inteligência artificial (AI). O objetivo é fornecer informações mais precisas, por meio de uma plataforma de construção coletiva, sobre o desmatamento florestal, especialmente da região amazônica.

O IIASA, que é uma das mais importantes e respeitadas organizações mundiais de investigação científica multidisciplinar, localizada em Laxeburg, na Áustria, busca mobilizar a comunidade científica e a sociedade civil em todo o mundo para imputar e revisar imagens da floresta amazônica com o intuito de apontar áreas que foram devastadas a partir da influência humana.

Segundo o SAD, Sistema de Alerta de Desmatamento do Imazon, ferramenta de monitoramento baseada em imagens de satélites, o desmatamento na Amazônia cresceu 279% em março deste ano, em comparação com o mesmo mês de 2019. Segundo o relatório, 254 quilômetros quadrados de floresta foram destruídos no período, sendo o número mais alto nos últimos dois anos. Para os autores da pesquisa, esse aumento pode estar ligado ao avanço de áreas ilegais de garimpo e da intensa atuação de grileiros, pessoas que se apossam de terras alheias.

“A urgência necessária para abordar essas transformações requer as melhores soluções de tecnologia. É por isso que escolhemos o SAS”, diz Albert van Jaarsveld, CEO do IIASA. “Ao combinar o poder de nossas plataformas de pesquisa de ciência ambiental, o uso de inteligência artificial e as tecnologias de computer vision do SAS, somado ao poder intelectual dos cidadãos preocupados, nós vamos desenvolver modelos de IA que vão aumentar exponencialmente o valor de insights humanos e nos esforçar para entregar uma avaliação quase em tempo real da mudança ambiental global.”

Modelos poderosos e precisos de IA não surgem por mágica. O desenvolvimento dessa tecnologia começa com inteligência humana. Para este projeto, o SAS e o IIASA estão lançando em conjunto um aplicativo online orientado pelo modelo de crowdsourcing para reunir a inteligência coletiva do público. Eles estão chamando voluntários dos mais diversos perfis – pesquisadores, estudantes do ensino médio, artistas, engenheiros e cientistas de dados profissionais – para iniciar este projeto, avaliando e julgando imagens da floresta Amazônica.

“Já que a análise de imagem é um primeiro passo importante para a avaliação e projeção precisa do desmatamento, estamos pedindo para as pessoas apontarem o que a tecnologia não consegue, examinando e reportando imagens de pequenas áreas que tiveram dano florestal”, afirma van Jaarsveld. “O trabalho colaborativo ajuda a melhorar algoritmos de IA, acelerando o que antes levaria anos para analisar, ajudando assim a conduzir respostas vitais para proteger mais rapidamente as nossas florestas.”

Quando as pessoas marcam regiões que tiveram sinais de impacto humano, elas ajudam a tornar os modelos de IA mais inteligentes. Por exemplo, é fácil para um humano distinguir entre uma estrada (que sinaliza impacto humano) e um rio (que não sinaliza), mas um modelo de IA não saberá a diferença até obter treinamento suficiente – e esse aprendizado se dá a partir de observações humanas. Além disso, os resultados do modelo garantem que o app baseado no modelo de crowdsourcing foca a atenção do julgamento humano onde sua experiência é mais necessária. O modelo permitirá maior eficiência da força humana voluntária que faz melhor uso de sua atenção e insights para uma ampla gama de projetos voltados ao monitoramento e à medição de questões importantes de mudança global.

Combinando o poder das pessoas e dos computadores, o SAS e o IIASA terão uma plataforma robusta e extensiva para fortalecer os cidadãos e nos ajudar a entender melhor e prever as ameaças ao meio ambiente. Embora a primeira fase dessa parceria se concentre no desmatamento, há planos para estender a plataforma a outras preocupações ambientais nas quais o conhecimento colaborativo pode ajudar a servir o bem maior.

Sobre o IIASA

O International Institute for Applied Systems Analysis (IIASA) é um instituto científico internacional que realiza pesquisas sobre as questões críticas das mudanças globais ambientais, econômicas, tecnológicas e sociais que enfrentamos no século XXI. As nossas descobertas fornecem opções valiosas aos decisores políticos para moldar o futuro do nosso mundo em constante mudança. O IIASA é independente e financiado por agências de financiamento de pesquisa de prestígio na África, Américas, Ásia e Europa. http://www.iiasa.ac.at

Sobre o SAS

O SAS é líder global em Analytics e a maior empresa de software de capital fechado do mundo. Fundada em 1976, suas soluções são usadas em mais de 80 mil empresas em todo o planeta, incluindo 93 das top 100 companhias listadas na Fortune Global 500. No Brasil, o SAS está presente desde 1996 com escritórios em São Paulo (SP), Rio de Janeiro (RJ) e Brasília (DF), atuando em setores como finanças, telecomunicações, varejo, energia, governo, educação, entre outros. A empresa também é mundialmente reconhecida por suas boas práticas de Recursos Humanos, inclusive no Brasil, onde foi incluída seis vezes consecutivas entre os três melhores empregadores do país pelo ranking Top Employers Institute. Confira o site: www.sas.com/br