Discriminados pelo algoritmo

Os mecanismos de busca da Internet discriminam aqueles que não são homens. Sua técnica é tudo menos gênero neutro

O algoritmo conta mais homens nesta foto. No entanto, isso não deve reduzir a probabilidade de ele propor uma mulher para o cargo de gerência. Foto: imago/PEMAX
Por Thomas Gesterkamp para o “Neues Deutschland”

“Dificilmente alguém pensaria que a pesquisa Xing exclui completamente mulheres especialistas na mesma profissão”, escreveu a blogueira Lisa Ringen em 2017 em resposta às críticas da rede de carreiras online. Se você inserir um cargo masculino na pesquisa, obterá resultados apenas para especialistas do sexo masculino e, mesmo ao percorrer a lista de resultados do concorrente Google, surge a “impressão subliminar de que os homens são os mais bem-sucedidos, mais competentes fotografia, consultoria e especialistas gráficos”.

Essa representação seletiva tem pouco a ver com a realidade; a razão é mais a lógica puramente matemática do algoritmo usado. Os mecanismos de busca comuns, por exemplo, não conseguem reconhecer as palavras arquiteto e arquiteto como sinônimos, e a consulta irritada então aparece nas telas e displays: »Você quis dizer arquiteto?« A forma masculina de uma atividade profissional é inserida com muito mais frequência ao pesquisar sobre a Internet. Uma ninharia linguística, mas com consequências graves e excludentes: se os provedores usam a grafia feminina na Internet, seus clientes em potencial têm mais dificuldade de encontrá-los do que seus colegas homens.

Potenciais vítimas desta forma de discriminação podem ser negros assim como mulheres. Um exemplo bastante citado é o dispensador automático de sabonete, cujos sensores só reagem às mãos de pessoas brancas. Embora esse fenômeno possa ser interrompido com relativa facilidade com meios técnicos, a discriminação de gênero tem causas mais estruturais. Porque os preconceitos inscritos também se baseiam na (às vezes inconsciente) ignorância política de gênero dos programadores. A proporção de funcionários do sexo masculino é superior a 60% nas empresas importantes do Vale do Silício e ainda mais de 80% nos departamentos de tecnologia do Facebook, Microsoft, Uber, Google ou Apple. A situação é semelhante neste país: de acordo com dados da autoridade estatística Eurostat, em 2021, apenas um quinto dos especialistas alemães em TI era do sexo feminino.

A consultora de gestão Janina Kugel, ex-diretora da Siemens, pede um repensar nos andares executivos. A indústria de tecnologia deve “levar em conta a estrutura social de uma sociedade e incluir diversas experiências e realidades da vida”, alertou ela em uma coluna na Manager Magazin em 2021 Não basta ver o mundo da perspectiva de um engenheiro homem “como uma coleção de zeros e uns”. As perspectivas das ciências sociais e humanas também são importantes, porque a inteligência artificial só pode “tomar decisões matemáticas, não éticas”.

Herança ruim

“O algoritmo é machista”, de acordo com um artigo da revista Science Notes. Um estudo realizado por cientistas da Universidade Dinamarquesa de Sonderborg descobriu que o software era menos capaz de reconhecer vozes e rostos femininos em conferências de zoom e formatos de discussão semelhantes. A inteligência artificial, ou AI para abreviar, muitas vezes trata os pedidos de emprego das mulheres como uma prioridade secundária, e a memória eletrônica significa que os homens geralmente acabam no topo das listas de aplicativos. Porque a máquina é alimentada principalmente com valores empíricos e critérios de seleção do passado, embora as informações utilizadas estejam às vezes muito desatualizadas. Muitas vezes, baseiam-se na distribuição tradicional de papéis de gênero; em casos extremos, o conteúdo também pode ser explicitamente racista ou sexista.

“Se os dados estão cheios de desigualdade, essa desigualdade também se reflete nos resultados dos algoritmos”, resume o cientista de mídia Tobias Matzner, que pesquisa o assunto na Universidade de Paderborn. Portanto, a IA não é de forma alguma tão justa, imparcial e igualitária quanto se afirma repetidamente. “Não existe neutralidade para algoritmos”, enfatiza Matzner. Ao contrário, os padrões tradicionais do mundo real se repetem no espaço digital – e isso tem consequências significativas para os processos de tomada de decisão em empresas e instituições. Os buscadores, que parecem apenas objetivos, estão cada vez mais envolvidos em determinar quem é admitido em uma universidade popular, quem recebe um empréstimo imobiliário em condições atraentes ou quem pode contratar um seguro barato.

Um estudo da Carnegie Mellon University, nos Estados Unidos, descobriu que as mulheres têm menos probabilidade de ver cargos de gestão bem pagos no Google do que os homens. A Amazon chegou às manchetes já em 2015 porque um programa desenvolvido dentro do grupo sistematicamente selecionava candidatas do sexo feminino quando se tratava de empregos lucrativos. O software (agora revisto) foi concebido para dar preferência a pedidos de pessoas com mais de dez anos de experiência profissional – critério que era mais provável de ser preenchido por candidatos do sexo masculino. Em 2020, tornou-se conhecido como os estereótipos de gênero moldam os anúncios de emprego no Facebook: a busca por um caminhoneiro (masculino/feminino/diversos) foi exibida dez vezes mais do que as mulheres.

Apenas zeros e uns ?

Um estudo da Agência Federal Antidiscriminação em 2019 listou exemplos semelhantes da administração social e do sistema de saúde. Na Áustria, um algoritmo que visa avaliar as oportunidades de emprego dos desempregados é extremamente controverso. As mulheres já recebem pontos negativos por lá se tiverem filhos – e geralmente porque são previstas piores oportunidades de trabalho para elas devido aos dados históricos questionáveis. Isso é então usado como base para a classificação em uma categoria alta, média ou baixa para ofertas de emprego para reintegração. Dessa forma, o sistema de avaliação digital reproduz e reforça a discriminação contra a mulher no mercado de trabalho.

É difícil para os afetados neutralizar isso, porque os critérios de seleção para sistemas controlados por computador são muito mais ocultos do que a decisão clara de um conselho de revisão no departamento de RH após uma entrevista pessoal. Os candidatos rejeitados por filtros eletrônicos “não conseguem entender o processo porque a forma como o aplicativo funciona não é clara”, diz Lisa Hanstein. Antes desenvolvedora de software da SAP, ela agora faz campanha por mais transparência e redução da discriminação digital na European Academy for Women and Politics em Berlim. »IT é considerado muito racional«, enfatiza Hanstein, »esquecemos que é feito por pessoas e essas pessoas pensam em estereótipos«. No entanto, os algoritmos programados são frequentemente criados »sem qualquer ação ou intenção maliciosa.


Este texto escrito originalmente em alemão foi publicado pelo jornal “Neues Deutschland” [Aqui!].

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s