Facebook Papers colocam empresa de Mark Zuckerberg sob pressão inédita

O poder de um denunciante: principais conclusões dos jornais do Facebook. Entrevistas com dezenas de funcionários atuais e ex-funcionários e um tesouro de documentos internos mostram como a empresa de mídia social inflamou os danos do mundo real

facebook papers

Por Cristiano Lima para o “The Washington Post”

Uma decisão pessoal do CEO do Facebook, Mark Zuckerberg, leva a uma repressão aos dissidentes no Vietnã. Medidas para suprimir conteúdo odioso e enganoso foram levantadas após a eleição presidencial americana em 2020, com grupos pró-Trump disputando a legitimidade da experiência eleitoral de crescimento “meteórico”. Uma conta de teste fictícia no Facebook na Índia é inundada com propaganda anti-muçulmana violenta – que permanece visível por semanas no relato real de um estudante universitário muçulmano assustado no norte da Índia.

Uma coleção de documentos internos do Facebook revela que o gigante da mídia social rastreou privada e meticulosamente os danos do mundo real agravados por suas plataformas, ignorou os avisos de seus funcionários sobre os riscos de suas decisões de design e expôs comunidades vulneráveis ​​ao redor do mundo a um coquetel de perigosas contente.

Divulgados à Comissão de Valores Mobiliários dos Estados Unidos pela denunciante Frances Haugen , os artigos do Facebook foram fornecidos ao Congresso de forma redigida pelo consultor jurídico de Haugen. As versões editadas foram revisadas por um consórcio de organizações de notícias, incluindo o The Washington Post, que obteve documentos internos adicionais e conduziu entrevistas com dezenas de funcionários atuais e ex-funcionários do Facebook.

Uma mistura de apresentações, estudos de pesquisa, tópicos de discussão e memorandos de estratégia, os Facebook Papers fornecem uma visão sem precedentes de como os executivos da gigante da mídia social avaliam as compensações entre segurança pública e seus próprios resultados financeiros. Alguns dos documentos foram publicados pela primeira vez pelo Wall Street Journal.

Aqui estão as principais conclusões da investigação do Post:

As afirmações públicas de Zuckerberg muitas vezes entram em conflito com pesquisas internas

Haugen faz referência às declarações públicas de Zuckerberg pelo menos 20 vezes em suas reclamações da SEC, afirmando que o grau único de controle do CEO sobre o Facebook o força a assumir a responsabilidade final por uma litania de danos sociais causados ​​pela busca implacável da empresa pelo crescimento.

Os documentos também mostram que as declarações públicas de Zuckerberg estão frequentemente em desacordo com as conclusões internas da empresa.

wp1

O fundador do Facebook, Mark Zuckerberg, palestrou na Georgetown University em Washington em 2019. (Andrew Caballero-Reynolds / AFP / Getty Images)

Por exemplo, Zuckerberg testemunhou no ano passado perante o Congresso que a empresa remove 94 por cento do discurso de ódio que encontra antes de um humano denunciá-lo. Mas em documentos internos, os pesquisadores estimaram que a empresa estava removendo menos de 5 por cento de todos os discursos de ódio no Facebook.

A porta-voz do Facebook Dani Lever negou que Zuckerberg “tome decisões que causam danos” e rejeitou as descobertas, dizendo que elas são “baseadas em documentos selecionados que são caracterizados de maneira incorreta e desprovidos de qualquer contexto”.

O Facebook baixou a guarda antes da insurreição de 6 de janeiro

Durante o período que antecedeu as eleições presidenciais de 2020 nos Estados Unidos, a gigante das redes sociais concentrou esforços para policiar conteúdo que promovesse violência, desinformação e discurso de ódio. Mas depois de 6 de novembro, o Facebook reverteu muitas das dezenas de medidas destinadas a proteger os usuários dos EUA. A proibição do grupo principal Stop the Steal não se aplicava às dezenas de grupos semelhantes que surgiram no que a empresa concluiu mais tarde ser uma campanha “coordenada”, mostram os documentos.

Quando o Facebook tentou reimpor suas medidas de “quebrar o vidro”, era tarde demais: uma multidão pró-Trump estava invadindo o Capitólio dos Estados Unidos.

wp2

Doug Jensen, centro, e outros apoiadores do presidente Donald Trump, confrontam a polícia do Capitólio dos EUA no corredor do lado de fora da câmara do Senado no Capitólio em Washington. (Manuel Balce Ceneta / AP)

Funcionários do Facebook disseram que planejaram exaustivamente a eleição e suas consequências, anteciparam o potencial de violência pós-eleitoral e sempre esperaram que os desafios durassem até a posse do presidente Biden em 20 de janeiro.

O Facebook não consegue policiar efetivamente o conteúdo em grande parte do mundo

Apesar de todos os problemas do Facebook na América do Norte, seus problemas com discurso de ódio e desinformação são dramaticamente piores no mundo em desenvolvimento. Documentos mostram que o Facebook estudou meticulosamente sua abordagem no exterior e está ciente de que uma moderação mais fraca em países que não falam inglês deixa a plataforma vulnerável a abusos por parte de malfeitores e regimes autoritários.

De acordo com um resumo de 2020, a grande maioria de seus esforços contra a desinformação – 84% – foi para os Estados Unidos, mostram os documentos, com apenas 16% indo para o “Resto do Mundo”, incluindo Índia, França e Itália.

Embora o Facebook considere a Índia uma prioridade, ativando grandes equipes para se envolver com grupos da sociedade civil e proteger as eleições, os documentos mostram que os usuários indianos experimentam o Facebook sem barreiras críticas comuns em países de língua inglesa.

wp3

Uma mulher verifica a página do Facebook do partido governante indiano Bharatiya Janata em Nova Delhi em 2019. (Manish Swarup / AP)

Lever, do Facebook, disse que a empresa fez “progresso”, com “equipes globais com falantes nativos revisando conteúdo em mais de 70 idiomas, juntamente com especialistas em questões humanitárias e de direitos humanos”.

“Contratamos mais pessoas com experiência em idioma, país e tópico”, disse Lever, acrescentando que o Facebook “também aumentou o número de membros da equipe com experiência de trabalho em Mianmar e na Etiópia para incluir ex-trabalhadores de ajuda humanitária, respondentes a crises e especialistas em políticas . ”

O Facebook escolhe o envolvimento máximo em vez da segurança do usuário

Zuckerberg disse que a empresa não projeta seus produtos para persuadir as pessoas a dedicar mais tempo a eles. Mas dezenas de documentos sugerem o contrário.

A empresa estuda exaustivamente possíveis mudanças de política quanto aos seus efeitos no envolvimento do usuário e outros fatores essenciais para os lucros corporativos. Em meio a essa pressão pela atenção do usuário, o Facebook abandonou ou atrasou iniciativas para reduzir a desinformação e a radicalização.

Um relatório de 2019 rastreando uma conta fictícia criada para representar uma mãe conservadora na Carolina do Norte descobriu que os algoritmos de recomendação do Facebook a levaram ao QAnon, uma ideologia extremista que o FBI considerou uma ameaça de terrorismo doméstico, em apenas cinco dias. Ainda assim, o Facebook permitiu que a QAnon operasse em seu site praticamente sem verificação por mais 13 meses.

“Não temos nenhum incentivo comercial ou moral para fazer outra coisa senão dar ao máximo número de pessoas uma experiência positiva tanto quanto possível”, disse Lever do Facebook, acrescentando que a empresa está “constantemente tomando decisões difíceis”.

Elizabeth Dwoskin, Shibani Mahtani, Cat Zakrzewski, Craig Timberg, Will Oremus e Jeremy Merrill contribuíram para este relatório.

compass

Este texto foi escrito inicialmente em inglês e publicado pelo jornal “The Washington Post”  [Aqui!].

Deixe um comentário

Faça o login usando um destes métodos para comentar:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s