Como funciona o manual do Facebook para moderar conteúdo político

Reportagem do The New York Times teve acesso a mais de 1,4 mil páginas em que a rede social descreve critérios para moderação de conteúdo político; empresa tem arbitrado opinião pública mais do que imaginado até aqui
Por Max Fisher – The New York Times

A sede do Facebook, em Menlo Park, na Califórnia

Numa sala de conferência envidraçada, em sua sede na Califórnia, o Facebook enfrenta as chamas do ódio e desinformação que ajudou a alimentar em todo o mundo. A rede social tem sido criticada por corroer a democracia e provocar derramamentos de sangue ao redor do globo. Mas, para o Facebook, este é um problema comercial.

A companhia que lucra US$ 5 bilhões por trimestre tem um duplo desafio: mostrar que leva a sério a remoção de conteúdo perigoso, ao mesmo tempo em que precisa continuar a atrair mais usuários de mais países e procurar mantê-los no site mais tempo. 

Como o Facebook pode monitorar os bilhões de postagens por dia em mais de 100 línguas, sem perturbar a incessante expansão dos usuários que constituem a base dos seus negócios? A solução encontrada pela empresa foi criar uma rede de funcionários, utilizando um emaranhado de slides em PowerPoint para instrui-los a expelir tudo o que é proibido. 

Todas as manhãs de terça-feira, algumas dezenas de empregados se reúnem para elaborar as regras e debater o que os 2,2 bilhões de usuários do Facebook devem ter permissão de dizer. As regras que surgem dessas reuniões são enviadas para mais de 7,5 mil moderadores em todo o mundo. 

As regras são amplas e transformam o Facebook num árbitro do discurso global muito mais poderoso do que tem sido reconhecido ou admitido publicamente pela própria companhia, concluiu o The New York Times, após examinar mais de 1,4 mil páginas contendo essas regras. As informações foram recebidas de um funcionário que disse temer que a companhia esteja exercendo um poder exagerado, com pouca supervisão, e cometendo muitos erros.

Um exame dos arquivos revelou inúmeras lacunas, preconceitos e erros. Se de um lado os funcionários do Facebook se empenharam para dar a resposta certa, de outro eles permitiram que a linguagem extremista florescesse em alguns países, censurando ao mesmo tempo o discurso convencional em outros.

Foi dito aos moderadores, por exemplo, para removerem os apelos de arrecadação de fundos para vítimas do vulcão na Indonésia porque um dos patrocinadores da campanha estava na lista do Facebook de grupos banidos. Em Mianmar, um erro de documentação permitiu que um influente grupo extremista acusado de fomentar o genocídio permanecesse na plataforma durante meses. Na Índia, foi pedido erroneamente aos moderadores para retirarem comentários críticos à religião.

Os funcionários do Facebook – a maioria deles, engenheiros e advogados – que se reúnem para elaborar as regras tentam verter temas extremamente complexos para simples regras de sim ou não. E a  empresa terceiriza a moderação de fato, postagem por postagem, para empresas que contratam trabalhadores sem qualificação, muitos deles vindos de call centers.

Esses moderadores têm poucos segundos para se lembrar das inúmeras regras e aplicá-las às centenas de postagens que passam por suas telas diariamente. Eles expressam frustração com regras que, afirmam, nem sempre têm sentido e às vezes exigem que eles mantenham postagens que tem possam levar a violência. “Você sente que assassinou alguém por não agir”, disse um deles. 

Ao NYT, os executivos do Facebook afirmam estar trabalhando diligentemente para livrar a plataforma de postagens perigosas.“Não cabe a nós corrigir o discurso das  pessoas, mas temos de aplicar os padrões da comunidade para nossa plataforma”, disse Sara Su, engenheira sênior no feed de notícias da companhia. “Quando você está dentro da nossa comunidade queremos que haja um equilíbrio entre a liberdade de expressão e a segurança”. Para a diretora de administração de política global do Facebook, Monika Bickert, o objetivo principal é evitar danos e que em grande medida a companhia tem se saído bem, mas que perfeição não  é possível.

As regras. As diretrizes para identificação de discursos de ódio, um problema que tem atormentado o Facebook, estão contidas em 200 páginas repletas de jargões. Os moderadores têm de selecionar uma postagem com base em um dos três “graus” de severidade. E precisam ter em mente listas como a das “seis comparações desumanizadoras”, como comparar judeus a ratos.

Por mais detalhadas que sejam essas regras, elas são apenas aproximações – a melhor maneira, supostamente, de combater o terrorismo e a desinformação. Às vezes, elas levam o Facebook a entrar em assuntos políticos sensíveis e de modo desastrado. Cada vez mais, as decisões sobre que postagens devem ser barradas equivalem a regulamentar o discurso político. Em muitos países, o extremismo e o que é normal se confundem.

Nos Estados Unidos o Facebook baniu o grupo de extrema-direita Proud Boys, favorável ao presidente americano Donald Trump. A empresa também bloqueou um anúncio inflamado sobre a caravana de imigrantes centro-americanos, que foi produzido pela equipe de Trump. “O papel do Facebook se tornou tão hegemônico, tão monopolista a ponto de ele se tornar uma força separada” disse Jasmin Mujanovic, especialista em questões dos Bálcãs. “Nenhuma entidade, especialmente uma que visa lucro como o Facebook, deveria ter esse poder de influenciar o debate público e a política”.

Na Índia, Chinmayi Arun, especialista em assuntos legais, identificou erros preocupantes nas diretrizes da companhia. Um slide de apresentação diz que a lei indiana proíbe apelos de uma Caxemira independente, o que alguns especialistas jurídicos contestam. O slide instrui os moderadores a “terem cuidado” com a frase Caxemira livre – embora o slogan, comum entre os ativistas, seja totalmente legal.

Segundo o Facebook, ele está simplesmente insistindo para os moderadores terem uma atenção extra no caso de postagens que usam a frase. Mas mesmo isto pode arrefecer o ativismo na Caxemira. E não está claro que a distinção será óbvia para os moderadores, que são alertados de que ignorar violações pode levar o Facebook a ser bloqueado na Índia. 

Conta própria. Na ausência de órgãos internacionais ou governamentais que estabeleçam os critérios, o Facebook vem agindo por conta própria. “Grande parte disto seria muito mais fácil se houvesse uma terceira parte com autoridade que fornecesse a resposta”, disse Brian Fishman, especialista em contraterrorismo e trabalha com o Facebook. “Às vezes essas coisas explodem realmente rápido. E temos de imaginar qual será nossa reação e não temos tempo para a ONU.”

Mas os resultados são díspares, como nas diretrizes para os Bálcãs, onde o nacionalismo crescente está ameaçando reacender a antiga violência na região. O arquivo com as regras no caso desta região, não atualizado desde 2006, contém erros crassos. Ratko Mladic, criminoso de guerra bósnio ainda exaltado pelos extremistas, está descrito como um fugitivo. Na verdade, ele foi preso em 2011.

Os slides de apresentação aparentemente estão escritos para pessoas de língua inglesa que confiam no Google Translate, sugerindo que o Facebook não tem muitos moderadores que falam a língua local e que poderiam entender contextos locais cruciais para identificação de um discurso incendiário. As diretrizes, disse Mujanovic, estão perigosamente desatualizadas. E dizem pouco sobre os grupos ultranacionalistas que atiçam a violência política na região. 

Lista de ódio. O documento do Facebook mais inquietante do ponto de vista político pode ser uma planilha do Excel que nomeia cada grupo e indivíduo que a companhia bloqueou como figura de ódio. Os moderadores são instruídos a remover qualquer postagem elogiando, apoiando ou representando qualquer uma das figuras listadas.

Anton Shekhovtsov, especialista em grupos de extrema-direita, disse estar “confuso com a metodologia adotada”. A companhia proibiu um grupo impressionante de grupos americanos e britânicos, disse ele, mas relativamente poucos em países onde a extrema-direita é mais violenta, especialmente na Rússia e Ucrânia.

Países onde o Facebook enfrenta uma pressão do governo parecem estar mais cobertos do que aqueles onde a pressão inexiste. O Facebook bloqueia dezenas de grupos de extrema-direita na Alemanha, onde as autoridades observam de perto a rede social, mas somente um na Áustria vizinha. Para uma empresa de tecnologia, fazer essa distinção é extremamente problemático, na opinião de Jonas Kaiser, especialista em extremismo online. “Isto coloca as redes sociais na posição de fazer julgamento que tradicionalmente é função dos tribunais”.

As proibições são uma espécie de atalho, disse Sana Jaffrey, que estuda política indonésia na Universidade de Chicago. Pedir aos moderadores para que identifiquem um nome ou logo banido é mais fácil do que exigir que façam julgamentos sobre quando opiniões políticas são perigosas. Mas, isto significa que em grande parte da Ásia e do Oriente Médio, o Facebook bloqueia grupos religiosos radicais que representam segmentos importantes da sociedade. 

Proibições indiscriminadas, disse Jaffrey, equivalem ao calar um lado do debate nacional. E as decisões do Facebook com freqüência são a favor dos governos, que podem multar ou estabelecer regras para a rede social.

De Menlo Park para o mundo. Um obstáculo para controlar o discurso incendiário no Facebook pode ser a própria empresa. A plataforma depende de um algoritmo que tende a promover o conteúdo mais provocativo, às vezes aquele conteúdo que a companhia diz que deseja suprimir.

O  Facebook poderia atenuar esse algoritmo ou reduzir a expansão para novos mercados onde  provocou mais distúrbio. Mas a rede instiga nos funcionários uma fé quase que inquestionável no seu produto como uma força para o bem. 

Quando Su, engenheira do Feed de Notícias, foi indagada se acreditava que a conclusão da pesquisa de que o uso maior do Facebook tinha relação com a violência ela respondeu que não e que à medida que a rede tem mais alcance, com mais pessoas engajadas, isso aumenta o interesse. Mas que há mais oportunidade de as pessoas serem expostas a novas ideias. Richard Allan, vice-presidente e membro da Casa dos Lordes, na Inglaterra, disse que um modelo melhor pode ser “algum acordo de parceria com o governo envolvido para se estabelecer os padrões”, mesmo se esse poder não deve ser confiado a todos os governos.

Mas na sede do Facebook, as perguntas mais fundamentais continuam sem resposta: que tipo de conteúdo conduz diretamente à violência? Quando a plataforma exacerba as tensões sociais? 

Rosa Birch, que lidera uma equipe de crise interna, disse que ela e seus colegas vêm fazendo essas perguntas há anos. Estamos avançando, afirmou, mas provavelmente nunca encontrarão a resposta definitiva. / TRADUÇÃO DE TEREZINHA MARTINO

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s