COMISSÃO PASTORAL DA TERRA

 

 

Global Witness fez dez propagandas com desinformação sobre o pleito para testar o sistema de moderação de conteúdo. Apenas um anúncio foi inicialmente rejeitado, mas seis dias depois, liberado

Texto: Marlen Couto - Rio de Janeiro/O Globo
Foto: Fernando Frazão/ABr

A Meta não agiu para barrar a publicação de dez anúncios no Facebook com mensagens falsas sobre as eleições brasileiras criados pela organização internacional Global Witness como forma de testar os esforços da plataforma para proteger a integridade do pleito. Um relatório com o resultado da investigação foi divulgado nesta segunda-feira (15).

As postagens violam as políticas da plataforma, o que deveria impedir a veiculação de anúncios. Em suas regras, Facebook e Instagram informam que proíbem e removem conteúdos que desestimulam o voto ou interferem na votação, como informações incorretas sobre a data da eleição ou número dos candidatos e que essas postagens também não podem ser patrocinadas.

Entre as peças publicitárias com aval para entrar no ar, no entanto, estavam mensagens que disseminavam que o voto se tornou voluntário para eleitores entre 18 e 70 anos, mudanças na data do pleito para eleitores de São Paulo e povos indígenas, mensagens falsas com afirmações de que não há necessidade de levar documento de identificação no dia da votação e ataques às urnas eletrônicas.

“Exigimos uma auditoria: as máquinas que usamos para votar são manipuladas pelo TSE, é por isso que não permitem uma auditoria independente. Não faz sentido votar”, dizia uma das publicações liberadas pelo Facebook. “O dia da eleição está mudando: As pessoas de São Paulo agora devem votar no dia 3 de outubro”, afirmava outra.

Mentiras liberadas

Os anúncios são revisados pela plataforma com um sistema automatizado e curadoria humana, antes de serem lançados. Cabe aos anunciantes indicar casos de publicações sobre política, eleições e temas sociais, que são classificados como sensíveis e ficam armazenados por mais tempo na biblioteca pública da Meta. A plataforma também avalia se essa classificação foi feita corretamente. No caso das postagens patrocinadas pela Global Witness, que não foram indicadas como conteúdos sensíveis, apenas um dos anúncios inicialmente foi rejeitado de acordo com a política sobre temas sociais, eleições ou política do Facebook, mas seis dias depois a peça foi aprovada.

A conta usada para as postagens não foi verificada e não havia indicação de quem pagou pelo anúncio. A Meta diz exigir o número do CPF durante a confirmação de identidade para anúncios políticos. Além disso, as publicações foram feitas fora do Brasil, no Reino Unido e no Quênia. A Global Witness não usou ferramentas para mascarar a localização da conta. Não foi usado também um meio de pagamento brasileiro.

A Global Witness informou que decidiu submeter a desinformação eleitoral na forma de anúncios porque a medida permite removê-los antes de serem publicados. Além disso, a organização destaca que o Facebook costuma elogiar seu próprio sistema de avaliação dizendo que aplica políticas “ainda mais severas” aos anunciantes. A ONG fez testes semelhantes em Mianmar, Etiópia e Quênia, que mostraram, nesses casos, incapacidade do Facebook de detectar discursos de ódio.

O GLOBO mostrou na semana passada que pré-candidatos a cargos Legislativos já têm publicado anúncios no Facebook e Instagram com alegações falsas de fraude e desinformação sobre as urnas. Um levantamento, feito a pedido do GLOBO, pelo NetLab, laboratório vinculado à Escola de Comunicação da UFRJ, identificou ao menos 21 casos divulgados no mês passado. No caso dos ataques às urnas, há brechas nas regras da plataforma. Isso porque não estão entre os itens explicitamente barrados. A única forma de uma mensagem com esse teor não ser impulsionada é se reproduzir um conteúdo desmentido por checadores de fatos independentes parceiros da empresa.

Moderação falha

Consultor da Global Witness e responsável pela investigação, Jon Lloyd alerta para a gravidade do contexto eleitoral brasileiro. A organização defende que a Meta aumente urgentemente seus recursos de moderação de conteúdo e fortaleça imediatamente seu processo de verificação de contas de anúncios.

— Decisões das maiores empresas de tecnologia do mundo tiveram um grande impacto antes e depois de eleições importantes no mundo inteiro. Sabemos que este ano a eleição no Brasil tem alto risco. A campanha já é marcada por relatos de desinformação. Bolsonaro está semeando dúvidas sobre a legitimidade do resultado e criando temores de uma tentativa de golpe, como a que ocorreu nos Estados Unidos em 6 de janeiro de 2020 — pontua Lloyd.

Em nota, a Meta informou que não pode comentar as conclusões do relatório porque não teve acesso ao documento e ressaltou que se prepara extensivamente para as eleições de 2022 no Brasil.

"Lançamos ferramentas que promovem informações confiáveis por meio de rótulos em posts sobre eleições, estabelecemos um canal direto para o Tribunal Superior Eleitoral nos enviar conteúdo potencialmente problemático para revisão e seguimos colaborando com autoridades e pesquisadores brasileiros. Nossos esforços na última eleição do Brasil resultaram na remoção de 140 mil conteúdos no Facebook e no Instagram por violarem nossas políticas de interferência eleitoral. Também rejeitamos 250 mil submissões de anúncios políticos não autorizados. Estamos comprometidos em proteger a integridade das eleições no Brasil e no mundo”, declarou.