Para chegar à conclusão, a organização produziu 16 anúncios no Facebook convocando pessoas para invadir prédios públicos, apontando fraudes nas eleições e até pedindo a morte de crianças cujos pais votaram no candidato eleito à presidência da República.
Por Redação, com Canaltech - de Brasília
A organização de direitos humanos Global Witness fez um teste no qual revela que a Meta aprovou anúncios incentivando violência e ataques contra a democracia no Brasil. O experimento tinha como objetivo testar se a medida da empresa, que disse que bloquearia conteúdos desse tipo no Facebook, é efetiva.
Para chegar à conclusão, a organização produziu 16 anúncios no Facebook convocando pessoas para invadir prédios públicos, apontando fraudes nas eleições e até pedindo a morte de crianças cujos pais votaram no candidato eleito à presidência da República. A rede social teria aprovado 14 deles, o que seria uma demonstração de que a medida anunciada não foi suficiente para impedir a disseminação de conteúdos violentos.
A ativista de ameaças digitais da Global Witness, Rosie Sharpe, acusa da rede social de não cumprir com a sua promessa. "Não há absolutamente nenhuma maneira de o tipo de conteúdo violento que testamos ser aprovado para publicação por uma grande empresa de mídia social como o Facebook", explicou via nota à imprensa.
Diferentemente do Facebook, o YouTube não aprovou nenhum anúncio semelhante. Além de rejeitar o impulsionando, a plataforma de vídeos ainda suspendeu as contas que tentaram disseminar a mensagem de ódio. Esta seria uma forma de mostrar que o teste pode ser detectado pelo algoritmo das mídias, desde calibrado para tal finalidade.
Tão logo os anúncios de teste foram aprovados, a organização garantiu ter apagado o conteúdo para evitar a disseminação. Mesmo assim, muitos conteúdos nem precisam se dinheiro para viralizarem, já que os próprios usuários podem impulsioná-los jogando em grupos e gerando falsas interações.
Meta teria minimizado pesquisa
Ao portal Canaltech, um porta-voz da Meta declarou que tamanho da amostra (16 anúncios) era muito pequeno para se questionar a capacidade do Facebook de barrar conteúdo nocivo:
– Conforme divulgamos anteriormente, antes das eleições brasileiras do ano passado removemos centenas de milhares de conteúdos que violavam nossas políticas de violência e incitação e rejeitamos dezenas de milhares de submissões de anúncios antes de eles rodarem. Usamos tecnologia e equipes para ajudar a manter nossas plataformas protegidas contra abusos e estamos constantemente aprimorando nossos processos para aplicar essas políticas de forma ampla – explicou.
Em seu comunicado de imprensa, a Global Witness parece sugerir que o Facebook não está levando os ataques no Brasil tão a sério quanto a plataforma social levou os ataques nos Estados Unidos no ano passado, quando a empresa implementou medidas para evitar que a agitação civil se espalhasse.
A organização internacional recomendou à plataforma e às demais empresas de mídia social que se comprometam a intensificar os esforços de moderação de conteúdo para evitar novas situações. Durante o ataque ao Capitólio, ocorrido em 2021, o Face adotou duras medidas, incluindo a suspensão da conta do ex-presidente Donald Trump por dois anos.
Infelizmente, as plataformas da Meta hoje são as principais formas de distribuição deste tipo de conteúdo no Brasil. Facebook, Instagram e WhatsApp, principalmente este último, são formas muito usadas por agitadores sociais para mobilizar as massas para agir com violência.