Assinar

Quem paga pela falta de moderação de conteúdo nas plataformas?

Buscar

Quem paga pela falta de moderação de conteúdo nas plataformas?

Buscar
Publicidade
Opinião

Quem paga pela falta de moderação de conteúdo nas plataformas?

Direitos humanos e grupos minorizados são mais atingidos, mas ônus aparece para todo mundo que usa redes sociais


9 de janeiro de 2025 - 17h14

Mal começou 2025 e o corporativo norte-americano já se movimenta em direção ao novo governo de Donald Trump. A notícia mais recente são as novas diretrizes da Meta em relação à moderação de conteúdo nas suas plataformas, como o Facebook e o Instagram.

Com a decisão, as checagens de fatos, que antes eram feitas por equipes de jornalistas especializados na área, deixam de existir. Agora somos livres para nos expressar. Será?

A teoria é bonita: quem defende a decisão acredita que não precisamos de checadores de fatos e de regras que impeçam a disseminação de crimes nas plataformas. Afinal de contas, cada pessoa é responsável pelo que acredita e pelo que posta.

Mas, na prática, não é bem assim. O trabalho de qualquer moderação de conteúdo se resume em dois pontos principais: ajudar pessoas que usam a rede social a entender se os conteúdos são verdadeiros ou falsos e dar a elas meios de denunciar quando algum post infringe as regras da plataforma ou as leis do país.

Esse tipo de ação não acontece organicamente. Não é todo mundo que consegue distinguir tão facilmente o que é verdade do que é mentira — especialmente em um momento em que a tecnologia nos permite brincar cada vez mais com esses limites. É só parar para pensar: qual foi a última vez que você tirou um tempo para checar se uma informação era verdadeira?

Em um cenário sem moderação de conteúdo, todo mundo perde: todas as pessoas que usam as redes sociais (que, no Brasil, são mais de 66% da população) e também quem não usa. Só não perde, talvez, quem pretenda usar as plataformas para disseminar notícias falsas e discursos de ódio.

 

Decisão impacta direitos humanos

Mas é claro que, em um país tão desigual quanto o nosso, quando todas as pessoas perdem, perde mais quem está vulnerável social, política e economicamente. Então, perdem, principalmente, os direitos humanos e os grupos minorizados, como mulheres, pessoas não-brancas, LGBTI+, pessoas com deficiência, entre outras.

O primeiro sinal disso já apareceu. Ao alterar a sua política contra discurso de ódio, a Meta passou a permitir, por exemplo, que pessoas LGBTI+ sejam associadas a doenças mentais. Aqui, vale lembrar que, embora tardiamente, a Organização Mundial da Saúde (OMS) não considera a homossexualidade e a transexualidade como patologias desde 1990 e 2019, respectivamente.

O mundo, e o Brasil, em especial, já são lugares horríveis para pessoas LGBTI+. Por 14 anos consecutivos, o nosso país é o que mais mata pessoas trans e travestis no mundo. Retroceder em direitos à essa população é adicionar uma camada extra de violência nesse caldeirão. E os dados comprovam: o Twitter/X, que passou por uma mudança semelhante à que a Meta implementou agora, atualmente é a rede social mais perigosa para pessoas LGBTI+, segundo pesquisa da GLAAD. Desde 2022, as principais plataformas melhoraram os seus índices, já a rede do Elon Musk foi a única que piorou.

Outro ponto da decisão que impacta diretamente os direitos humanos é que a empresa também derrubou a política que proibia alegações de que determinados grupos de pessoas (definidos por raça, etnia ou gênero) espalhavam o coronavírus. Lembra de quando os chineses passaram por uma onda de xenofobia e racismo na época da pandemia? Pois é.

E essa é só a ponta do iceberg. As medidas anunciadas pela Meta ainda permitem publicações que defendem a limitação de gênero em determinadas profissões e limitações relacionadas à orientação sexual quando o conteúdo for baseado em crenças religiosas.

Navegação piorada para todo mundo

Mas ainda que você não faça parte de nenhum grupo minorizado, e não se identifique de nenhuma forma como uma pessoa aliada que preza por uma sociedade mais inclusiva e respeitosa, o ônus desse tipo de decisão também recai sobre você. Porque a partir do momento em que não temos mais uma equipe especializada nos ajudando a navegar na infinidade de conteúdo (falsos e verdadeiros) existente nas plataformas, a chance de sermos enganados é muito grande.

A moderação de conteúdo, quando existe, é feita por uma equipe de jornalistas especializados na checagem de fatos, além de agências parceiras. A partir do trabalho dessas pessoas, se define, por exemplo, o que será destacado e recomendado ao público (ou seja, o que vai chegar à sua timeline ainda que você não siga aquele tipo de conteúdo ou página) e o que será excluído ou terá um menor alcance.
É esse tipo de trabalho, por exemplo, que impede que você abra a sua rede social e se depare com conteúdos de pedofilia, estupro e uma série de condutas e crimes que não poderiam sequer existir, quem dirá estarem em uma rede social.

É esse tipo de trabalho que diminui as chances de alguém da sua família ler uma suposta notícia que diz que, se você tomar um shot de água sanitária por dia, você previne o Alzheimer, e acreditar nela.
Sem esse tipo de trabalho de curadoria e moderação, o que acontece, para além do aumento da discriminação e da violência contra grupos minorizados, e da avalanche de informações falsas e prejudiciais à vida de todas as pessoas, é jogar para quem usa as redes a responsabilidade de combater esse tipo de conteúdo.

Se antes tínhamos equipes de jornalistas e agências especializadas em checagem de fatos, agora cabe a mim, à você e às mesmas pessoas que ganham a vida espalhando notícias falsas e discursos de ódio criarem notas da comunidade. Se, para o Zuckerberg, os moderadores profissionais são “muito tendenciosos politicamente”, imagina todas as outras pessoas que, além de serem tendenciosas por natureza, não possuem qualquer treinamento em ética jornalística, capacitação em checagem ou responsabilidade em serem remuneradas para tal função.

No fim, estamos assumindo mais um trabalho que não é nosso, sem sequer receber por isso. E, mais uma vez, esse trabalho também recairá sobre as pessoas de grupos minorizados, as principais interessadas em combater a violência e a desinformação que as violenta e discrimina.
Ainda que horrível, a decisão da Meta está longe de ser inédita. Como vimos ao longo do último ano, algo muito parecido aconteceu com o Twitter/X. E, pois bem, já vimos as consequências disso muito rápido. Se você usa a rede desde a sua chegada no Brasil, em 2008, provavelmente consegue perceber o quão a navegação por lá piorou desde 2022. Hoje, em uma rápida passada pela timeline, a plataforma te sugere conteúdos racistas, homofóbicos, nazistas, transfóbicos e por aí vai — ainda que você não interaja com esse tipo de assunto.

O cenário não é mesmo favorável. E é improvável acreditar que as famosas “notas da comunidade” vão nos salvar. O que nos ajuda a seguir em frente é que, acima de qualquer rede social, estão as leis e, embora elas ainda sejam frágeis para muitos grupos minorizados no Brasil, temos mecanismos legais para denunciar postagens racistas, homofóbicas e transfóbicas. Então, fica aqui o meu conselho: navegue com moderação e continue denunciando!

Publicidade

Compartilhe

Veja também

  • Presta atenção!

    Numa sociedade à qual se aplica até o termo “infoxicação”, o recurso da atenção é cada vez mais escasso

  • Quem anunciará onde fake news e conteúdo tóxico correm soltos?

    Marcas e influenciadores têm agora a missão de se posicionar com mais responsabilidade e ética