Guilherme Serrano
Um estudo recente do Centro de Combate ao Ódio Digital (CCDH) aponta que a nova política de moderação da Meta, empresa controladora do Facebook e Instagram, pode afetar 97% das ações preventivas contra discurso de ódio e incitação à violência.
O relatório, divulgado nesta segunda-feira (24), destaca que a decisão de encerrar a checagem de fatos nos Estados Unidos e reduzir a detecção automatizada de conteúdo nocivo pode resultar no aumento da desinformação e do número de postagens prejudiciais nas plataformas.
Desde 7 de janeiro, a Meta substituiu a checagem de fatos nos EUA pelo sistema de “notas da comunidade“, inspirado no modelo do X (antigo Twitter), onde usuários corrigem informações publicadas. Além disso, os sistemas de detecção proativa da empresa agora só atuarão em casos considerados de alta gravidade ou violações legais. Questões classificadas como de menor gravidade dependerão exclusivamente de denúncias feitas pelos usuários.
Para Imran Ahmed, diretor do CCDH, as “notas da comunidade” são uma ferramenta útil, mas não podem substituir as equipes dedicadas à moderação e a detecção automatizada baseada em inteligência artificial.
“As plataformas precisam equilibrar a liberdade de expressão com a responsabilidade de conter desinformação e conteúdos perigosos”, conclui Ahmed.
O CCDH estima que, em 2023, a Meta tomou medidas proativas contra cerca de 277 milhões de postagens classificadas como prejudiciais, incluindo discurso de ódio, assédio e conteúdos violentos. Com a mudança, esse volume pode cair drasticamente, já que menos de 3% dessas ações foram motivadas por denúncias de usuários.
Além da redução na detecção de discurso de ódio, as mudanças devem flexibilizar a moderação de postagens relacionadas a bullying, assédio, ódio organizado, suicídio, automutilação e conteúdo gráfico, diz o estudo.
Segundo a Meta, a intenção é simplificar as regras e “abolir uma série de limites em questões como imigração e gênero, que não fazem mais parte do discurso dominante”.
Vale lembrar que as mudanças promovidas pela Meta contecem em um momento de flexibilização mais ampla nas políticas de moderação de redes sociais. Na última quinta-feira (20), por exemplo, Elon Musk, dono do X, anunciou que irá revisar um recurso da plataforma que permite aos usuários classificar ou rejeitar publicações potencialmente falsas.
Guilherme Serrano