SÃO PAULO, SP (FOLHAPRESS) – A resposta da Meta ao governo Lula (PT) incluiu apenas uma nova categoria no rol de temas em que afirma que seguirá usando sistemas automatizados para detectar eventuais violações de suas próprias regras, um dos tantos tópicos do recente anúncio da empresa sobre mudanças em suas políticas de moderação de conteúdo.
Além de “terrorismo, exploração sexual infantil, drogas, fraudes e golpes”, citados em comunicado anterior da empresa como de “alta gravidade”, o único tema adicionado à lista foi conteúdo com incentivo a suicídio e automutilação.
A empresa, entretanto, até agora não divulgou nem deu mais informações sobre o que considerará como violações de “baixa gravidade” que, com isso, dependerão de denúncia para passar por moderação.
Temas como desinformação eleitoral e sobre vacinas, discurso de ódio, bullying e assédio; restrições sobre armas e incitação a violência são alguns dos que podem acabar ficando de fora desse monitoramento automatizado.
Questionada pela reportagem, quanto a quais dessas categorias, de fato, deixarão de ter detecção automatizada, a Meta disse que não iria comentar.
Enquanto a política sobre cada tema define o que é permitido ou não na plataforma, a forma como essa moderação é feita -se proativamente ou após denúncia- dá o tom do quanto será removido.
Especialistas consultadas pela reportagem apontam que a decisão é tanto uma inflexão na atuação da empresa, que vinha investindo intensamente em automatização, quanto um problema, frente ao volume de conteúdo que é postado nas plataformas da Meta (Facebook, Instagram e Threads) a todo o tempo.
Questionam ainda o quanto a empresa terá pessoal suficiente para análise das denúncias sem automatização.
No último dia 7, o fundador da empresa, Mark Zuckerberg, divulgou vídeo anunciando mudanças em políticas de moderação de conteúdo, no que foi visto como um aceno ao presidente eleito dos EUA, Donald Trump. A decisão incluiu o fim do programa de checagem de fatos.
Posteriormente, Zuckerberg anunciou ainda que fará cortes no quadro de funcionários.
A divulgação do tamanho das equipes de moderação para cada língua, que inclui atuação terceirizada, é um assunto ao qual a empresa não dá transparência.
Um tema que a empresa aponta já com mais clareza que não deve mais contar com detecção automatizada é o de discurso de ódio. Ao mudar essas regras, a Meta passou a permitir, por exemplo, que usuários associem transexualidade e homossexualidade a doenças mentais.
Em relatório divulgado pela Meta sobre sua atuação no Brasil no período eleitoral de 2024, ela diz que removeu mais de 2,9 milhões de conteúdos que violaram suas políticas de bullying e assédio, discurso de ódio e violência e incitação.
Divulgou ainda que, no caso de bullying, mais de 95% deles foram identificados pela própria empresa e removidos antes de qualquer denúncia. Nos demais, esse percentual ficou acima de 99%.
A empresa não especifica se chegou a remover conteúdo com base em sua política de desinformação eleitoral. Outros 8,2 milhões de conteúdos foram marcados com rótulo de informação falsa com base em checagens de fatos feitas com parceiros.
Andressa Michelotti, que é doutoranda pela UFMG (Universidade Federal de Minas Gerais) e membro do Governing the Digital Society na Universidade de Utrecht, na Holanda, destaca que a mudança transfere ao usuário o ônus de identificar o que é uma possível violação.
Para ela, que já atuou no setor de tecnologia, uma questão importante é como essa abordagem pode afetar a circulação de conteúdos em mercados que não são de língua inglesa. “Eles vão adotar revisão manual para todos os idiomas? Historicamente não [adotavam]. Ficam muitas questões no ar”, diz.
Andressa questiona ainda o que seria considerado terrorismo no caso do Brasil e destaca que, da forma como foi divulgada pela empresa, ficou em aberto, por exemplo, se grupos neonazistas seriam ou não mantidos entre as violações com detecção automatizada.
Em sua resposta à AGU (Advocacia-Geral da União) apresentada na segunda-feira (13), a Meta menciona apenas terrorismo, tópico que faz parte de sua política sobre “organizações e indivíduos perigosos”, e que inclui outras vertentes, como, “ideologias de ódio”, onde inclui nazismo, supremacia branca e nacionalismo branco.
Clarice Tavares, coordenadora de pesquisa no InternetLab, avalia que, apesar de automatização da moderação de fato incorrer em erros por não conseguir entender um contexto completo, a opção por retirá-la de uso para parte das políticas não é o caminho adequado.
Para ela é preciso pensar em como melhorá-la e ao mesmo tempo investir em sistemas de revisão humana robustos.
“Não ter essa detecção proativa por ferramentas automatizadas é realmente um desafio”, diz, “Estamos falando de milhões e milhões de conteúdos, de muitos idiomas.”
Fontes ouvidas pela reportagem sob reserva e que já atuaram na plataforma destacam que, além da falta de transparência para o público externo sobre a dimensão das mudanças anunciadas, é possível que as próprias equipes da empresa não tenham isso ainda bem definido, considerando que não há sinal de que o tema tenha passado por construção interna antes de ser anunciado.
ENTENDA AS REGRAS SOBRE MODERAÇÃO NAS PLATAFORMAS DA META
**Políticas de conteúdo da Meta**
Define o que é permitido ou não na plataforma sobre cada tema
**Processo de moderação**
Até então a Meta diz que usava sistemas automatizados para rastrear violações de todas as políticas, fazendo moderação proativa
**O que muda**
A empresa passará a concentrar o uso desses sistemas apenas para detectar violações de “alta gravidade”. Violações de “baixa gravidade” dependerão de denúncia de usuários
**O que ainda será automatizado**
Até o momento, a Meta divulgou que terrorismo, exploração sexual infantil, drogas, fraudes e golpes, além de incentivo a suicídio e automutilação, estão no rol de violações graves
**O que dependerá de denúncia**
A Meta ainda não divulgou o que considera como de “baixa gravidade”