SÃO PAULO, SP (FOLHAPRESS) – Um relatório feito pelo Noad (Núcleo de Observação Digital), da Polícia Civil de São Paulo, aponta falhas de moderação na plataforma de jogos online Discord que, segundo a corporação, têm permitido a prática de crimes contra crianças e adolescentes no ambiente digital.

O documento foi entregue nesta terça-feira (10) ao Ministério Público estadual.

A lista mostrou problemas recorrentes durante a monitoração da polícia, como a demora na exclusão de servidores mesmo quando crimes estariam sendo cometidos ao vivo. A reportagem tentou contato com a plataforma por email, mas não obteve resposta.

O acompanhamento também identificou dificuldades na interrupção rápida de condutas ilegais e na identificação dos responsáveis. A delegada Lisandréa Salvariego Colabuono, chefe do Noad, afirmou que agora cabe à Promotoria decidir quais medidas poderão ser adotadas.

A Secretaria de Segurança Pública do governo Tarcísio de Freitas (Republicanos) disse que mantém monitoramento 24 horas por dia de ambientes digitais voltados ao público jovem. Atualmente, o núcleo acompanha mais de 1.200 perfis ou grupos e, desde o início das atividades, já contribuiu para o resgate de 359 crianças e adolescentes em situações de risco iminente.

Para Maria Mello, coordenadora de Educação Digital do Instituto Alana, o conjunto de falhas pode indicar problemas estruturais nas plataformas.

“O que temos observado, não apenas em plataformas de jogos online, mas em diversos produtos e serviços digitais acessados por crianças e adolescentes, é uma falha sistêmica de desenho e arquitetura”, afirma.

Segundo ela, a dificuldade em identificar responsáveis por conteúdos ilícitos está diretamente ligada ao modelo de funcionamento dessas plataformas.

A especialista ressalta que o Brasil já possui legislação suficiente para exigir providências das empresas. “Temos um conjunto de leis e normas de proteção infantojuvenil que já impedem a exibição e a circulação de conteúdos criminosos envolvendo crianças e adolescentes. Crime é crime, seja no ambiente online ou offline.”

Ela também menciona a entrada em vigor, em 17 de março, da lei 15.200/11, conhecida como ECA Digital, que estabelece obrigações mais detalhadas para a prevenção e o combate a violações graves nesse ambiente.

Entre os pontos previstos, destaca o artigo 27, que determina a remoção prioritária e a comunicação às autoridades de conteúdos relacionados à exploração, abuso ou aliciamento de crianças e adolescentes. A norma também prevê a retenção de dados associados a esses casos e o envio de relatórios às autoridades competentes.

O artigo 28 trata da obrigatoriedade de mecanismos de notificação de violações. Já o artigo 29 estabelece que conteúdos que violem direitos de crianças e adolescentes devem ser removidos após comunicação da vítima, de representantes legais, do Ministério Público ou de entidades de defesa, mesmo sem ordem judicial, o que busca garantir maior rapidez na retirada do material.

“As empresas já deveriam adotar essas medidas, porque estamos falando de crimes”, afirma.

Sobre o anúncio recente do Discord de uma nova política de verificação de idade, Mello considera a iniciativa insuficiente. “Não se trata apenas de impedir o acesso de crianças e adolescentes, mas de evitar que seus direitos sejam violados, inclusive com a circulação de imagens, mesmo que eles não estejam presentes na plataforma.”

Em abril do ano passado, a Polícia Civil de São Paulo abriu investigação para apurar a atuação do Discord após a exibição de cenas de violência em uma transmissão ao vivo direcionada a crianças e adolescentes.

Segundo a delegada, foi feito um pedido emergencial para que a plataforma encerrasse a transmissão e derrubasse o servidor onde o conteúdo era exibido. “Nesse caso específico, havia muita violência sendo transmitida ao vivo. Solicitamos o encerramento imediato da transmissão, mas não fomos atendidos.”

De acordo com ela, a empresa respondeu na ocasião que não considerava o pedido emergencial.