BRASÍLIA, DF (FOLHAPRESS) – A Câmara dos Deputados deve votar, nesta quarta-feira (20), um projeto de proteção a crianças e adolescentes em ambiente digital, após as denúncias do influenciador Felca sobre exploração e sexualização infantil terem ganhado repercussão em todo o país.

Na terça (19), a Câmara aprovou a tramitação em regime de urgência do texto, o que acelera sua análise e votação pelos deputados. Bolsonaristas protestaram, apontando que o texto contém o que consideram ser censura às redes sociais. O projeto já foi aprovado pelo Senado no ano passado.

A proposta tem o apoio do governo Lula (PT) e do presidente da Câmara, Hugo Motta (Republicanos-PB), mas enfrenta oposição de bolsonaristas e das big techs.

A proposta prevê, por exemplo, que as plataformas devem prevenir e mitigar riscos de acesso por crianças e adolescentes a conteúdos de exploração e abuso sexual, violência física, assédio, práticas publicitárias predatórias, entre outros.

O texto também proíbe que as empresas monetizem ou impulsionem conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva.

Além disso, o texto estipula condições para a retirada de conteúdo que viole direitos de crianças e adolescentes e lista possíveis punições às empresas.

Veja os principais pontos do projeto de lei 2.628/22, apelidado de ECA (Estatuto da Criança e do Adolescente) digital.

*

OBJETIVO DA PROPOSTA

Garantir a proteção integral, especial e prioritária de crianças e adolescentes por produtos e serviços de tecnologia, o que envolve assegurar sua privacidade, dados, segurança e saúde mental e física

OBRIGAÇÕES DAS PLATAFORMAS

– Informar a todos os usuários a faixa etária indicada para o produto ou serviço

– Ter mecanismos seguros e auditáveis para aferir a idade dos usuários, respeitando a LGPD (Lei Geral de Proteção de Dados) e que não seja autodeclaração; poder público pode regular ou promover soluções técnicas de verificação de idade

– Avaliar o conteúdo disponibilizado para crianças e adolescentes para que sejam compatíveis com a classificação indicativa

– Prevenir e mitigar riscos de acesso, exposição ou recomendação de contato de crianças e adolescentes com os seguintes conteúdos: exploração e abuso sexual, violência física, intimidação, assédio, indução a práticas que levem danos à saúde física ou mental, uso de drogas, automutilação, suicídio, promoção de jogos de azar, tabaco ou bebidas alcoólicas, práticas publicitárias predatórias, pornografia, entre outros

– Adotar medidas para impedir que crianças e adolescentes acessem conteúdos, serviços ou produtos ilegais, pornográficos ou claramente inadequados à faixa etária

– Possibilitar ferramentas de supervisão dos pais ou responsáveis

– Devem assegurar que contas de crianças e adolescentes de até 16 anos estejam vinculadas, de forma verificável, à conta ou à identificação de um de seus responsáveis

– Se houver indícios de que a conta é de criança e adolescente que não tenham a idade mínima exigida, as redes devem suspender esse usuário, assegurando uma forma de recorrer e de comprovar a idade

– Adotar como padrão configurações que evitem o uso compulsivo por crianças e adolescentes

– Oferecer funcionalidades que permitam limitar e monitorar o tempo de uso

– Disponibilizar aos usuários mecanismos para notificar violações aos direitos de crianças e adolescentes

– Comunicar às autoridades conteúdos de aparente exploração, abuso sexual, sequestro e aliciamento detectados em seus produtos ou serviços

– Manter representante legal no Brasil

PROIBIÇÕES DAS PLATAFORMAS

– Usar dados pessoais para direcionar publicidade a crianças e adolescentes

– Monetizar ou impulsionar conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva

RETIRADA DE CONTEÚDO E REGULAÇÃO DE REDES

– Plataformas devem observar “deveres de prevenção, de proteção, de informação e de segurança”

– Plataformas devem retirar conteúdo que viole direitos de crianças e adolescentes “assim que forem comunicados do caráter ofensivo da publicação, independentemente de ordem judicial”

– Conteúdos jornalísticos ou submetidos a controle editorial não estão sujeitos à regra de retirada

– Retirada de conteúdo deve indicar motivo e se a análise foi humana ou automatizada, além de haver possibilidade de recurso do usuário

– Plataformas devem identificar uso abusivo de instrumentos de denúncia para coibir censura ou perseguição

PUNIÇÕES DAS PLATAFORMAS

– Advertência com prazo de 30 dias para correção

– Multa de até 10% do faturamento do grupo econômico no Brasil ou de R$ 10 a R$ 1.000 por usuário, limitada ao total de R$ 50 milhões

– Suspensão temporária das atividades

– Proibição de exercer atividades

SUPERVISÃO DOS PAIS

Plataformas devem ter configurações e ferramentas para que os responsáveis limitem e gerenciem o tempo de uso, o conteúdo acessado e o tratamento de dados pessoais, além de poderem restringir compras e identificar perfis adultos com os quais a criança se comunica

AUTORIDADE NACIONAL

– Projeto estabelece uma entidade da administração pública para “zelar, editar regulamentos e procedimentos e fiscalizar o cumprimento” desta lei, “assegurando tratamento diferenciado e proporcional a serviços de naturezas, riscos e modelos de negócio distintos”

– Autoridade nacional pode fazer recomendações e orientações

– Autoridade nacional pode editar normas complementares para regulamentar os dispositivos, como estabelecer diretrizes e padrões para mecanismos de supervisão parental

PROTEÇÃO DE DADOS

No caso de uso por crianças e adolescentes, plataforma deverá, por padrão, operar com o grau mais elevado de proteção à privacidade e dados pessoais

PORNOGRAFIA

Plataformas que tenham conteúdo pornográfico devem impedir a criação de contas ou perfis por crianças e adolescentes

JOGOS

Prevenir o uso compulsivo, com limites de compra e mecanismos de alerta e supervisão dos responsáveis