SÃO PAULO, SP (FOLHAPRESS) – Às vésperas da retomada do julgamento que envolve a responsabilidade civil das redes sociais pelo STF (Supremo Tribunal Federal), duas das principais big techs, Google e Meta, divulgaram posicionamentos sobre a regra que está em debate na corte e defenderam o trabalho de moderação de conteúdo que já é realizado por elas.
Cada uma das empresas é parte nas duas diferentes ações que pautam o debate do Supremo sobre o assunto, que teve início na semana passada e terá, nesta quarta-feira (4), sua terceira sessão.
De um lado, as notas demonstram a tentativa de rebater a linha de argumentação de que nada fazem, como foi apregoado por parte dos ministros e representantes que falaram nos dois primeiros dias de sessões. Nenhuma das duas notas, porém, cita o julgamento diretamente.
De outro, sinalizam entender que o cenário sobre a mesa é o de que haverá algum tipo de alteração da regra atualmente em vigor pelo Supremo, ao mesmo tempo em que defendem a importância do modelo atual demarcado pelo artigo 19 do Marco Civil da Internet.
Isso ocorre em um momento em que não há clareza ainda de qual lado tomará o ministro Dias Toffoli, relator de uma das ações que discutem a responsabilidade civil das empresas de internet, e que adotou tom pesado contra as big techs ao longo do início de seu voto na quinta-feira passada (28).
Além disso, houve mudança de posição do governo, que deixou de defender um caminho intermediário pelo Supremo e se manifestou pela derrubada da regra atual, algo que teria um impacto maior para as empresas. Ainda que a linha de interpretação proposta pela AGU (Advocacia-Geral da União) no processo já criasse amplas exceções ao regime vigente hoje.
Os dois dias de julgamento foram marcados por comentários críticos às redes. Um dos mais vocais foi proferido pelo ministros Alexandre de Moraes, que afirmou que os ataques golpistas de 8 de janeiro de 2023 demonstraram a falência do sistema de autorregulação das plataformas.
As empresas, por sua vez, defendem a moderação de conteúdo que realizam de modo proativo e apontam dados buscando mostrar que atuam em grande escala.
A Meta diz que “não há inércia” da empresa contra conteúdos nocivos, “ao contrário do que tem se ouvido no debate público”. E aponta que removeu, de modo proativo, 2,9 milhões de conteúdos de suas plataformas durante o período eleitoral por violação de suas políticas.
Já o Google afirma que “remove, com eficiência e em larga escala, conteúdos em violação às regras de cada uma de suas plataformas” e que “são centenas de milhões de conteúdos removidos por ano pela própria empresa”.
Ainda que seja um fato que as empresas atuam para aplicar suas próprias regras, a falta de transparência sobre o funcionamento das diferentes plataformas é apontada como um obstáculo para compreensão do quão significativos são os números apresentados por elas em seus diferentes relatórios.
Segundo o artigo 19 do Marco Civil, tratados por Toffoli como uma “imunidade” para as plataformas, elas só estão sujeitas a pagar indenização por algo postado por terceiros se, após uma decisão judicial ordenando a retirada, mantiverem o conteúdo no ar.
O posicionamento do Google critica uma posição mais extrema, dizendo que “abolir regras que separam a responsabilidade civil das plataformas e dos usuários não contribuirá para o fim da circulação de conteúdos indesejados na internet”.
Ao mesmo tempo, diz que o Marco Civil “pode e deve ser aprimorado, desde que se estabeleçam garantias procedimentais e critérios que evitem insegurança jurídica e o incentivo à censura”.
Já a nota da Meta defende a importância do Marco Civil, ao mesmo tempo em que admite que “o debate sobre atualização das regras da internet é importante, inclusive quanto ao artigo 19”.
A regra em vigor teria como intuito proteger a liberdade de expressão e evitar a censura, na medida que não incentivaria as empresas a removerem conteúdos por receio de serem processadas. Ela não impede, por outro lado, que as plataformas apliquem suas próprias regras para removerem conteúdos. Tampouco, porém, criam estímulos para que atuem.
Enquanto uma decisão afirmando que o artigo 19 é constitucional manteria o cenário como está, a declaração de sua inconstitucionalidade o derrubaria, levando o Brasil ao cenário pré-2014. Uma linha intermediária seria a “interpretação conforme a Constituição”, em que o artigo é mantido, mas ganha nova interpretação pelo Supremo.
Da parte das empresas, uma das principais preocupações, como deixaram claro os advogados que fizeram as sustentações orais em nome do Google e Facebook, é restringir a amplitude de eventual caminho intermediário.
Atualmente o regime do Marco Civil da Internet já possui mecanismos de exceção, no caso, para violação a direitos autorais e conteúdo de nudez não consentida. Um caminho intermediário pelo Supremo prevendo a ampliação deste rol seria para as big techs um caminho defendido como de menor insegurança jurídica.
Ambos defenderam a constitucionalidade do artigo 19. Apontaram, porém, em linhas gerais, que eventual caminho intermediário deveria prever a necessidade de notificação para que as empresas pudessem ser responsabilizadas.
E defenderam ainda rol temático mais restritivo, prevendo crimes como exploração sexual infantil, terrorismo, racismo, e os crimes de abolição violenta do Estado democrático de Direito e de golpe de Estado.
Conceitos vistos como mais abertos como desinformação e crimes contra a honra, por outro lado, são vistos como sinais vermelhos.
O TikTok, por sua vez, organizou um evento em conjunto com o Instituto Vero nesta terça (3) em Brasília sobre segurança digital de menores de idade. Segundo a reportagem apurou, entretanto, a informação é que a data não tem relação com o julgamento. A questão envolvendo crianças nas redes é um dos aspectos mobilizados no julgamento no Supremo.
LEIA O POSICIONAMENTO DO GOOGLE
“Abolir regras que separam a responsabilidade civil das plataformas e dos usuários não contribuirá para o fim da circulação de conteúdos indesejados na internet. O Marco Civil da Internet pode e deve ser aprimorado, desde que se estabeleçam garantias procedimentais e critérios que evitem insegurança jurídica e o incentivo à censura.
O Google remove, com eficiência e em larga escala, conteúdos em violação às regras de cada uma de suas plataformas. São centenas de milhões de conteúdos removidos por ano pela própria empresa, em linha com as regras públicas de cada produto.
Entretanto, boas práticas de moderação de conteúdo por empresas privadas são incapazes de lidar com todos os conteúdos controversos, na variedade e complexidade com que eles se apresentam na internet, refletindo a complexidade da própria sociedade. A atuação judicial nesses casos é um dos pontos mais importantes do Marco Civil da Internet, que reconhece a atribuição do Poder Judiciário para atuar nessas situações e traçar a fronteira entre discursos ilícitos e críticas legítimas.”
LEIA O POSICIONAMENTO DA META
“Como os números abaixo sobre moderação de conteúdo atestam, não há inércia da Meta para detectar e agir sobre conteúdos nocivos, ao contrário do que tem se ouvido no debate público. Além disso, nosso modelo de negócios não prospera em um ambiente online tóxico: os anunciantes não querem ver suas marcas vinculadas a conteúdos nocivos. (…)
O trabalho para garantir a integridade das nossas plataformas é permanente. No período eleitoral entre agosto e outubro deste ano, removemos mais de 2,9 milhões de conteúdos no Facebook, Instagram e Threads no Brasil por violação de nossas políticas de bullying e assédio, discurso de ódio e violência e incitação. (…)
O debate sobre atualização das regras da internet é importante, inclusive quanto ao artigo 19 do Marco Civil da Internet. A regra estabelece um sistema de responsabilização dos provedores de aplicação sobre conteúdos postados por terceiros privilegiando a liberdade de expressão, ao mesmo tempo permitindo que as plataformas moderem os conteúdos postados nelas. (…)”