As plataformas de internet devem ser responsabilizadas pelo que os usuários postam? Essa pergunta permeia as discussões sobre regulação da internet desde quando, bem, sequer havia regulação.
Até agora, aqui no Brasil, o entendimento era que não. Em vigor desde 2014, o Marco Civil da Internet, em seu artigo 19, determina que as plataformas só podem ser responsabilizadas se descumprirem uma ordem judicial de remoção daquele conteúdo. A ideia era preservar a liberdade de expressão, evitando que as plataformas promovessem censura prévia.
No discurso, lindo. Corta para 2025.
Você sabe o que aconteceu: facínoras turbinados (e eleitos) por algoritmos, nazismo comendo solto, misoginia por todos os lados, crianças mortas após desafios. Do outro lado, big techs com lucros recordes bimestre a bimestre, comandadas por tech bros que não têm mais pudor de expor que estão do lado da extrema direita. Esse é o cenário.
Depois do fracasso na tentativa de emplacar o PL 2630 no Congresso (muito por culpa do lobby violento das big techs, assunto sobre o qual falei bastante aqui e aqui), restou ao STF a regulação sobre responsabilização das plataformas. E o resultado foi uma derrota acachapante para as big techs.
Em resumo, o STF decidiu pela inconstitucionalidade parcial do artigo 19, ou seja: as plataformas são parcialmente responsáveis pelo que os usuários postam. É uma colcha de retalhos de diferentes gradações e mecanismos de notificação, a depender do tipo de conteúdo.
Primeiro: as plataformas terão que responder sobre quaisquer danos que os conteúdos gerarem em casos de crimes e contas falsas. Neste caso, elas não precisam ser proativas: devem remover após serem notificadas.
Outra mudança é que as plataformas também serão responsabilizadas em casos de anúncios e impulsionamentos de conteúdos ilícitos. É um grande acerto: toca no modelo de negócios das empresas. Sabe os anúncios com golpe no Google? Pois, agora, o Google é responsável por eles de antemão. Isso acontece independentemente de notificação.
O STF também obrigou as plataformas a ter um ‘dever de cuidado’ contra conteúdos com crimes graves que circulam de maneira massiva. Com ele, as plataformas terão obrigação de atuar sistematicamente para coibir conteúdos como terrorismo, discriminação racial, misoginia e crimes sexuais. O dispositivo, que chegou a ser discutido no PL 2630, foi inspirado na lei europeia.
Se as plataformas mantiverem esse tipo de conteúdo no ar, será considerado uma “falha sistêmica”. Quer um exemplo disso acontecendo? As transmissões monetizadas que passaram todo o 8 de Janeiro em 2023 fazendo propaganda das invasões golpistas em Brasília.
Um destaque: no caso de crimes contra a honra, as plataformas não serão obrigadas a apagar as postagens – neste caso, seria preciso uma ordem judicial. Como era antes.
Assim, não basta a reclamação de alguém que se diz ofendido para que a plataforma seja obrigada a remover um post. Foi uma tentativa de preservar a liberdade de expressão, vale destacar, bem importante: aqui no Intercept, nós sabemos o quanto os crimes contra a honra podem ser instrumentos de silenciamento e censura.
Outro ponto importante que contraria o argumento dos críticos à mudança é que o STF deixou pequenos provedores, como blogs, de fora das mudanças. Elas também não se aplicam a provedores de e-mail e mensagens instantâneas.
‘A evidência empírica demonstra que a responsabilização das plataformas não resulta em uma censura generalizada’.
Mesmo assim, as empresas, como esperado, lamentaram o resultado do julgamento. A Câmara e-Net, que representa Google, Meta, TikTok e outras gigantes, disse que a votação foi um “retrocesso preocupante para o ecossistema da internet brasileira”, segundo a BBC. As big techs não se manifestaram ainda diretamente.
Há anos, as empresas têm como escudo o discurso predominante de que “quem deve decidir o que é removido e o que não é removido é a justiça e não as plataformas”, como disse o presidente do Google, Fabio Coelho, em entrevista recente. Ele ainda fez o que soou como ameaça: disse que a mudança na legislação poderia fazer a empresa reduzir sua atuação no Brasil.
A frase do executivo me pareceu um déjà vu do começo dos anos 2010, quando o Marco Civil ainda estava sendo discutido. As plataformas se opunham ao chamado mecanismo de notificação e retirada (a obrigação de remover algo após um usuário reclamar), argumentando que passariam a censurar previamente determinados conteúdos para evitar problemas legais. São os chamados “chilling effects“, ou “efeito inibidor”, que também podem ser autocensura.
Em última instância, isso “prejudicava a liberdade de expressão do usuário”, como me disse um lobista do Google na época.
Àquela altura, os tribunais brasileiros costumavam entender que após a notificação do ofendido, as plataformas deveriam avaliar e decidir como agir, e podiam ser responsabilizadas por ter agido (removido indevidamente um conteúdo) ou por não ter agido (mantido um conteúdo criminoso no ar).
Para as plataformas, reclamou o lobista, era um horror (ele foi mais comedido e usou a expressão “insegurança jurídica”, o chavão das empresas que temem regulação).
Naquela época, eu, repórter, recebi uma denúncia: uma página no Facebook estava promovendo ataques misóginos à mulheres. Eu sei e você sabe que misoginia online é mato hoje. Mas, naquele começo de 2013, não era tão ruim assim. Tanto é que virava notícia. Uma estudante tentava, havia dois meses, organizar uma campanha de denúncias para tirar a página do ar. A moderação ainda era rudimentar e conteúdos controversos eram avaliados por uma equipe interna do Facebook.
O que aconteceu ali foi o seguinte: o Facebook foi notificado e não viu problema naquele conteúdo. Tomou a decisão de manter. A liberdade de expressão venceu. A estudante (e as mulheres vítimas do “humor” da página) perderam. Dois anos depois, veio o Marco Civil para sacramentar essa postura da empresa.
Contei essa história para ilustrar: era assim que funcionava. A empresa tomava a decisão. Não havia censura prévia, assim como muito provavelmente não haverá. Em um artigo publicado na Fast Company, a pesquisadora do NetLab da UFRJ Rose Marie Santini argumenta que esse discurso dos ‘chilling effects’, ou seja, que empresas passarão a fazer censura prévia, é uma balela.
O NetLab analisou os dados de remoção de conteúdo da Alemanha, onde há desde 2017 uma lei chamada NetzDG, que determina que as plataformas bloqueiem e excluam conteúdos ilegais em até 24 horas após a denúncia.
LEIA TAMBÉM:
- Fiz as oficinas do Google e da Meta no seminário do partido do Bolsonaro. Aqui está o que aprendi
- Toda vez que alguém duvidar do mal causado pelas big techs, mostre esse dossiê
- Ofensiva das big techs contra PL das Fake News expõe lobby mais poderoso do mundo
Os dados dos relatórios de transparência das plataformas de 2018 mostram que cerca de 70% do conteúdo denunciado permaneceu online. Santini escreveu que isso mostra que as plataformas, na verdade, “resistem a remover os conteúdos denunciados pelos usuários”, ainda que a lei as obrigue.
Ao analisar relatórios de transparência de 2024 que vigoram sob a DSA, a lei que regula plataformas na União Europeia, o cenário é parecido. As empresas removem 37% dos conteúdos baseados em notificações na Europa. Santini destaca ainda outro dado relevante: 99% das remoções totais das big techs foram decisões espontâneas das empresas, com base em seus termos de uso.
“Isso sugere que as empresas possuem capacidade de avaliar e agir nesses casos e que, mesmo com regime de responsabilidade, continuam removendo somente os conteúdos que consideram pertinentes frentes a suas próprias regras e interesses. A evidência empírica demonstra que a responsabilização das plataformas não resulta em uma censura generalizada”, escreveu Santini.
É verdade que o Marco Civil foi um processo aberto de construção, levou anos em debate e contou com a ampla participação de vários setores da sociedade. Mas é verdade também que, desde muito cedo, ele abraçou docilmente a concepção de liberdade de expressão das plataformas. E envelheceu mal.
O Brasil perdeu a chance de atualizar o tema em praça pública quando Google, Meta e Telegram implodiram o PL 2630 com uma campanha massiva de desinformação e lobby. O Congresso se acovardou e engavetou a discussão. Restou ao STF fazer a regulação a portas fechadas, até que o Legislativo tome alguma atitude.
O novo regime de responsabilização brasileiro, gradativo, é diferente de outros países, ainda que inspirado em modelos já consolidados. E vai ser um longo processo de adaptação e efeitos que ainda desconhecemos. Mas, não, não vai ser o fim da internet (até porque a internet não é só big tech) e nem a ‘insegurança jurídica’ vai atrapalhar os pobres bilionários. Compramos esse discurso uma década atrás, e sabemos bem como essa história termina.
Sem anúncios. Sem patrões. Com você.
Reportagens como a que você acabou de ler só existem porque temos liberdade para ir até onde a verdade nos levar.
É isso que diferencia o Intercept Brasil de outras redações: aqui, os anúncios não têm vez, não aceitamos dinheiro de políticos nem de empresas privadas, e não restringimos nossas notícias a quem pode pagar.
Acreditamos que o jornalismo de verdade é livre para fiscalizar os poderosos e defender o interesse público. E quem nos dá essa liberdade são pessoas comuns, como você.
Nossos apoiadores contribuem, em média, com R$ 35 por mês, pois sabem que o Intercept revela segredos que a grande mídia prefere ignorar. Essa é a fórmula para um jornalismo que muda leis, reverte decisões judiciais absurdas e impacta o mundo real.
A arma dos poderosos é a mentira. A nossa arma é a investigação.
Podemos contar com o seu apoio para manter de pé o jornalismo em que você acredita?