Notamos que você possui
um ad-blocker ativo!

Para acessar todo o conteúdo dessa página (imagens, infográficos, tabelas), por favor, sugerimos que desabilite o recurso.

Economia

Cerco às Big Techs: decisão do STF impõe novo regime de moderação da internet

Medida abre caminhos para que plataformas digitais sejam responsabilizadas por conteúdos, com riscos de censura e avalanche de remoções de publicações

Ajustar texto A+A-

Cerco às Big Techs: decisão do STF impõe novo regime de moderação da internet

Em 2010, grupos secretos debatiam em redes sociais um tema proibido no Brasil: o uso medicinal da maconha. Embora fosse ilegal por aqui, os benefícios estavam consolidados no exterior, onde o uso era liberado mediante indicação médica. Aquelas conversas iniciais ampliaram o conhecimento sobre as possibilidades terapêuticas da cannabis e ajudaram a popularizar o tema.

De lá para cá, com a visibilidade dada pela imprensa e por mães de pacientes, as leis começaram a mudar — o uso medicinal foi sendo parcialmente liberado, a importação de produtos passou a ser regulamentada e algumas associações receberam autorização para cultivar a planta.

Se esses papos começassem a acontecer hoje, em julho de 2025, qualquer usuário poderia solicitar sua remoção, com respaldo de uma decisão do Supremo Tribunal Federal (STF). Os conteúdos poderiam sair do ar da noite para o dia, porque o Supremo tornou parcialmente inconstitucional o Artigo 19 do Marco Civil da Internet, que trata da responsabilidade dos provedores pelo que é publicado em suas plataformas.

Na prática, a decisão abre caminho para que as plataformas digitais sejam responsabilizadas civilmente por conteúdos publicados por terceiros, mesmo sem decisão judicial prévia. Significa também que, se um conteúdo for considerado ofensivo ou ilegal, qualquer usuário pode notificar as plataformas extrajudicialmente, com apenas um clique ou um e-mail. Se não agirem rápido para remover a publicação, elas assumem o risco e podem acabar na Justiça.

“O STF foi levado a decidir sobre o assunto por inércia do Congresso, debruçando-se sobre a matéria com os instrumentos que tem”, afirma o advogado Francisco Brito Cruz, cofundador do InternetLab. Segundo o especialista, a decisão reconfigura como empresas de internet devem lidar com o conteúdo publicado pelos seus usuários. “A medida desenha novos incentivos para tratar desse ponto, o que deve mudar o que essas empresas vão ou não deixar no ar”, explica.

O que diz o Marco Civil

Entre 2010 e 2014, entidades da sociedade civil e o Congresso Nacional discutiram a necessidade de regulamentação da internet no Brasil. O debate nasceu com o objetivo de assegurar a liberdade de expressão: era preciso resguardar o direito de acesso às informações oferecidas nas redes. Naqueles quatro anos de elaboração, muitos movimentos ganharam força por meio das redes sociais — no exterior, a Primavera Árabe, em 2012; no Brasil, as Jornadas de Junho, em 2013. Em 2014, o Congresso aprovou o Marco Civil da Internet.

Um dos tópicos dessa lei (o Artigo 21) obriga as plataformas a excluírem conteúdos privados de nudez ou sexo assim que notificadas por usuários. Não é necessário, nesses casos, uma ordem judicial para retirá-los do ar. Por outro lado, com o objetivo de evitar a censura e prezar pela liberdade de expressão, o Artigo 19 isenta as plataformas de qualquer responsabilidade por outros tipos de conteúdos publicados em suas redes, desobrigando-as de excluí-los, a não ser que exista uma notificação judicial.

Quando mensagens antidemocráticas circularam pelas redes — e inflamaram os ânimos de bolsonaristas, estimulando a invasão e a destruição do Congresso, em janeiro de 2023 —, as plataformas lavaram as mãos. Não podiam ser responsabilizadas pelo que seus usuários postavam, resguardadas pela lei. Assim, tampouco poderiam agir com relação à divulgação em massa de notícias falsas, pois seria uma afronta à liberdade de expressão. Esse vácuo de responsabilização levou o Supremo a agir.

O que muda com a decisão do STF

O STF quis interromper a propagação irresponsável de conteúdos que atentem contra a democracia, espalhem desinformação, incitem o ódio ou incentivem o suicídio, por exemplo. Por isso, a Corte julgou parcialmente inconstitucional o Artigo 19, que passou a valer apenas para casos de crimes contra a honra. Além disso, ampliou as exceções do Artigo 21.

Com a decisão, assim que notificadas por um usuário, as redes devem retirar imediatamente do ar páginas ou postagens com os seguintes conteúdos: condutas e atos antidemocráticos; crimes de terrorismo; incitação ao suicídio ou à automutilação; discriminação por raça, cor, etnia, religião, nacionalidade, homofobia ou transfobia; feminicídio; tráfico de pessoas; pornografia infantil; e crimes graves contra crianças e adolescentes.

“Na prática, o Supremo subverteu a norma. A exceção passou a ser regra”, afirma Rony Vainzof, sócio do VLK Advogados e consultor da Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FecomercioSP). Ele explica que, agora, somente os crimes contra a honra foram mantidos no Artigo 19 e podem ser configurados como exceção. Isto é, a partir do momento que um intermediário recebe uma notificação extrajudicial, com exceção de crimes contra a honra, ele passa a ser responsável civilmente se não agir de forma diligente para a sua remoção, para qualquer tipo de ato ilícito.

Falhas da decisão do STF

O Marco Civil da Internet distinguiu os atores da internet em dois grupos: provedores de conexão — empresas de telecomunicação que oferecem serviços de conexão — e provedores de aplicação, todos aqueles que oferecem conteúdo, seja informativo ou de venda, produzidos e publicados por eles mesmos ou por usuários, como é o caso das redes sociais.

Embora entre os especialistas exista um consenso acerca da necessidade de atualizar a regulamentação, todos apontam o mesmo problema com a decisão: o Supremo jogou no mesmo balaio todas as empresas com alguma vida online — sejam grandes, sejam pequenas — que estejam presentes no Brasil.

“Não existe uma distinção entre as diferentes plataformas, entre empresas de software e redes sociais, por exemplo. Os ministros deixaram o conceito genérico — provedor de aplicação —, o que pode ser muito prejudicial para vários negócios, com a possibilidade de promover uma insegurança jurídica muito grande para as organizações”, critica Andriei Gutierrez, presidente da Associação Brasileira das Empresas de Software (Abes).

“Miraram nas Big Techs, mas acertaram em uma gama enorme de empresas que serão diretamente atingidas por essa decisão”, critica Daniella Caverni, diretora da Abes. Segundo ela, essas diretrizes resultam em uma série de responsabilidades que exigem investimento também de pequenas e médias empresas que tenham aplicações rodando no mercado. “Trouxeram uma pressão técnica. E uma dúvida: o monitoramento de comentários será automatizado ou feito por humanos? Se automatizarmos e inserirmos palavras-chave, por exemplo, para a remoção de conteúdo, ao aparecer a palavra ‘corrupto’, precisará tirá-la do ar?”, questiona.  

Outros termos genéricos tornam confusas e subjetivas as novas regras estabelecidas pelo STF. Por exemplo, segundo a tese, “os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo”, em casos de impulsionamento de conteúdo. “O que é um tempo ágil? Defina ‘tempo ágil’, defina ‘diligentemente’. É muito vago, não sabemos ainda como vai funcionar na prática”, questiona Caio Mario da Silva Pereira Neto, coordenador do Núcleo de Pesquisa em Concorrência, Política Pública, Inovação e Tecnologia (Comppit) da Escola de Direito de São Paulo da Fundação Getulio Vargas (FGV Direito SP).

Num primeiro momento, os especialistas acreditam que haverá uma enxurrada de conteúdos removidos — inclusive, de forma benéfica, de conteúdos discriminatórios e violentos que, de fato, não deveriam ser veiculados. “É de se esperar que alguns conteúdos deixem de ser anunciados ou impulsionados pelo receio de responsabilização. Como isso vai funcionar, na prática, em cada plataforma, ainda não sabemos. É possível que barrem conteúdos discriminatórios, mas também que filtrem coisas legítimas, conteúdos lícitos”, pontua Pereira Neto.

Por outro lado, os autores de conteúdos banidos podem entrar na Justiça para provar a legalidade de suas postagens, o que pode sobrecarregar o Judiciário, responsável pela mudança nas regras. Embora o STF tenha pedido ao Congresso para acelerar e melhorar a regulamentação atual, ainda não houve movimentação de deputados e senadores.

“Imagino que será uma avalanche de conteúdos sendo retirados. E não acredito que o Legislativo vá comprar essa briga”, avalia Daniella, da Abes. Para ela, assim como o Supremo mandará as empresas tirarem os conteúdos, vai determinar o retorno. “Então, toma que o filho é seu: mandou tirar, agora, coloca de volta. Por ora, imagino que o Legislativo apenas assistirá de camarote”, conclui Daniella.

Matéria originalmente publicada no site da Revista Problemas Brasileiros, uma realização da Federação.

A FecomercioSP acredita que a informação aprofundada é um instrumento fundamental de qualificação do debate público sobre assuntos importantes não só para a classe empresarial, mas para toda a sociedade. É neste sentido que a entidade publica, bimestralmente, a Revista Problemas Brasileiros.

Inscreva-se para receber a newsletter e conteúdos relacionados

* Veja como nós tratamos os seus dados pessoais em nosso Aviso Externo de Privacidade.
Fechar (X)