Notamos que você possui
um ad-blocker ativo!

Para acessar todo o conteúdo dessa página (imagens, infográficos, tabelas), por favor, sugerimos que desabilite o recurso.

Editorial

Efeitos colaterais do julgamento do STF sobre o Marco Civil da Internet

O agravamento dos impactos sociais do uso das novas tecnologias — especialmente no que se refere ao discurso de ódio — tornou necessário revisar o modelo

Ajustar texto A+A-

Efeitos colaterais do julgamento do STF sobre o Marco Civil da Internet
Os provedores também poderão ser responsabilizados por não promoverem a indisponibilização imediata de conteúdos relacionados a crimes graves (Crédito: divulgação)

Por Rony Vainzof *

O Supremo Tribunal Federal (STF) reconheceu, por maioria, a inconstitucionalidade do art. 19 do Marco Civil da Internet, que condiciona a responsabilidade civil sobre remoção de conteúdo em provedores de aplicações, como redes sociais, ao descumprimento de ordem judicial específica para tanto. 

O fundamento central do tribunal foi que tal exigência para originar a responsabilidade civil das plataformas, como regra, não oferece proteção suficiente aos direitos fundamentais e à democracia.

Embora a decisão, de fato, fortaleça o importante combate a crimes como racismo e terrorismo, por exemplo, ela também trará efeitos preocupantes à liberdade de expressão, ao empreendedorismo e à atração de soluções digitais ao Brasil. 

Para entender o motivo disso, é preciso voltar aos “primórdios” do desenvolvimento de serviços na Internet.

Nos anos 1990, com a ascensão comercial da web, dois documentos balizaram a regulação dos intermediários por circulação de conteúdo na rede, nos EUA: a Declaração de Independência do Ciberespaço, de John Perry Barlow, e a Seção 230 do Communications Decency Act (CDA), de 1996. Eles influenciaram modelos como o Marco Civil da Internet do Brasil, de 2014, que isentavam parcialmente as aplicações de responsabilidade por atos de terceiros. Essa regra foi crucial para a dinâmica vibrante dos serviços digitais existentes.

No entanto, o agravamento dos impactos sociais do uso das novas tecnologias - especialmente no que se refere ao discurso de ódio -, tornou necessário revisar o modelo. Isso se acentuou com a transformação das grandes redes sociais em infraestruturas públicas de comunicação. Não há dúvida que é preciso exigir, dessas plataformas, absoluta transparência nos critérios de moderação de conteúdo e comportamento, já que essas decisões moldam a atual esfera pública de pensamento. 

Nos Estados Unidos, em meio à escalada dessa gravidade, em 2023, a Suprema Corte analisou dois casos que questionavam a Seção 230 do CDA. Neles, familiares de vítimas de atentados terroristas no país processavam o YouTube, do Google, e o Twitter (hoje X), por suposta contribuição à radicalização online por meio de algoritmos de recomendação. A Corte decidiu que a mera presença de conteúdo ilícito não configurava responsabilidade das plataformas, porque não se comprovava a intenção consciente de colaborar com os crimes por parte dos algoritmos.

Mesmo na União Europeia (EU), com tradição regulatória mais rígida, o Digital Services Act (DSA) impõe obrigações mais severas apenas para plataformas com mais de 45 milhões de usuários mensais. A NetzDG, da Alemanha, por exemplo, aplica-se apenas a plataformas com mais de 2 milhões de usuários registrados no país, exigindo a remoção para determinado rol de crimes objetivos. Ela não se aplica caso a caso, mas sim se as plataformas não cumprirem repetidamente suas obrigações de remoção ou se falharem em estabelecer procedimentos eficazes para lidar com reclamações.

Já na decisão do STF, a responsabilidade civil será caso a caso, a partir do não atendimento de notificação extrajudicial para quaisquer crimes ou atos ilícitos, com exceção de crimes contra a honra, e é aplicável tanto a grandes plataformas (big techs) quanto a pequenas e médias empresas que ofereçam serviços online. Ainda, embora fundamente que não há responsabilidade objetiva, a decisão presume responsabilidade em casos de anúncios, impulsionamentos pagos e rede artificial de distribuição. Para marketplaces, aplica-se o Código de Defesa do Consumidor. Tais premissas geram dúvidas sobre o real regime de responsabilidade. 

Os provedores também poderão ser responsabilizados por não promoverem a indisponibilização imediata (dever de cuidado) de conteúdos relacionados a crimes graves, listados, taxativamente, como atos antidemocráticos. Nesses casos, a existência isolada de conteúdo ilícito não é suficiente para ensejar responsabilidade - ela ocorreria apenas em casos de falha sistêmica. Esse dever de cuidado, sem regulador, pode se revelar inócuo ou contraproducente. 

Tudo isso pode gerar uma perigosa insegurança jurídica, estimulando a remoção indiscriminada de conteúdos por receio de responsabilização, fomentando uma indústria de indenizações, desestimulando o empreendedorismo digital e restringindo a oferta de serviços globais no Brasil.

Considerando que os casos de origem que motivaram a repercussão geral envolviam conteúdos ilícitos em redes sociais (Facebook e o extinto Orkut), a decisão poderia ter se limitado à chamada responsabilidade subjetiva qualificada. Bastaria ampliar as exceções já previstas no Marco Civil (direitos autorais e pornografia não consentida) para abarcar determinados tipos penais - como racismo, terrorismo, induzimento ao suicídio e violência contra a mulher -, além de aperfeiçoar os procedimentos e a transparência no devido processo informacional para grandes plataformas. 

Ou seja, o STF poderia ter atuado de maneira mais comedida, limitando a ampliar tais exceções que são menos subjetivas, permitindo a responsabilização em caso de não remoção após ciência extrajudicial, e deixando todo o restante da discussão à deliberação do Legislativo.

Tudo isso sem deixar de considerar que há acertos importantes na decisão do STF. Entre eles, a exigência de que os provedores desenvolvam mecanismos de autorregulação, com sistema de notificações, garantia do devido processo informacional, relatórios anuais de transparência sobre notificações extrajudiciais, anúncios e impulsionamentos, além de canais acessíveis de atendimento - preferencialmente eletrônicos. Também é positiva a exigência de diligência efetiva diante de conteúdos especialmente graves, como os relacionados a induzimento ao suicídio, automutilação, racismo, terrorismo, crimes contra a mulher, tráfico de pessoas e pornografia infantil.

Ainda que o combate a conteúdos ilícitos e a proteção de direitos fundamentais sejam objetivos legítimos e necessários, a forma como essa mudança está sendo conduzida gera uma série de efeitos colaterais preocupantes, com um regime de responsabilidade severo e de efeitos incertos para o ecossistema digital brasileiro.

* Rony Vainzof é consultor em Proteção de Dados da Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FecomercioSP) e sócio do VLK Advogados.

Artigo originalmente publicado no jornal O Estado de S.Paulo em 24 de julho de 2025.

Inscreva-se para receber a newsletter e conteúdos relacionados

* Veja como nós tratamos os seus dados pessoais em nosso Aviso Externo de Privacidade.
Fechar (X)