Welcome!

Unlock your personalized experience.
Sign Up

STF redesenha responsabilidade de plataformas digitais: o que mudou após a decisão sobre o Marco Civil da Internet

Por 8 votos a 3, o Supremo Tribunal Federal declarou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, mudando o regime de responsabilização civil de plataformas por conteúdos de terceiros.

May 10, 2026 - 16:05
0 1
STF redesenha responsabilidade de plataformas digitais: o que mudou após a decisão sobre o Marco Civil da Internet
Unsplash
Dirhoje
Dirhoje

O que aconteceu e por que importa

O Supremo Tribunal Federal decidiu, em 26 de junho de 2025, por um placar de 8 votos a 3, que o artigo 19 do Marco Civil da Internet (Lei 12.965/2014) é parcialmente inconstitucional. Essa decisão, tomada no julgamento conjunto dos Temas 533 e 987 da repercussão geral, estabelece um novo paradigma para a responsabilidade civil de plataformas digitais no Brasil. Até então, provedores de aplicações de internet só podiam ser responsabilizados por conteúdos publicados por usuários quando houvesse ordem judicial específica para remoção do material. A partir da decisão do STF, esse cenário mudou de forma substancial.

Direito e Tecnologia
Direito e Tecnologia
Prática Jurídica Moderna
Prática Jurídica Moderna

A importância do julgamento vai além do aspecto técnico-jurídico. O artigo 19 do Marco Civil foi, durante uma década, a principal norma sobre a responsabilidade de plataformas no Brasil. Sua interpretação havia consolidado a ideia de que provedores de redes sociais, serviços de mensagens e outras aplicações de internet eram meros intermediários neutros, responsáveis apenas pelo conteúdo que criavam — não pelo que seus usuários publicavam. A decisão do STF rejeita essa visão e reconhece que as plataformas têm um papel ativo na curadoria, no algoritmo de distribuição e na moderação de conteúdos, e que essa atuação tem consequências jurídicas.

O julgamento também é relevante porque responde a uma lacuna legislativa que se arrastava há anos. O Congresso Nacional discutiu projetos de lei sobre regulação de plataformas — incluindo o PL 2630/2023, conhecido como PL das Fake News — sem conseguir aprová-los. Diante dessa inação, o STF atuaou como legislador complementar, fixando regras que passam a valer imediatamente para todo o país.

A votação e os votos divergentes

O placar de 8 a 3 revela que a maioria substantiva da Corte reconheceu a necessidade de atualizar o regime de responsabilidade. A presidente Cármen Lúcia e os ministros Luiz Edson Fachin, Luis Roberto Barroso, Dias Toffoli, Ricardo Lewandowski, Gilmar Mendes, Cristiano Zanin e André Mendonça formaram a maioria. O ministro Nunes Marques acompanhou a maioria com ressalvas sobre a extensão da mudança. Os votos vencidos foram dos ministros Kassio Nunes Marques, Fabio Medina Osório e Luiz Fux, que defenderam a manutenção do artigo 19 em sua redação original.

As divergências giram em torno de duas questões principais: primeiro, o grau de responsabilidade que deve recair sobre as plataformas; segundo, se a declaração de inconstitucionalidade deveria alcançar todo o artigo ou apenas partes dele. Essas diferenças refletem uma tensão permanente no direito digital entre a proteção à liberdade de expressão e a proteção contra conteúdos ilícitos.

Contexto: o artigo 19 e a lógica da neutralidade

O Marco Civil da Internet foi sancionado em 2014 com o objetivo declarado de estabelecer princípios, garantias, direitos e deveres para o uso da internet no Brasil. O artigo 19 foi redactado com base na premissa de que provedores de aplicações de internet funcionam como meros condutores de informação, semelhantes a empresas de telefonia. A norma estabelecia que a responsabilização civil de um provedor por conteúdo gerado por terceiros dependia de ordem judicial específica para remoção.

Essa arquitetura regulatória foi influenciada pelo modelo norte-americano da Section 230 do Communications Decency Act, que protege plataformas de responsabilização por conteúdos de terceiros. A inspiração era deliberada: o legislador brasileiro de 2014 queria estimular o desenvolvimento de serviços de internet no país, evitando que empresas fossem dissuadidas de operar no Brasil por medo de processos.

Nos dez anos seguintes, o cenário mudou de forma significativa. As plataformas deixaram de ser simples intermediários para se tornar curadores ativos de informação, com algoritmos que determinam o que milhões de usuários veem todos os dias. A arquitetura técnica dessas plataformas influencia comportamentos, amplifica conteúdos e, em alguns casos, facilita a disseminação de desinformação, discurso de ódio e incitação à violência. Esse cambio de papel não foi acompanhado pela evolução normativa — até a decisão do STF.

A inspiração internacional e a comparação com outros países

A decisão do STF não ocorre no vacío. Democracias como a Alemanha, a Austrália, o Reino Unido e a própria União Europeia já editaram normas que impõem obrigações mais rigorosas às plataformas digitais. O Digital Services Act (DSA) da União Europeia, que entrou em vigor em 2024, estabelece um regime detalhado de responsabilidade que inclui desde a remoção de conteúdo ilegal em até 24 horas até a auditoria de algoritmos de recomendação.

A Alemanha aprovou em 2017 a NetzDG, lei que impõe multas de até 50 milhões de euros para plataformas que não removam conteúdo ilegal em 24 horas após notificação. A Austrália editou normas que obrigam plataformas a notificar e remover conteúdo relativo a violência ou extremismo. Essas experiências mostram que o Brasil está se alinhando a uma tendência global, embora o faça por via judicial em vez de legislativa.

Os pontos centrais da nova tese do STF

A tese fixada pelo STF contém diversos pontos que reestruturam a responsabilidade das plataformas. Os principais são os seguintes:

Em primeiro lugar, foi declarada a inconstitucionalidade parcial do artigo 19, reconhecendo que a exigência de ordem judicial específica para remoção de conteúdo não oferece proteção suficiente a bens jurídicos constitucionais de alta relevância. A decisão não elimina completamente o artigo 19, mas limita seu alcance: ele continua válido para provedores de e-mail, mensageria privada e aplicações de reuniões por vídeo ou voz.

Em segundo lugar, a decisão cria um novo regime de responsabilidade objetiva para casos envolvendo anúncios pagos, conteúdos impulsionados e redes artificiais de distribuição — como robôs e chatbots usados para amplificar artificialmente o alcance de posts. Nesses casos, a presunção é de responsabilidade da plataforma, e ela só pode afastá-la mediante comprovação de que agiu com diligência em tempo razoável.

Em terceiro lugar, a tese estabelece que plataformas são responsáveis se não tornarem indisponíveis imediatamente conteúdos que reproduzam práticas de crimes graves, incluindo atos antidemocráticos, terrorismo, incitação ao suicídio, discurso de ódio, crimes sexuais contra vulneráveis e tráfico de pessoas. A responsabilidade nesses casos está condicionada à configuração de falha sistêmica — ou seja, não basta um conteúdo isolado para gerar responsabilização; é preciso demonstrar que a plataforma não adotou medidas adequadas de prevenção ou remoção.

Em quarto lugar, para crimes contra a honra, o artigo 19 continua aplicável na forma original, sem prejuízo da possibilidade de remoção por notificação extrajudicial. Isso mantém um regime diferenciado para esse tipo de conteúdo, reconhecendo que a liberdade de expressão tem peso maior em debates públicos do que em situações de ataque pessoal.

O conceito de falha sistêmica

Um dos elementos mais inovadores da decisão é o conceito de falha sistêmica. O STF reconheceu que a responsabilidade da plataforma não decorre automaticamente da existência de um conteúdo ilícito em sua rede — isso seria um padrão impossível de cumprir para plataformas com bilhões de publicações. Em vez disso, a responsabilização depende da demonstração de que a plataforma falhou sistematicamente em prevenir ou remover conteúdos graves, mesmo após notificação ou detecção própria.

Esse conceito é semelhante ao adotado pelo Digital Services Act europeu e busca equilibrar a impossibilidade de eliminar todo conteúdo ilegal com a realidade de que plataformas não podem moderar cada publicação manualmente. Na prática, o conceito de falha sistêmica abre espaço para debates jurídicos complexos: o que configura uma falha sistêmica? Quantos conteúdos ilícitos precisam permanecer para configurar a falha? Qual o tempo razoável de resposta?

Impactos práticos e consequências

Para as plataformas, a decisão impõe a necessidade de revisar políticas de moderação de conteúdo, investir em sistemas de detecção de conteúdo ilegal e treinar equipes de compliance. Empresas como Meta (Facebook, Instagram), Google (YouTube) e X (antigo Twitter) já operam sob regulações mais rigorosas em outros países e podem aproveitar parte de sua experiência internacional. Contudo, cada jurisdição tem particularidades: o que é considerado conteúdo ilegal na Europa pode não ter a mesma classificação no Brasil.

Para os usuários, a decisão cria um novo equilíbrio entre proteção e liberdade. De um lado, há maior esperança de que conteúdos manifestamente ilegais sejam removidos com mais rapidez, sem necessidade de passar por um processo judicial para cada caso. De outro, há risco de que plataformas, para evitar responsabilidade, adotem moderação excessiva — o chamado overblocking, em que conteúdo legítimo é removido por excesso de zelo.

Para o Judiciário, a decisão deve gerar um fluxo de novas ações. Embora a tese fixada pelo STF tenha caráter vinculante, sua aplicação a casos concretos ainda vai gerar disputas. A definição do conceito de falha sistêmica, a caracterização de redes artificiais e a interpretação de quando um conteúdo configura crime grave são questões que vão passar pelo crivo judicial.

Quem assume custos e riscos

Os custos de adaptação à nova regra serão distribuídos de forma desigual. Grandes plataformas globais têm recursos para investir em equipes de moderadores, sistemas de inteligência artificial para detecção de conteúdo e estrutura de compliance local. Startups e plataformas menores enfrentam custos proporcionalmente maiores — e algumas podem optar por sair do mercado brasileiro em vez de arcar com a adequação.

Há também um risco distributivo importante: a decisão pode beneficiar grandes players que têm recursos para compliance, ao mesmo tempo em que cria barreiras de entrada para novos competidores. Esse efeito concentrador é uma preocupação legítima, embora ainda não seja possível quantificá-lo.

Contrapontos, críticas e limites da análise

A decisão do STF não é unânime nem isenta de críticas legítimas. Um ponto de atenção é o risco de overblocking. Plataformas que buscam se proteger de responsabilidade podem adotar remoção preventiva de conteúdos que, em uma análise mais cuidadosa, seriam permitidos. Isso pode levar à supressão de vozes legítimas — especialmente de minorias cujo discurso é mais susceptível de ser confundido com discurso de ódio ou desinformação.

Outra crítica relevante é a ausência de definição clara sobre o conceito de falha sistêmica. O STF inovou ao criar esse conceito, mas não o detalhou de forma suficiente para orientar plataformas e juízes. A ausência de critérios objetivos pode gerar insegurança jurídica: plataformas não sabem exatamente o que precisam fazer para evitar a responsabilização, e juízes vão ter que construir esses critérios caso a caso.

Também é importante notar que a decisão não substitui a necessidade de legislação específica. O próprio STF reconheceu isso ao afirmar, em sua tese, que a inconstitucionalidade vigora "até que sobrevenha nova legislação". O Congresso Nacional permanece em atraso: se não aprovar uma lei sobre plataformas nos próximos anos, o regime continuará sendo definido por via judicial — o que não é o caminho ideal para políticas públicas de tamanha complexidade.

Finalmente, a decisão pode ter efeitos não-intencionais sobre a liberdade de expressão. Embora o STF tenha buscado equilibrar proteção e liberdade, na prática, plataformas sob pressão podem optar por restrições mais amplas do que as necessárias. A história mostra que regras vagas de moderação tendem a ser aplicadas de forma conservadora pelos operadores das plataformas.

Cenários e síntese

O cenário mais provável é de continuidade da adaptação gradual. Plataformas vão implementar novas políticas de moderação, casos concretos vão começar a chegar ao Judiciário e conceitos como falha sistêmica vão ser testados na prática. É provável que, nos próximos dois a três anos, o STF seja chamado a esclarecer pontos específicos da tese.

O cenário legislativo ideal seria a aprovação de uma lei sobre plataformas digitais que detalhasse obrigações, prazos e critérios de forma mais precisa do que a decisão judicial. Contudo, dado o histórico de paralisia do Congresso em temas digitais, esse cenário é o menos provável no curto prazo.

O desafio central é calibrar a responsabilidade das plataformas sem destruir o ecossistema digital que existe no Brasil. Milhões de pessoas utilizam redes sociais e serviços de mensagens todos os dias; esses serviços geram valor econômico e social significativo. A regulação precisa ser proporcional — rigorosa onde necessário para proteger direitos fundamentais, mas cautelosa para não inviabilizar serviços que a sociedade utiliza.

A decisão do STF de junho de 2025 é um marco, mas não é o ponto final. É o início de um novo ciclo de debates sobre o papel das plataformas digitais na sociedade brasileira — debates que envolvem tecnologia, direito, economia e política, e que vão acompanhar os próximos anos.

STF redesenha responsabilidade de plataformas digitais: o que mudou após a decisão sobre o Marco Civil da Internet
Unsplash

Este artigo foi elaborado com apoio de inteligência artificial generativa como ferramenta de assistência à redação. O conteúdo foi revisado e validado antes da publicação. As análises e opiniões expressas são de responsabilidade do autor e não constituem aconselhamento jurídico.

whats_your_reaction

like like 0
dislike dislike 0
love love 0
funny funny 0
wow wow 0
sad sad 0
angry angry 0
Prática Jurídica Moderna
Prática Jurídica Moderna

Comentários (0)

User
Dirhoje
Dirhoje
Dirhoje
Dirhoje