STF responsabiliza big techs por conteúdos de suas redes
5 min readSTF publica acórdão que obriga remoção imediata de conteúdos “antidemocráticos” nas redes sociais sem ordem judicial.
Corte amplia dever das plataformas digitais no combate a crimes virtuais.
O Supremo Tribunal Federal tomou uma decisão inédita e de grande repercussão ao confirmar, em junho de 2025, que as grandes plataformas digitais, conhecidas como big techs, passam a ser responsabilizadas de forma direta pelos conteúdos ilegais publicados por seus usuários no Brasil. A medida afeta empresas como Google, Meta, TikTok e outras gigantes do setor, que agora enfrentam a exigência de remover rapidamente postagens contendo crimes graves, sob pena de sanções judiciais e indenizações. Esse entendimento foi aprovado por ampla maioria dos ministros e altera o cenário jurídico do país ao redefinir a aplicação do artigo 19 do Marco Civil da Internet, considerado parcialmente inconstitucional. Antes, as empresas só eram responsabilizadas após descumprimento de ordem judicial, mas com a nova regra, basta o recebimento de notificação extrajudicial, agilizando a remoção de conteúdos ilícitos. Essa mudança busca responder à crescente disseminação de discursos de ódio, desinformação e violações de direitos fundamentais nas redes sociais, tornando o ambiente virtual mais seguro e transparente.
Desde a implementação do Marco Civil da Internet, em 2014, as plataformas digitais vinham utilizando como escudo legal a exigência de decisão judicial prévia para qualquer responsabilização civil relacionada a conteúdos postados por terceiros. Esse sistema, segundo defensores, garantia liberdade de expressão e evitava censura indevida, mas foi colocado em xeque diante do novo entendimento do STF. O julgamento finalizou uma longa discussão sobre os limites da atuação das redes sociais e as obrigações de combate a conteúdos ilícitos, como racismo, pornografia infantil, terrorismo, incitação à violência e crimes contra mulheres e minorias. Agora, além da retirada imediata após notificação por parte da vítima ou representantes, as replicações desses conteúdos em outras páginas e perfis também devem ser removidas prontamente, mesmo sem novas ordens judiciais. Os ministros também estabeleceram que, em casos de promoção paga, impulsionamento de publicações ou uso de bots, a responsabilidade é ainda maior e independe de notificação. O entendimento possui repercussão geral e orienta todos os tribunais brasileiros, inaugurando novo paradigma na regulação do universo digital.
Os desdobramentos da decisão já movimentam o setor de tecnologia, que passou a questionar a viabilidade de monitorar e remover, em tempo real, a vasta quantidade de publicações diárias. Associações internacionais de tecnologia alertam para possível excesso de zelo das plataformas, que podem adotar remoção automática e preventiva para evitar risco jurídico, impactando negativamente a liberdade de expressão. Por outro lado, ativistas dos direitos digitais comemoram o fortalecimento das garantias fundamentais e a ampliação dos instrumentos de proteção à sociedade. A Corte deixou claro que, em casos de crimes contra a honra – como calúnia, injúria e difamação – permanece a exigência de decisão judicial, mantendo proteção contra censura prévia. Serviços de mensagens privadas, como WhatsApp e Telegram, também não entram nesse regime por contemplarem sigilo de comunicação garantido na Constituição. As plataformas deverão publicar relatórios anuais sobre as notificações recebidas e investir em mecanismos de transparência e autorregulação para dar publicidade às normas internas criadas a partir desse novo cenário, reforçando o compromisso com o combate a conteúdos ilícitos e a preservação dos direitos humanos.
STF publica acórdão que responsabiliza plataformas digitais por conteúdos ilícitos após 132 dias do julgamento
O Supremo Tribunal Federal (STF) publicou nesta quarta-feira (5) o acórdão de 1.323 páginas que altera a interpretação do artigo 19 do Marco Civil da Internet, impondo maior responsabilidade às plataformas digitais por conteúdos ilícitos. A decisão, já em vigor, determina a retirada automática de publicações classificadas como “condutas antidemocráticas” – tipificadas nos artigos 286 e 359-L a 359-R do Código Penal –, mesmo sem determinação judicial prévia.
Divulgado 132 dias após o julgamento concluído em junho (por 8 a 3), o documento cria o conceito de “falha sistêmica”: plataformas como X (ex-Twitter), Instagram, YouTube e WhatsApp serão responsabilizadas civilmente com multas e sanções se não adotarem mecanismos preventivos eficazes contra circulação massiva de conteúdos graves. Outros temas exigem remoção imediata: incitação à discriminação (raça, religião, gênero ou orientação sexual), terrorismo, pornografia infantil, tráfico de pessoas, violência contra a mulher e indução ao suicídio.
Críticos, incluindo veículos conservadores, classificam a medida como “censura preventiva” e “ato institucional”, alertando para autocensura e risco à liberdade de expressão, com interpretações elásticas do que é “antidemocrático” – como críticas a impeachments ou protestos. Já defensores, como o presidente do STF, Luís Roberto Barroso, negam censura: “Impedir pornografia infantil ou terrorismo não é censura inaceitável”.
Plataformas devem implementar autorregulação, relatórios de transparência e dever de cuidado, com responsabilização solidária em casos de omissão. Para crimes contra a honra (injúria, difamação), mantém-se a necessidade de ordem judicial. A tese vincula tribunais inferiores e pode impactar relações Brasil-EUA, com investigações americanas sobre prejuízos a big techs.
Suspensão de perfis só em casos excepcionais (falsos ou criminosos), com devido processo. A decisão reacende debates sobre regulação das redes, superando até o PL 2630 (“PL da Censura”).
Responsabilização das redes sociais avança e desafia setor digital
A decisão do STF representa um marco para a legislação digital no Brasil e projeta consequências diretas para o funcionamento das redes sociais no país, exigindo mudanças profundas nos sistemas internos de notificação, controle e transparência das big techs. A ampliação da responsabilidade civil traz novos desafios operacionais e expõe as big techs a riscos de multas, processos e maior supervisão pública, enquanto amplia o debate internacional sobre liberdade de expressão e combate a crimes virtuais. O setor privado, tanto nacional quanto internacional, reforça a necessidade de orientações mais claras sobre o alcance e aplicabilidade da decisão, destacando as dificuldades para implementação prática em um cenário de grande volume de dados. Especialistas apontam que o novo entendimento do Supremo Tribunal Federal tende a influenciar debates legislativos e ações regulatórias futuras, podendo impulsionar propostas de leis mais rigorosas sobre moderação de conteúdo, proteção de direitos e combate à desinformação no ambiente online. O Brasil, ao avançar na responsabilização das plataformas, se posiciona na vanguarda do direito digital, e as perspectivas são de contínuo tensionamento entre a proteção dos direitos fundamentais e a liberdade de expressão, à medida que se consolidam novas práticas e regras para a atuação das big techs no país.
“`
