O Supremo Tribunal Federal (STF) publicou o acórdão de um julgamento crucial que altera o regime de responsabilização das plataformas digitais por conteúdos de terceiros no Brasil, com impacto significativo na moderação de conteúdo e na discussão sobre a liberdade de expressão.
A decisão, tomada por maioria de 8 votos a 3, considerou o Artigo 19 do Marco Civil da Internet (MCI) parcialmente inconstitucional, que antes exigia ordem judicial prévia e específica para a responsabilização das plataformas por conteúdos ilícitos de usuários.
⚖️ Principais Mudanças e Impactos
- Ampliação da Responsabilidade das Plataformas: As plataformas passam a ser civilmente responsáveis quando não promoverem a indisponibilização imediata de conteúdos que configurem a prática de crimes graves ou atos ilícitos, mesmo sem ordem judicial prévia.
- Dever de Cuidado: As empresas deverão adotar medidas preventivas e atuar de forma diligente, transparente e cautelosa para prevenir a circulação e remover conteúdos ilícitos graves. A omissão nesse sentido pode configurar “falha sistêmica”.
- Conteúdos de Remoção Imediata (Dever de Cuidado): A tese fixada pelo STF prevê um rol de crimes graves que exigem a remoção imediata, incluindo:
- Atos antidemocráticos ou “condutas antidemocráticas” (como tentativa de golpe de Estado e abolição do Estado Democrático de Direito).
- Terrorismo.
- Racismo e Homofobia.
- Crimes contra a mulher e crianças (incluindo pornografia infantil e crimes sexuais contra vulneráveis).
- Incitação ao suicídio ou mutilação.
- Responsabilidade em Casos Específicos: A responsabilidade civil, independentemente de notificação, também se aplica a casos de:
- Anúncios e impulsionamentos pagos que propaguem ilegalidades.
- Uso de rede artificial de distribuição (bots) para conteúdo ilícito.
- Contas inautênticas/falsas.
- Crimes contra a Honra: Nesses casos (calúnia, injúria e difamação), a responsabilização das plataformas continua a exigir a ordem judicial, mantendo-se a lógica do Artigo 19 original para evitar censura.
- Autorregulação: As plataformas devem criar regras de autorregulação obrigatória, estabelecendo sistemas de notificação, devido processo e relatórios anuais de transparência.
- Comunicações Privadas: O regime de responsabilidade não se aplica a serviços de mensageria instantânea (como WhatsApp e Telegram) e e-mail, prevalecendo a proteção ao sigilo das comunicações.
💬 O Debate Crítico: Censura vs. Proteção da Democracia
A decisão do STF provocou uma intensa discussão sobre o impacto na liberdade de expressão:
- Crítica e Risco de Censura: Setores da sociedade civil e as próprias Big Techs expressaram preocupação com o risco de “censura privada difusa”. Argumenta-se que, ao dar às plataformas a responsabilidade e o poder de julgar o que é ilícito (especialmente em temas mais subjetivos como “atos antidemocráticos”), elas podem optar pela remoção excessiva (o chamado overblocking) para evitar multas, silenciando debates legítimos ou críticas.
- Defesa da Medida: Os ministros do STF argumentaram que a medida visa proteger bens jurídicos constitucionais, como a democracia e a dignidade humana, que estavam “insuficientemente resguardados” pelo antigo regime. O presidente do STF, Luís Roberto Barroso, defendeu que não há censura, mas sim o enfrentamento a um modelo de negócios que se alimenta do ódio e que a decisão é um “dever de cuidado” das plataformas. O rol de crimes graves, segundo o STF, não é aberto e visa combater ilegalidades claramente tipificadas, como terrorismo e pornografia infantil.
O acórdão está em vigor e vale até que o Congresso Nacional atualize a legislação, havendo um apelo da Corte ao Legislativo para que se dedique ao tema. Paralelamente, a investigação do Escritório Comercial da Casa Branca (USTR) dos EUA reflete a preocupação internacional sobre o potencial impacto das sanções em empresas norte-americanas, adicionando uma dimensão geopolítica ao debate regulatório.

