Publicidade

STF decide que Big Techs passarão a ser punidas por conteúdo de suas redes

Por  | 

Compartilhe:
Aman Pal/Unsplash
Aman Pal/Unsplash

O Supremo Tribunal Federal (STF) publicou nesta quarta-feira (05) o acórdão de 1.323 páginas que redefine a interpretação do Marco Civil da Internet (MCI), marcando uma mudança significativa na responsabilidade das plataformas digitais no Brasil. 

O documento, divulgado 132 dias após o julgamento finalizado em junho, determina que redes sociais e serviços de mensagem devem remover imediatamente conteúdos considerados ilícitos — incluindo publicações classificadas como “condutas antidemocráticas” —, mesmo sem uma ordem judicial prévia.

A nova interpretação considera parcialmente inconstitucional o Artigo 19 do Marco Civil, que até então blindava as plataformas de responsabilização civil. Pela regra anterior, provedores de aplicativos só poderiam ser punidos após o descumprimento de uma ordem judicial específica de remoção.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Com a decisão da Corte, provedores podem ser responsabilizados civilmente caso não tornem indisponíveis publicações que se enquadrem como:

  • Incitação à discriminação;
  • Terrorismo;
  • Pornografia infantil;
  • Tráfico de pessoas;
  • Violência contra a mulher;
  • Atos antidemocráticos: estes últimos previstos no Código Penal (artigos 286 e 359-L a 359-R), que foram incluídos após os ataques de 8 de janeiro de 2023.
    A decisão foi aprovada por oito votos a três.

Votaram a favor os ministros Alexandre de Moraes, Luís Roberto Barroso, Gilmar Mendes, Cármen Lúcia, Flávio Dino, Cristiano Zanin, Luiz Fux e Dias Toffoli. Os ministros Nunes Marques, André Mendonça e Edson Fachin foram contrários.

Punições para plataformas

Um dos pontos centrais do acórdão é a introdução do conceito de "falha sistêmica". Segundo a Corte, plataformas podem ser punidas com multas e indenizações caso não adotem mecanismos eficazes para prevenir a circulação de conteúdos ilícitos, mesmo que não haja uma denúncia individualizada ou um usuário identificado.

As punições deverão ser pagas pelo representante legal da empresa no Brasil, mas a decisão só se aplica a casos futuros, não afetando processos judiciais que já estão em andamento.

Caso uma plataforma remova conteúdo de forma indevida e a Justiça determine sua restauração, ela não será obrigada a pagar indenização, apenas a reinserir a publicação.

O documento também estabelece diretrizes para períodos eleitorais: plataformas que atuarem em casos envolvendo conteúdo político deverão seguir rigorosamente a legislação vigente e as resoluções do Tribunal Superior Eleitoral (TSE).

Continua após a publicidade

Apesar de discussões sobre a criação de um órgão regulador externo, o STF optou por manter a autorregulação das plataformas. No entanto, essa autorregulação agora deve vir acompanhada da exigência de regras claras de notificação, garantia de defesa ao usuário e relatórios de transparência detalhados.

Próximos passos

A decisão do STF ocorre em meio a investigações internacionais, como a do Escritório Comercial dos Estados Unidos (USTR), que avalia se o Brasil está prejudicando empresas americanas ao ampliar as exigências de moderação. O governo norte-americano já apontou risco de interferência política e impacto nas operações de companhias estrangeiras no país.

No mercado nacional, a notícia divide opiniões. Entidades como a Coalizão Direitos na Rede manifestam preocupação com o risco de remoções preventivas e o impacto na liberdade de expressão. Por outro lado, instituições favoráveis defendem que a medida é uma resposta necessária para proteger a democracia contra discursos golpistas e campanhas de desinformação organizada.

Continua após a publicidade

Com a publicação do acórdão, as Big Techs deverão revisar urgentemente suas políticas internas, reforçar times de moderação e ajustar seus sistemas de detecção de conteúdos ilegais no Brasil. 

O tema também ganhará fôlego no Congresso Nacional, onde projetos sobre regulação de plataformas, inteligência artificial e combate à desinformação seguem em discussão.

Leia mais: