Compartilhe

O julgamento da constitucionalidade do Marco Civil da Internet

Já parou para pensar no quanto as decisões do Supremo Tribunal Federal (STF) impactam diretamente o nosso dia a dia online? 

Recentemente, o Supremo Tribunal Federal debateu a constitucionalidade do Marco Civil da Internet, a lei 12.965/2014.

O Marco Civil da Internet também é conhecido como a “Constituição da Internet”. Uma lei que foi desenhada para equilibrar direitos e deveres de usuários, provedores e das plataformas digitais. 

Como dito, o Supremo Tribunal Federal colocou em pauta de julgamento a constitucionalidade do artigo 19 do Marco Civil da Internet, que trata da responsabilidade das plataformas por conteúdos de terceiros. 

Mas, afinal, o que o STF decidiu? Como isso afeta a forma como navegamos na internet? E, mais importante, quais caminhos o Direito Digital aponta para o futuro? 

É exatamente isso que vamos explorar neste texto! 

E, se você tem interesse em compreender ou atuar nesse cenário em transformação, a pós-graduação em Direito Digital, Dados e Inteligência Artificial do IDP é a escolha perfeita para começar!

O que diz o artigo 19 do Marco Civil da Internet?

O artigo 19 do Marco Civil determina que plataformas digitais só podem ser responsabilizadas civilmente por danos decorrentes de conteúdos de terceiros se descumprirem uma ordem judicial específica de remoção. 

É o que está no texto da lei:

Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

Esse modelo, chamado de judicial notice and takedown, tem como finalidade garantir a liberdade de expressão.

A ideia central é que as plataformas digitais só podem ser responsabilizadas por conteúdos ilícitos publicados por terceiros se houver uma ordem judicial específica determinando a remoção do conteúdo e elas não cumprirem essa decisão. 

Na prática, isso significa dizer que as plataformas não têm o dever de monitorar ou moderar previamente os conteúdos postados pelos usuários, e a decisão final sobre o que é ou não ilícito cabe exclusivamente ao Poder Judiciário.

Como ocorre na prática?

Etapa 1: Publicação do conteúdo

Um usuário publica algo em uma plataforma digital, como Facebook, Twitter ou YouTube.

Etapa 2: Identificação do possível ilícito

Outro usuário ou a vítima direta identifica que o conteúdo publicado pode ser ilícito. 

Os exemplos mais comuns são discursos de ódio, fake news, difamação ou a exposição indevida de informações pessoais.

Etapa 3: Pedido judicial

A vítima ou interessado entra com uma ação judicial, solicitando a remoção do conteúdo e, em alguns casos, a responsabilização da plataforma por danos decorrentes da publicação.

Etapa 4: Decisão judicial

O juiz analisa o pedido e decide se o conteúdo é realmente ilícito. Caso a ilicitude seja confirmada, o magistrado emite uma ordem judicial específica para a remoção do conteúdo.

Etapa 05: Cumprimento pela plataforma

Após receber a ordem judicial, a plataforma tem um prazo determinado para remover o conteúdo. Se descumprir a ordem, pode ser responsabilizada civilmente e obrigada a pagar indenizações por danos causados.

Mas o que realmente está em discussão?

O art. 19, na verdade, precisa de uma interpretação equilibrada, haja vista as discussões que dele são feitas.

De um lado, a norma jurídica evita que plataformas atuem como censores privados, preservando o direito dos usuários à livre manifestação. 

Ao mesmo tempo, a norma também pode expor vítimas a danos prolongados, como no caso de discursos de ódio ou fake news, até que o Judiciário decida sobre a remoção.

O STF, ao analisar a constitucionalidade do artigo, trouxe à tona questões cruciais:

  • Até que ponto é possível responsabilizar as plataformas? 
  • Como equilibrar liberdade de expressão e proteção de direitos fundamentais no ambiente digital?

Se você já percebeu o impacto desse debate, imagina o quanto ele se desdobra em outras áreas, como privacidade de dados, inteligência artificial e regulação de conteúdos digitais. 

No curso de pós-graduação em Direito Digital, Dados e Inteligência Artificial do IDP, essas questões são analisadas com profundidade, conectando o que acontece nos tribunais com práticas de mercado e perspectivas internacionais.

A contribuição do InternetLab como Amicus Curiae

O InternetLab, instituto de pesquisa em Direito e Tecnologia, atuou como amicus curiae no julgamento do artigo 19 do Marco Civil da Internet no STF. 

Se você não sabe, o amicus curiae, instituto do direito processual civil, pode ser traduzido como “amigo da corte”. Ele permite que entidades externas contribuam com informações técnicas, jurídicas e sociais relevantes para subsidiar as decisões judiciais.

O instituto defendeu a importância de manter o modelo atual, de judicial notice and takedown, previsto no artigo 19, porque esse sistema protege a liberdade de expressão ao exigir uma ordem judicial específica antes que conteúdos sejam removidos pelas plataformas. 

Na prática, isso significaria que empresas como Facebook e YouTube não podem simplesmente decidir o que fica ou sai do ar.

Outras empresas de tecnologia, como o Google, têm se manifestado publicamente em defesa do artigo 19, argumentando que a exigência de uma ordem judicial para remoção de conteúdos assegura a liberdade de expressão e evita censuras arbitrárias. 

Em nota recente, o Google destacou que essa proteção é essencial para garantir um ambiente democrático na internet, ao mesmo tempo em que reconheceu a necessidade de discutir melhorias no sistema, especialmente para lidar com casos urgentes de desinformação e discursos de ódio.

Mas a autorregulação das plataformas: o que deu errado?

No julgamento o Supremo também discutiu a autorregulação das plataformas digitais. 

Para o ministro Alexandre de Moraes, eventos como os ataques de 8 de janeiro de 2023 escancararam a “falência total” do modelo atual. 

Isso porque, empresas como Facebook e Twitter se escondem por trás do artigo 19 para não tomarem atitudes mais proativas em situações de desinformação e discursos de ódio.

Essa crítica feita pelo Ministro não é exclusividade do Brasil. 

Modelos internacionais, como o europeu, propõem um sistema mais dinâmico, em que notificações formais exigem uma resposta rápida das plataformas, especialmente em casos graves, como crimes contra crianças ou discursos extremistas.

Mas afinal, como está o julgamento?

O julgamento, iniciado em dezembro de 2024, ainda não foi concluído, pois o ministro André Mendonça pediu vista, adiando a decisão para depois do recesso do Judiciário, que se estende até 31 de janeiro de 2025. 

Até o momento, votaram os ministros Dias Toffoli, Luiz Fux e Luís Roberto Barroso, apresentando abordagens diferentes sobre o tema.

O ministro Toffoli, relator do Recurso Extraordinário (RE) 1.037.396, propôs a inconstitucionalidade do artigo 19, sugerindo a aplicação da sistemática do artigo 21. 

Ele defendeu um rol taxativo de conteúdos, como crimes contra o Estado democrático de direito, racismo e violência contra vulneráveis, para os quais as plataformas teriam responsabilidade civil objetiva caso não removessem o material, independentemente de notificação ou decisão judicial.

Já o relator do RE 1.057.258, Ministro Luiz Fux, defendeu que as plataformas devem excluir conteúdos ilícitos assim que tomarem ciência, sem necessidade de ordem judicial. 

O ministro destacou a gravidade de casos em que publicações ofensivas são impulsionadas, afirmando que o conhecimento da ilicitude nesses casos é presumido. 

Segundo Fux, as big techs lucram com conteúdos degradantes, e cabe a elas monitorar ativamente discursos de ódio, pedofilia e incitação à violência.

O impacto da decisão até agora

O julgamento traz implicações significativas para a governança da internet no Brasil. As posições dos ministros mostram um esforço para equilibrar a liberdade de expressão com a proteção de direitos fundamentais. 

Contudo, a necessidade de maior proatividade das plataformas e medidas que garantam segurança no ambiente digital foram amplamente destacadas.

Com o pedido de vista de André Mendonça, o desfecho do julgamento será retomado em 2025, momento em que o STF deve definir o futuro da responsabilização de provedores e os limites da moderação de conteúdos no Brasil. 

Por que isso importa para você?

Como você já percebeu, o julgamento do STF não é apenas uma questão jurídica – ele redefine o que significa usar a internet de forma segura, democrática e transparente. 

Seja você um advogado, um gestor público ou um profissional do mercado digital, entender essas transformações é essencial para atuar com eficiência e visão estratégica.

É por isso que o IDP oferece a pós-graduação em Direito Digital, Dados e Inteligência Artificial, um curso pensado para quem deseja se posicionar à frente no mercado. 

Além de aulas ao vivo, a formação conta com um corpo docente altamente qualificado, que alia experiência acadêmica e prática forense. 

Você terá acesso a debates atuais, estudos de caso e as melhores práticas globais para enfrentar os desafios do ambiente digital.

Quer ser protagonista nesse cenário em constante transformação? 

Inscreva-se no curso e venha moldar o futuro do Direito Digital com o IDP.

Referências Bibliográficas

ANGELO, Tiago. Barroso considera Marco Civil insuficiente e propõe dois modelos de responsabilização das redes. ConJur, 18 dez. 2024. Disponível em: https://www.conjur.com.br/2024-dez-17/em-nota-google-sai-em-defesa-do-marco-civil-da-internet

LEÃO, Guilherme; COSAC, André. Proteção à privacidade e proibição de prova ilícita. ConJur, 9 nov. 2023. Disponível em: https://www.conjur.com.br/2023-nov-09/leao-cosac-protecao-privacidade-proibicao-prova-ilicita.

Audiência pública no STF discute controle de constitucionalidade no Marco Civil da Internet. ConJur, 3 abr. 2023. Disponível em: https://www.conjur.com.br/2023-abr-03/direito-civil-atual-audiencia-publica-stf-controle-constitucionalidade-marco-civil-internet

OLIVEIRA, Gabriel. Neutralidade de rede e liberdade de expressão. Migalhas, 17 dez. 2024. Disponível em: https://www.migalhas.com.br/depeso/417017/neutralidade-de-rede-e-liberdade-de-expressao.

FERREIRA, Camila. Perspectiva acerca da revogação do Marco Civil da Internet com reforma. Migalhas, 3 abr. 2023. Disponível em: https://www.migalhas.com.br/depeso/405724/perspectiva-acerca-da-revogacao-do-marco-civil-da-internet-com-reforma.

Acompanhe de perto as novidades

Inscreva-se na nossa newsletter e receba todos os artigos em primeira mão!