O plenário do Supremo Tribunal Federal (STF) decidiu, no último 26 de junho, que o artigo 19 do Marco Civil da Internet (MCI), trecho sobre a responsabilidade das plataformas digitais por conteúdos publicados na internet, é parcialmente inconstitucional. Até então, essas empresas – como o Google e a Meta – somente poderiam ser responsabilizadas por conteúdos de terceiros, que tomam a forma de crimes (crimes sexuais, racismo, indução ao suicídio, entre outros), após desobedecer uma ordem judicial para remover o conteúdo.
Por maioria de votos (8 contra 3), o entendimento foi de que “há um estado de omissão parcial que decorre do fato de que a regra geral do art. 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância (proteção de direitos fundamentais e da democracia)”.
A partir de agora, com a tese de repercussão geral, determinados conteúdos poderão ser retirados do ar sem decisão judicial. Bereia chama a atenção para que se rechace a desinformação de que tal decisão significa censura. Há, sim, um avanço em novas possibilidades para a construção de um cenário digital mais favorável à preservação da democracia e ao combate à desinformação, aos crimes virtuais e aos discursos de ódio. Confira:
Marco Civil da internet e o julgamento do artigo 19
O Marco Civil da Internet (MCI) sancionado como a Lei n° 12.965, de 2014, é a principal legislação brasileira no estabelecimento de direitos e deveres de usuários, empresas e Estado no uso da internet. Ele foi elaborado em um contexto de crescente preocupação com a privacidade, a liberdade de expressão e a neutralidade das redes, e se destacou internacionalmente por ser uma das primeiras legislações a garantir princípios democráticos no ambiente digital, tornando-se referência global em regulação da internet.
O julgamento da constitucionalidade do artigo 19 do MCI tem sido um dos debates jurídicos mais importantes no Brasil sobre liberdade de expressão, responsabilidade das plataformas e combate à desinformação. A lei é atualmente a principal fonte para julgamento de casos ocorridos nos espaços das mídias sociais e serviços de mensagens, uma vez que ainda não há regulamentação específica sobre as plataformas digitais no Brasil.
O modelo em vigor desde 2014 foi duramente criticado por setores da sociedade civil e por acadêmicos, os quais defendem que a exigência de ordem judicial torna o processo de remoção lento e ineficaz. Isso permite que conteúdos ofensivos ou criminosos continuem circulando por muito tempo e colaborem com a proliferação de desinformação, discursos de ódio e crimes virtuais.
A votação no STF
A votação, ocorrida em 26 de junho, decorre de casos concretos recebidos pelo colegiado, como os Recursos Extraordinários (RE) 1037396 e 1057258, contra o Facebook e o Google, respectivamente. O julgamento sobre o artigo 19 do MCI começou em 2023, tendo como relator o ministro Dias Toffoli, que entendeu ser constitucional o entendimento do texto original. O julgamento foi interrompido quando o ministro Luís Roberto Barroso pediu vistas ao processo – ou seja, solicitou mais tempo para analisar o caso – e foi retomado em junho de 2025.
No placar de votos, apenas três dos onze ministros se manifestaram a favor da constitucionalidade do artigo 19, ou seja, tomaram a posição contrária à possibilidade de responsabilização das plataformas sem a devida decisão judicial.

Reprodução: Portal Migalhas
O ministro André Mendonça foi o primeiro a se posicionar favoravelmente às empresas de tecnologia conhecidas como big techs, no voto feito no último 5 de junho. Ele afirmou que, ao seu ver, as medidas mais endurecidas podem inibir a participação cidadã nos espaços digitais e que “pelo simples fato de ser mentiroso, o discurso não deve ser censurado. Mentir é errado, mas não necessariamente é crime”
O ministro Edson Fachin também se manifestou de forma contrária à decisão do colegiado. Para ele, a regulação das plataformas precisa ser estruturada e sistêmica, e preferentemente não via Poder Judiciário. Ele entende que o remédio empregado ainda não é suficiente para enfrentar os problemas analisados nas plataformas.
Da mesma forma, o ministro Kassio Nunes Marques acompanhou o posicionamento para manter a interpretação de constitucionalidade do artigo 19 do MCI. Para ele, “o Congresso Nacional é o ambiente mais apropriado para conduzir essa discussão”.
Em posicionamento de acordo com a maioria, a ministra Carmen Lúcia sintetizou que a interpretação pela inconstitucionalidade do artigo julgado busca preservar o direito, como em casos de crimes contra a honra e contra o Estado Democrático de Direito.
Em seu voto, a ministra afirmou que o tempo tecnológico de 2014 é muito diferente do ano atual. “A lei é feita baseada na realidade para a qual ela se volta”, disse, e questionou também sobre a atuação da inteligência artificial nas próximas eleições presidenciais ao discorrer sobre os interesses econômicos e políticos das plataformas.
O que muda com a decisão?
Com a tese de repercussão geral elaborada com o término do julgamento, Bereia explica as principais mudanças que ocorrerão.
Regra geral de responsabilização civil das plataformas
AGORA | ANTES |
Provedores podem ser responsabilizados mesmo sem ordem judicial em casos de conteúdos notoriamente ilícitos. | Plataformas só eram responsabilizadas se descumprissem ordem judicial para remoção de conteúdo. |
Passam a ter dever de cuidado ativo quando o conteúdo for grave ou de alta circulação. | A responsabilidade era condicionada à inércia judicialmente comprovada. |
Aplicação do Art. 21 (responsabilidade subsidiária por notificação)
AGORA | ANTES |
Provedores passam a ser responsabilizados civilmente pelos danos causados por qualquer conteúdo ilícito de terceiros após notificação. Casos como contas falsas (inautênticas) também entram nesse regime. | Aplicado apenas em casos específicos, como nudez não consentida, mediante notificação extrajudicial. |
Crimes contra a honra
AGORA | ANTES |
Aplica-se o art. 19 do MCI, sem prejuízo da possibilidade de remoção por notificação extrajudicial. | Remoção de conteúdo mediante decisão judicial. |
Impulsionamento e anúncios pagos (incluindo robôs/chatbots)
AGORA | ANTES |
Redes sociais presumem responsabilidade direta por impulsionamento de conteúdos ilícitos (mesmo por robôs/inteligência artificial). | A responsabilidade era definida conforme o caso concreto. |
Plataformas devem agir preventivamente ou demonstrar que agiram em tempo hábil para evitar a disseminação. | Não havia exigência de ação proativa. |
Plataformas isentas da nova interpretação
Os seguintes serviços continuam seguindo a regra original do art. 19 (responsabilidade apenas após ordem judicial):
- Provedores de email
- Plataformas de videoconferência fechada
- Mensageria instantânea (como WhatsApp)
- Marketplaces (como Mercado Livre, Shopee e Amazon. Agora também respondem conforme o Código de Defesa do Consumidor)
Rol taxativo de crimes com responsabilidade imediata
Segundo o STF, as plataformas devem agir imediatamente quando se tratar dos seguintes crimes elencados, conforme o princípio do dever de cuidado inaugurado pela legislação europeia:
- Crimes contra instituições democráticas;
- Terrorismo e atos preparatórios;
- Indução ao suicídio e automutilação;
- Racismo e discriminação (raça, etnia, sexualidade, identidade de gênero);
- Violência contra a mulher;
- Crimes sexuais contra vulneráveis (como pornografia infantil);
- Tráfico de pessoas
Critérios para ausência de responsabilidade
O STF declarou que a existência de conteúdo ilícito isolado não gera automaticamente responsabilidade. A responsabilização só se aplica quando há inércia (omissão das plataformas) diante de ilícitos graves e com circulação massiva. Nestes casos, vale o regime do Art. 21 (no modelo retirada após notificação).
As plataformas também deverão cumprir deveres como autorregulação obrigatória, que deverá ser composta por:
- Sistema de notificações e canais de atendimento acessíveis e disponíveis para usuários e não usuários;
- Devido processo de moderação de conteúdo;
- Divulgação anual de relatórios de transparência (sobre anúncios, impulsionamentos e remoções de conteúdos);
- Revisão periódica e transparente das políticas de moderação.
Além disso, vale a regra que os provedores devem ter sede e representante no Brasil.
Novas regras favorecem a democracia e ajudam a combater a desinformação
Dentre os vários discursos desinformativos que perpassam as discussões sobre a responsabilização e a regulamentação das plataformas no Brasil, é comum deparar com abordagens que sugerem que essas medidas são uma forma de censura e que cerceiam a liberdade de expressão.
Bereia entrevistou especialistas que destacam a importância do julgamento em questão para o fortalecimento da democracia e o enfrentamento à desinformação. O professor pesquisador do Instituto Brasileiro de Informação em Ciência e Tecnologia (Ibict) e coordenador da Rede Nacional de Combate à Desinformação (RNCD) Marco Schneider, afirma que com a legislação anterior, não era possível dar conta do volume, da velocidade, nem do alcance da desinformação. Por isso, a atualização no entendimento do STF é importante para se adequar à realidade atual.
O pesquisador explica que o questionamento sobre as medidas serem uma forma de censura traz desafios quanto ao peso histórico vivido no Brasil, e diferencia a censura que houve no Brasil no século passado do estabelecimento de regras para os ambientes virtuais:
“Uma coisa é um governo se arvorar, como no caso da ditadura militar, no direito de estabelecer de cima para baixo o que pode ou não ser produzido no âmbito da da arte, da ciência, do jornalismo, com base em valores morais, conservadores, e com base numa blindagem da sua própria prática política.
Outra coisa é estabelecermos que nem tudo pode ser dito o tempo inteiro, e em todas as ocasiões, para todas as pessoas. Nesse segundo sentido, a noção de censura não é aplicável, pois tem a ver com a noção de escolha e a imposição de limites”, comenta.
Para o coordenador da RNCD, muitos dos que acusam a regulação de censura se colocam como defensores da liberdade de expressão, “mas me parece muitas vezes cínico e oportunista, porque são muitas vezes as mesmas pessoas que defendiam a censura da ditadura militar. “A liberdade de expressão como um valor absoluto aparece como uma panaceia, que não pode ser limitada por nada. Ela é um direito fundamental, mas se ela agride outros, ela tem que ser limitada. Isso não é censura”.
O pesquisador de direitos digitais e professor de Políticas de Comunicação na Universidade de Brasília Marcos Urupá complementa que é equivocado afirmar que a regulamentação de plataformas digitais incorre em censura. “Basta fazer uma analogia com os meios de comunicação. Rádio e televisão têm uma série de compromissos que devem ser cumpridos. Você pode questionar se eles cumprem ou não, mas tem todo um regramento aí, por exemplo, como é o caso da publicidade”. Quanto ao tema, conclui: “não se trata de censura, trata-se de garantir um ambiente digital que respeite a cidadania, os direitos humanos e, acima de tudo, o Estado Democrático de Direito”.
Urupá destaca a responsabilização das plataformas como um avanço na aplicação de freios ao poder que elas exercem. “Hoje elas são configuradas como grandes meios de comunicação e, sem critério nenhum, determinados conteúdos ofensivos, inclusive ao próprio Estado Democrático de Direito, circulam sem ressalvas, sendo que são condutas tipicamente qualificadas como criminosas. Então, sem dúvidas, há um avanço mediante ao cenário anterior”, aponta.
O papel do STF na decisão extrapola a função do Judiciário?
Diante das decisões tomadas pelo Supremo Tribunal Federal quanto aos usos e abusos das plataformas digitais, o papel do Poder Judiciário tem sido criticado por certos grupos, que julgam uma atuação excedente às competências dos ministros da Suprema Corte. No entanto, Marco Schneider reafirma que o órgão máximo do Judiciário age, nesse caso, de acordo com a previsão constitucional de assegurar o cumprimento e interpretar a legislação conforme a Constituição Federal. “Nesse caso, em particular, eles estão com a razão e agem em favor do interesse público, pois estão cobrindo com urgência uma lacuna legislativa. Quando houver uma lei aprovada no Congresso Nacional que regule o assunto, ela passará a valer”.
*****
Bereia avalia que a decisão do Supremo Tribunal Federal age de acordo com a previsão legal e é favorável ao enfrentamento da desinformação, de forma que abre novos caminhos para um cenário regulatório das plataformas e ressalta a urgência de responsabilizar as grandes empresas de tecnologia por conteúdos que causam danos reais aos cidadãos e ainda lhes rende lucros com a monetização de ilícitos.
Referências:
CNN Brasil
https://www.cnnbrasil.com.br/politica/stf-forma-tese-para-responsabilizar-big-techs-por-conteudos-de-terceiros/. Acesso em 27/06/25
Planalto (Lei Nº 12.965, de 23 de abril de 2014 – Marco Civil da Internet) https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm
Portal Migalhas
https://www.migalhas.com.br/amp/quentes/433462/com-8-votos-a-3-stf-amplia-responsabilidade-de-big-techs-por-conteudo. Acesso em: 27/06/25
Supremo Tribunal Federal – Notícias
https://noticias.stf.jus.br/postsnoticias/stf-define-parametros-para-responsabilizacao-de-plataformas-por-conteudos-de-terceiros/. Acesso em: 27/06/25
Teletime
https://teletime.com.br/26/06/2025/art-19-stf-concilia-votos-e-plataformas-terao-responsabilizacao-parcial/ . Acesso em 27/06/25