A Índia reduziu na 6ª feira (20.fev.2026) de 36 para 3 horas o prazo para plataformas digitais removerem conteúdos considerados ilegais após notificação do governo ou da Justiça. A nova regra trata de materiais gerados por inteligência artificial, como deepfakes, exigindo que áudios e vídeos sintéticos sejam claramente identificados.
A decisão acompanha uma tendência global de maior controle sobre conteúdos on-line, em meio ao aumento de deep fakes e golpes durante eleições e períodos de tensão social. No Brasil, nos EUA e na União Europeia, o tema também tem sido amplamente debatido.
Entenda o debate sobre moderação de conteúdos e responsabilidade das plataformas tem se dado nesses países.
O STF (Supremo Tribunal Federal) tornou público, em 5 de novembro de 2025, o acórdão que consolida a decisão sobre a responsabilização das plataformas digitais por conteúdos publicados por usuários. O entendimento já havia sido firmado pelo plenário em junho do mesmo ano, quando a Corte declarou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, que vigorava desde 2014. Segundo o artigo, as empresas só poderiam ser responsabilizadas se descumprissem ordem judicial específica para remover conteúdo.
A publicação do acórdão é o desfecho formal do julgamento iniciado em 2024 e concluído em 26 de junho de 2025, quando o Supremo declarou a inconstitucionalidade parcial do artigo 19 do Marco Civil. Leia a íntegra da tese (PDF – 22 kB).
Até então, esse dispositivo determinava que provedores de aplicações de internet só poderiam ser responsabilizados civilmente por conteúdos de terceiros depois de ordem judicial específica para remoção. O STF entendeu que essa exigência, aplicada de forma absoluta, não oferecia proteção suficiente a direitos constitucionalmente relevantes e à democracia.
Com isso, o tribunal estabeleceu novos parâmetros para a responsabilização das plataformas. Agora, é possível que elas respondam por conteúdo ilícito tanto depois de notificação, quanto em hipóteses específicas, sem ordem judicial, se ficar claro que ignoraram conteúdos que sabiam ser ilícitos.
O acórdão, com mais de 1.000 páginas, foi publicado no Diário da Justiça Eletrônico. Ele explica quando ainda é preciso ordem judicial (por exemplo, em casos de mensagens privadas) e quando as plataformas podem ser responsabilizadas por descuido, falta de notificação ou falhas na moderação de conteúdos ilegais, como crimes ou discursos criminosos.
A decisão do STF também gerou debate público sobre o papel do Judiciário na regulação digital. As opiniões continuam polarizadas entre aqueles que defendem regulação ampla e responsabilização de grandes plataformas e os que argumentam que medidas rígidas poderiam limitar a liberdade de expressão.
Para o doutor em direito e professor da USP (Universidade de São Paulo) Victor Blotta, a insegurança popular sobre a regulamentação vem da falta normas claras e específicas por parte do Estado. “O poder judiciário é considerado a última instância para resolver conflitos de comunicação. É um pressuposto de um Estado de direito que o poder judiciário seja legitimado para decidir esses conflitos que envolvem plataformas digitais. Porém, quando o Judiciário passa a determinar quais são as regras das plataformas sem legislação específica e transparente, ele se fragiliza e passa a gerar questionamentos sobre liberdade de expressão“, afirma.
Blotta diz que “o principal desafio para equilibrar a liberdade de expressão e responsabilização por ilícitos nos espaços digitais é a criação de um regime legal e amplo de responsabilização das plataformas”, e também defende que dentro desse regime deve “haver um sistema de moderação que respeite o direito à petição e o direito de defesa e de resposta das plataformas“.
A publicação do acórdão também se dá num contexto influenciado por episódios recentes, como o bloqueio temporário do X no Brasil, determinado em 2024 pelo ministro Alexandre de Moraes. O conflito começou depois que a empresa descumpriu ordens judiciais para remover perfis investigados por disseminação de desinformação e não manter representante legal no país. A rede social ficou suspensa por 39 dias.
Outras propostas para regulamentar a atuação das plataformas digitais também já foram debatidas no Brasil. Em 2020, o Projeto de Lei 2.630, conhecido popularmente como PL das Fake News, foi aprovado pelo Senado e encaminhado à Câmara dos Deputados. A proposta estabelece regras de transparência para moderação de conteúdo, identificação de publicidade e impulsionamento, deveres de cuidado para plataformas de grande porte, mecanismos de rastreabilidade de mensagens em aplicativos e previsão de sanções administrativas.
A primeira-dama Janja Lula da Silva tem se envolvido ativamente no tema. Em reunião com o presidente Xi Jinping da China, em maio de 2025, tratou da necessidade de definir parâmetros de regulação do TikTok no Brasil.
O presidente Luíz Inácio Lula da Silva (PT) também se posicionou sobre o tema em Junho do mesmo ano. “Eu fiz questão de conversar com o presidente Xi Jinping sobre a necessidade de a gente ter uma pessoa para discutir essa questão do que se fazer na regulação dessas empresas de aplicativo, porque não é possível que o mundo seja transformado em um banco de mentiras”, afirmou.
O debate sobre a regulamentação das redes sociais nos Estados Unidos ganhou novo impulso nesta 4ª feira (18.fev.2026), depois de declarações da nora do presidente Donald Trump (Partido Republicano) indicarem que a Casa Branca acompanha propostas para restringir o acesso de adolescentes às plataformas digitais.
Lara afirmou que o presidente está “muito interessado nisso”, ao comentar experiências internacionais, como as de Austrália e França, que adotaram restrições etárias para uso de redes sociais. No Congresso norte-americano, democratas e republicanos discutem propostas semelhantes, entre elas o Kids Off Social Media Act, que busca a proibição de acesso a menores de 13 anos e mecanismos obrigatórios de verificação de idade.
O avanço dessas propostas se soma a um debate jurídico mais amplo sobre os limites da responsabilidade das plataformas. Desde 1996, a atuação das empresas é protegida pela Seção 230 do Communications Decency Act, que estabelece que provedores não podem ser responsabilizados, em regra, pelo conteúdo publicado por usuários. O dispositivo é considerado um dos pilares do modelo de negócios das big techs e frequentemente é apontado como responsável por permitir a expansão das redes sociais no país.
Em dezembro de 2025, porém, congressistas de ambos os partidos passaram a defender mudanças na norma. Parte dos republicanos argumenta que as empresas exercem moderação excessiva e deveriam perder proteção jurídica se “censurarem” determinados conteúdos. Já setores democratas defendem revisão para ampliar a responsabilização em casos envolvendo desinformação, discurso de ódio ou danos a menores. Entre as propostas discutidas está a chamada “sunset provision” da Seção 230 –mecanismo que imporia prazo de validade ao dispositivo ou exigiria revisões periódicas pelo Congresso.
Enquanto o Legislativo debate alterações estruturais, o Judiciário também passou a examinar o tema sob outro ângulo: o do design das plataformas. Na 4ª feira (18.fev.2026), o CEO da Meta, Mark Zuckerberg, prestou depoimento em um tribunal civil na Califórnia em processo que discute se redes sociais foram projetadas de forma a estimular o uso compulsivo entre jovens. A ação questiona não apenas o conteúdo publicado, mas mecanismos como algoritmos de recomendação, notificações e rolagem infinita.
Zuckerberg negou que as plataformas tenham sido criadas com o objetivo de “viciar” crianças e adolescentes e afirmou que a empresa mantém políticas de idade mínima e ferramentas de controle parental. O caso, no entanto, é acompanhado de perto por especialistas, que avaliam que uma eventual condenação pode estabelecer precedentes relevantes para a responsabilização de empresas por escolhas de design.
Na Europa, 41,4 milhões de conteúdos foram barrados no primeiro semestre de 2025 em 104 plataformas digitais, segundo dados oficiais da União Europeia. O aumento em relação a 2024, quando 29,7 milhões de publicações foram restritas, reflete a aplicação do DSA (Digital Services Act), legislação que regula como as empresas de tecnologia lidam com conteúdos potencialmente ilegais ou que violem seus termos de uso. O DSA adota o sistema “notice-and-takedown”, que exige ação das plataformas mesmo sem ordem judicial.
O ato, em vigor desde 2022, impõe regras mais rigorosas para grandes plataformas com mais de 45 milhões de usuários ativos no continente. As empresas precisam criar mecanismos de notificação e recurso para usuários, adotar medidas para mitigar riscos sistêmicos e informar o regulador sobre como identificam e tratam conteúdos problemáticos. Plataformas menores seguem principalmente regras nacionais, enquanto as grandes respondem também à Comissão Europeia, podendo receber multas de até 6% do faturamento anual em caso de descumprimento.
As restrições são classificadas em quatro categorias: visibilidade, operação de contas, prestação de serviços e desmonetização. A aplicação prática mostra que as big techs atendem a uma parte das notificações dos usuários, mas também removem conteúdos por iniciativa própria, incluindo spams e fraudes.
Segundo Francisco Cruz, advogado, professor de direito do IDP (Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa) e especialista em políticas digitais, um aspecto importante do DSA é que “não há um dever geral de monitoramento” por parte das plataformas. Só que se essas empresas não seguirem o que manda o Digital Services Act, “ficam vulneráveis a multas“.
“As empresas têm de estudar o impacto das publicações e propor medidas para mitigar riscos. O que o regulador cobra é uma devida diligência. As plataformas precisam criar metodologias para detectar riscos e mitigá-los. A empresa informa os riscos, diz como detectá-los e mitigá-los para que o regulador se dê como satisfeito”, complementa o professor.
O DSA estabelece ainda mecanismos de transparência e diligência, obrigando as empresas a estudar impactos de conteúdos, prevenir riscos e informar o regulador sobre as medidas adotadas. O modelo europeu combina legislação e autorregulação, diferindo de sistemas como o dos Estados Unidos, onde as plataformas têm ampla imunidade. Especialistas consideram que o DSA funciona como referência global para debates sobre responsabilidade digital e moderação de conteúdo.
