Logo TecMundo
Segurança

ECA Digital não é o fim, é o começo: Brasil retoma a agenda da soberania na sociedade da informação

Opinião do Colunista — Lei voltada para crianças e adolescentes materializa uma nova esperança para a proteção integral na Galáxia da Internet.

Avatar do(a) autor(a): Paulo Rená - Colunista

schedule07/04/2026, às 13:00

updateAtualizado em 07/04/2026, às 13:11

A discussão sobre a regulação de plataformas digitais no Brasil precisa ser situada em uma mudança mais ampla de paradigma. Se, em um primeiro momento, a internet foi marcada por uma narrativa de otimismo tecnológico, hoje nos encontramos em um cenário de incerteza estruturante. O desenvolvimento das tecnologias digitais ampliou possibilidades, mas também aprofundou desigualdades sociais, econômicas e informacionais, além de concentrar poder em atores privados que operam em escala global. Nesse contexto, usuários passam a ser frequentemente posicionados como consumidores passivos, enquanto saberes populares e demandas de grupos vulnerabilizados são sistematicamente silenciados.

É precisamente a partir desse diagnóstico que iniciativas como as do Instituto de Referência em Internet e Sociedade (IRIS), em articulação com a Coalizão Direitos na Rede, têm buscado incidir na formulação de políticas públicas capazes de reequilibrar as relações de poder na esfera digital. Assim, o advento do Estatuto Digital da Criança e do Adolescente (Lei nº 15.211/2025, ou ECA Digital) representa uma vitória histórica para a sociedade brasileira, consolidando a proteção integral dos direitos de um público que, pela nossa Constituição, tem garantia de prioridade absoluta. Trata-se de um marco relevante, ainda que não definitivo: longe de encerrar o debate, inaugura uma nova etapa na agenda regulatória brasileira.

smart_display

Nossos vídeos em destaque

A regulação de plataformas é um tema complexo que, em estratégia discurssiva de retroplanejamento, pode ser identifcado como tendo começado pelas crianças e adolescentes justamente por esse dever de proteção integral com prioridade absoluta. Pode-se defender que a proteção infantojuvenil foi priorizada justamente por sua centralidade constitucional. Crianças e adolescentes não são apenas consumidores de conteúdos ou dados, mas sujeitos de direitos cuja proteção demanda atenção tanto no consumo quanto na produção de conteúdos. O ECA Digital incorpora essa compreensão ao estabelecer um conjunto de deveres para plataformas, abrangendo desde restrições de acesso a conteúdos inadequados até a previsão de sanções administrativas, cuja implementação dependerá, em grande medida, da atuação da Autoridade Nacional de Proteção de Dados (ANPD). Mas, na verdade, a explicação é primordialmente histórica e conjuntural.

Convém reconhecer que a trajetória recente da regulação de plataformas no país foi marcada por frustrações, como a não aprovação do chamado “PL das fake news”, resultado, em grande medida, de uma mobilização inédita das próprias empresas de tecnologia. Nesse cenário, o ECA Digital emerge como um acordo mínimo possível, construído sob a pressão de evitar um vácuo normativo ainda mais grave no que diz respeito à proteção de crianças e adolescentes.

Voltanto ao ECA Digital, o texto não foca apenas no consumo de produtos impróprios, mas também na produção de conteúdos e na proteção contra a exploração comercial. Um exemplo fundamental é o veto à monetização de conteúdos de crianças "adultizadas", que podemos carinhosamente chamar de "Artigo Felca" (art. 23), visando interromper o ciclo de exploração de vulneráveis:

  • Art. 23. São vedados aos provedores de aplicações de internet a monetização e o impulsionamento de conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva ou em contexto próprio do universo sexual adulto.

Não precisamos de soluções simples e equivocadas para realidades hipercomplexas; precisamos de autonomia crítica e emancipação.

O Devido Processo na Moderação: A Arma Contra o Lado Sombrio

Entre os dispositivos mais inovadores da nova legislação, destaca-se o art. 30, que introduz, pela primeira vez no ordenamento jurídico brasileiro, um conjunto estruturado de garantias procedimentais aplicáveis à moderação de conteúdo. Trata-se da positivação do chamado “devido processo na moderação”, conceito que desloca para a esfera privada das plataformas digitais princípios historicamente associados à relação entre Estado e indivíduo.

Esse devido processo compreende, ao menos, cinco elementos fundamentais: (i) notificação das partes envolvidas; (ii) explicitação das razões da decisão de moderação, com indicação da norma violada; (iii) transparência quanto ao uso de automação ou intervenção humana; (iv) possibilidade de recurso; e (v) existência de mecanismos acessíveis, céleres e com prazos definidos para revisão das decisões. Em síntese, busca-se assegurar que decisões que impactam diretamente a liberdade de expressão não sejam tomadas de forma arbitrária ou opaca.

  • Art. 30. No procedimento de retirada de conteúdo de que trata o art. 29 desta Lei, os fornecedores de produtos ou serviços deverão observar o direito de contestação da decisão, assegurando ao usuário que havia publicado o conteúdo:
    I – a notificação sobre a retirada;
    II – o motivo e a fundamentação da retirada, informando se a identificação do conteúdo removido decorreu de análise humana ou automatizada;
    III – a possibilidade de recurso do usuário contra a medida;
    IV – o fácil acesso ao mecanismo de recurso; e
    V – a definição de prazos procedimentais para apresentação de recurso e para resposta ao recurso.

Esse artigo 30 do ECA Digital materializa um comando do Supremo Tribunal Federal sobre as obrigações adicionais das empresas, combatendo a omissão legislativa que forçou o Judiciário ao protagonismo na regulação das obrigações e responsabilidades dos provedores de aplicação de Internet, no julgamento do art. 19 do Marco Civil da Internet.

Agora, a moderação não pode ser arbitrária: as plataformas devem notificar, explicar a fundamentação da remoção, indicar se a verificação foi humana ou automatizada e oferecer mecanismos acessíveis de recurso. Esse direito ao contraditório garante a liberdade de expressão e a eficácia horizontal dos direitos fundamentais, funcionando como um parâmetro de justiça compartilhado.

A relevância desse avanço é reforçada por evidências empíricas: em mais de 80% dos casos em que o Poder Judiciário brasileiro reconhece a inadequação de uma decisão de moderação, o problema reside na ausência de fundamentação adequada. As plataformas, frequentemente, não conseguem explicar, nem mesmo em juízo, os critérios que levaram à remoção ou manutenção de determinado conteúdo. O ECA Digital, ao exigir justificativas claras e estruturadas, cria as condições para uma maior auditabilidade dessas decisões.

Esse modelo, embora inicialmente restrito à proteção de crianças e adolescentes, possui evidente potencial de expansão. A sua lógica pode e deve ser aplicada a outros contextos sensíveis, como o processo eleitoral, a proteção de jornalistas e a garantia do pluralismo informacional. Trata-se, portanto, de um laboratório normativo que pode orientar futuras regulações mais amplas sobre plataformas digitais.

Aferição de Idade vs. Verificação de Identidade: Não Entre em Pânico

Outro ponto crucial é a distinção técnica entre aferição de idade e verificação de identidade. A Coalizão Direitos na Rede (coletivo de dezenas de organizações da sociedade civil que atuam na pauta digital) defende que a proteção de crianças e adolescentes contra o acesso a conteúdos inadequados não deve permitir um panóptico de coleta de imagens de documentos, nem uma retenção em massa de dados de reconhecimento facial. A aferição etária deve ser realizada com base no princípio da minimização de dados: as plataformas precisam saber apenas se o usuário se enquadra em determinada faixa etária, sem acessar ou armazenar informações adicionais sobre sua identidade. A verificação de identidade, por sua vez, deve permanecer dissociada desse processo, de modo a evitar a construção de sistemas de vigilância indevida. Trata-se de um equilíbrio delicado entre proteção e privacidade, que exigirá soluções tecnológicas e regulatórias sofisticadas.

Essa é a "matemática da confiança" substituindo o banco de dados da vigilância total. A defesa da proteção do público infanto-juvenil não pode servir de pretexto para sacrificar a privacidade e a liberdade de expressão de pessoas adultas; exige apenas que paremos de usar ferramentas de controle do século XX para gerir as liberdades do século XXI.

Além disso, o ECA Digital introduz diretrizes importantes sobre proporcionalidade, gradação de medidas e vedação ao uso secundário de dados. Nesse contexto, lojas de aplicativos e sistemas operacionais são chamados a desempenhar um papel relevante como pontos de controle — verdadeiros gargalos regulatórios — capazes de implementar medidas de proteção em escala. Essa abordagem dialoga diretamente com o art. 227 da Constituição Federal e com o Estatuto da Criança e do Adolescente, ao reafirmar que a proteção infantojuvenil é uma responsabilidade compartilhada entre Estado, sociedade e setor privado.

Esse ponto é particularmente relevante diante de um cenário em que o Supremo Tribunal Federal tem assumido um papel cada vez mais protagonista na regulação da internet, em razão de omissões legislativas. A recente decisão que reconheceu a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet evidencia essa dinâmica, ao exigir maior clareza quanto às obrigações das plataformas. O ECA Digital, nesse sentido, pode ser interpretado como uma resposta legislativa inicial a essa demanda.

Soberania e a "Lasanha Digital" Brasileira

No plano internacional, observa-se uma mudança significativa no foco da responsabilização das plataformas. Se, no passado, a atenção recaía predominantemente sobre o conteúdo e seus autores, hoje o debate se desloca para os mecanismos de distribuição e amplificação, como se verificou em recentes decisões judiciais estadunidenses no Novo México e na Califórnia. O modelo de negócios das plataformas, baseado na maximização do engajamento, tem sido associado à promoção de conteúdos nocivos, inclusive para crianças e adolescentes. A regulação, portanto, precisa incidir não apenas sobre o que é publicado, mas sobre como e para quem esse conteúdo é disseminado.

Essa discussão se articula, ainda, com questões mais amplas de soberania digital. A chamada sociedade da informação não é um fenômeno neutro ou inevitável, mas o resultado de um projeto político e econômico que reorganiza a distribuição de poder, conhecimento e riqueza. Nesse contexto, países como o Brasil enfrentam o risco de reproduzir dinâmicas históricas de dependência, substituindo a condição de exportadores de commodities pela de fornecedores de infraestrutura e dados de baixo valor agregado, uma espécie de “colonialismo digital”.

A resposta a esse desafio passa pela construção de uma estratégia nacional que considere as múltiplas camadas da infraestrutura digital (da conectividade à inteligência artificial) de forma integrada. Trata-se de desenvolver uma “arquitetura tecnológica” alinhada aos interesses brasileiros, capaz de incorporar valores constitucionais e responder às especificidades sociais do país.

Não podemos aceitar que o Brasil deixe de ser uma "fazenda de soja" (ou de pau brasil, café, leite, cana de açúcar, etc.) para se tornar uma "fazenda de dados", exportando o armazenamento de dados digitais brutos, com baixo valor agregado. Precisamos de uma "lasanha digital" (ou um Eurostack à brasileira): uma estrutura de camadas tecnológicas pensada por brasileiros para o Brasil, temperada com nossos próprios valores constitucionais.

Qualquer projeto de soberania digital que desconsidere as desigualdades estruturais internas estará condenado à incompletude. A ausência de diversidade nos espaços de decisão, inclusive em instâncias como o próprio Conselho de Comunicação Social, evidencia a necessidade de incorporar perspectivas racializadas, periféricas e interseccionais na formulação de políticas públicas. A chamada “sociologia das ausências” não é apenas um diagnóstico, mas um imperativo normativo para a construção de uma governança digital democrática.

Aprovado ano passado e em vigência desde 17 de março de 2026, o ECA Digital é a primeira lei pós-Marco Civil da Internet (aprovado em 2014) que trata especificamente do ambiente digital, reafirmando a força normativa da nossa "Constituição Cidadã" e do Estatuto da Criança e do Adolescente para o contexto da sociedade da informação. O Estado tem o dever constitucional e legal de interferir para proteger o melhor interesse da criança e do adolescente. E partindo da experiência de outros países nós não fomos simplistas em proibir as redes sociais: estabelecemos que, para atuar aqui, é preciso fazer a escolha, se será uma plataforma adequada para crianças e adolescentes, que precisa garantir essa adequação; ou se será uma plataforma para pessoas adultas, que precisa assegurar que não ocorra o acesso por crianças e adolescentes. Trata-se de exigir que as Big Techs e as demais empresas de tecnologia, como parte da sociedade, assumam o seu compromisso social de fazer parte da vila necessária para criar uma criança.

O Papel da ANPD e a Sociologia das Ausências

Para que o ECA Digital não se torne letra morta, a implementação dessas diretrizes dependerá, em larga medida, da atuação da renovada Agência Nacional de Proteção de Dados Pessoais (ANPD), que passa a assumir um papel central na governança da internet no Brasil. Com a ampliação de suas competências, a Autoridade será responsável por detalhar aspectos operacionais da lei, incluindo os mecanismos de aferição de idade e as responsabilidades de diferentes atores do ecossistema digital. A Agência, entre outros elementos, precisa de dotação orçamentária real, para não ser apenas um projeto no papel E será fundamental assegurar a participação social em seus processos decisórios, evitando a reprodução de dinâmicas tecnocráticas pouco permeáveis ao controle democrático.

O ECA Digital, portanto, não deve ser compreendido como um ponto de chegada, mas como um ponto de inflexão. Ele sinaliza que o Brasil voltou a legislar sobre o ambiente digital após mais de uma década desde o Marco Civil da Internet, inaugurando um novo ciclo de disputas e possibilidades. A agenda futura, que inclui a regulação da inteligência artificial, exigirá o mesmo nível de densidade analítica, participação social e compromisso com direitos fundamentais.

Para tanto, a governança da internet precisa ouvir vozes de comunidades vulnerabilizadas e invizibilizadas, garantindo que o combate ao racismo algorítmico e à misoginia esteja no centro das decisões. Qualquer projeto de soberania digital que ignore as dimensões de raça, classe e desigualdade estará incompleto. A sub-representação de pessoas negras e de grupos vulnerabilizados em espaços de decisão, como conselhos e instâncias deliberativas, compromete a qualidade e a legitimidade das políticas públicas. A incorporação de perspectivas diversas não é apenas uma questão de justiça social, mas um requisito para a construção de soluções efetivamente adequadas à complexidade da sociedade brasileira.

A sociedade da informação como modelo de organização econômica, tecnológica e política não é um fenômeno natural, mas um projeto concebido em meados do século XX e posto em prática na virada do milênio, quando pensadores como Manuel Castells anunciaram a chegada da Galáxia da Internet. Então cabe à sociedade exigir que esse arcabouço social sirva aos nossos interesses enquanto população humana, em toda nossa diversidade. Assim, o Parlamento, a sociedade civil e os órgãos reguladores devem agregar esforços para garantir que a inovação sirva ao desenvolvimento humano, e não ao aprofundamento das opressões e exclusões. O ECA Digital é o primeiro passo para reafirmarmos nossa soberania nacional na sociedade da informação.

Sem pânico moral e sem tecnosolucionismo

A regulação de plataformas não deve ser orientada por uma lógica sensacionalista e reativa de pânico moral, nem por uma visão de otimismo exagerado nas tecnologias digitais, ou de tecnossolucionismo. As redes sociais e demais serviços digitais não são, em si, a origem dos problemas, mas amplificam tensões já existentes, ao mesmo tempo em que oferecem novas possibilidades de organização, expressão e mobilização social. O desafio regulatório consiste, portanto, em mitigar riscos sem comprometer essas potencialidades.

O Brasil, após mais de uma década sem avanços legislativos estruturais no campo digital, começa a retomar esse debate com o ECA Digital. O próximo passo, que já se desenha no horizonte, envolve a regulação da inteligência artificial e a consolidação de um modelo de governança capaz de gerar respostas contínuas e adaptativas a um ambiente tecnológico em permanente transformação.

Em última instância, a questão que se coloca na regulação de plataformas é como garantir que as tecnologias digitais de informação e comunicação que estruturam a sociedade da informação estejam a serviço dos direitos fundamentais e do equilíbrio de forças entre poder público e interesses privados. Para isso, uma premissa se impõe como ponto de partida: não se pode delegar integralmente ao algoritmo da economia da atenção a tomada de decisões que impactam direitos, sejam de crianças e adolescentes, seja de qualquer pessoa.

  • Texto adaptado, preservando o cerne das argumentações originais, a partir das contribuições apresentadas pelo autor durante a audiência pública, em torno do tema do ECA Digital na perspectiva da sociedade civil, realizada em 06 de abril de 2026 pelo Conselho de Comunicação Social do Congresso Nacional.
star

Continue por aqui