NIC.br

Ir para o conteúdo
Logo NIC.Br Logo CGI.Br
11 FEV 2026

O que as empresas estão fazendo para se adequarem ao ECA Digital


Mobile Time - 11/2/2026 - [gif]


Autor: Adriano Camargo


[Matéria atualizada em 11/2/2026, às 9h45, para adicionar mais números sobre o estudo da SaferNet]

O que as empresas estão fazendo para se adequarem ao ECA Digital, que entra em vigor daqui a um mês? Para ajudar a responder a pergunta, a SaferNet montou um painel em seu evento Dia da Internet Segura, que aconteceu nesta terça-feira, 10, e segue na quarta-feira, 11, sobre iniciativas do setor privado para implementação do ECA Digital. Para responder, Google, Meta, TikTok, entre outras, apresentaram suas soluções de segurança e privacidade que estariam em conformidade com a nova lei brasileira para proteger crianças e adolescentes no ambiente virtual.

Google

O Google optou por fazer múltiplas camadas de segurança e de acordo com cada aplicação. Ao todo, são três camadas de segurança: autodeclaração de idade ou declaração de um responsável para a conta de um menor de idade; em cima disso, aplica-se o modelo da empresa de inferência de idade, com base no comportamento do usuário; e, para casos limitados, onde os riscos são maiores e com conteúdo que não deve ser acessado por menores de idade, a empresa aplica uma camada adicional de verificação de idade.

“Acreditamos que crianças e adolescentes precisam de uma camada de proteção extra. E, além das proteções padrões – que independem se são menores ou adultos – temos camadas adicionais em nossas aplicações”, explicou Juliana Akaishi, corporate counsel do Google Brasil, em sua participação no evento da Safernet.
Google; ECA Digital

No Google Play, por exemplo, as pessoas não podem baixar um app sem fazer o login. No Youtube, para o conteúdo adulto, o usuário também precisa fazer o login, o conteúdo adulto é restrito e há medidas de segurança nas recomendações de conteúdo para adolescentes. Em anúncios, a personalização das publicidades é desativada e o conteúdo de propaganda sensível fica restrito (como anúncios de jogos de azar, bebidas alcoólicas etc). Já no Mapas, o histórico de localização é desativado e o compartilhamento da localização é limitado. E, em Busca, o desfoque do SafeSearch para conteúdo explícito está desativado por padrão.

“Nenhuma técnica é 100% infalível, nem no digital nem no físico. A abordagem baseada em risco faz mais sentido porque conseguimos ao mesmo tempo garantir acesso ao conteúdo e proteger a privacidade e os direitos do usuário. Não faz sentido usar técnicas de aferição de idade muito intensivo em dados quando não há um risco muito grande porque não é do interesse da privacidade do usuário”, explicou.

O Google diz que a aferição de idade “é uma tarefa bem complicada”. E que a solução seria que as responsabilidades sejam compartilhadas, divididas entre desenvolvedores dos serviços, formuladores de políticas públicas e plataformas.

“Os desenvolvedores têm a melhor informação e são mais capacitados para fazer a aferição. São eles com contato direto dos usuários. É a fonte mais segura”, explica a executiva.

Já os desenvolvedores de políticas públicas têm papel importante e podem determinar os melhores padrões para aferição da faixa etária. E cabe às plataformas fornecer a “infraestrutura e as ferramentas necessárias”.

“Sobem no Youtube o equivalente a 500 horas de vídeos por minuto. Não há ferramenta tecnológica que filtre tudo isso. Entendemos que, para além das ferramentas, devemos sinalizar que existem conteúdos ilegais nos nossos produtos”, admite. Para isso, existe um formulário central.

No caso de denúncias de violência ou abuso infantil, o caso vai para o time de segurança voltado para menores para revisão do material. Neste caso, o conteúdo pode ser removido, se comprovado sua ilegalidade, bloqueado ou, em casos mais graves, a conta do usuário é bloqueada.

TikTok

No caso do TikTok, a plataforma diz oferecer uma experiência adequada de acordo com a idade da pessoa, respeitando a autonomia progressiva da criança e do adolescente. Assim, existe uma camada de proteção para todas as contas de usuários com menos de 18 anos. Para quem tem menos de 16, existe uma camada adicional.

Quem tem menos de 18 anos, a conta é aberta by default com: tempo de tela limitado a 60 minutos; sem acesso a live; sem acesso a envio de gifts virtuais (presentes); sem anúncios personalizados; e sem tiktok shop (marketplaces da plataforma).

Quem tem menos de 16 anos ganha as seguintes camadas extras: contas privadas por padrão; só amigos podem comentar; ninguém pode baixar vídeos; não tem acesso às mensagens diretas; sem acesso a interação com vídeos de terceiros (as funções dueto e costura).

“A aferição de idade é complexa e usamos combinações de diferentes técnicas, como autodeclaração, mas estimação comportamental e eventualmente estratégias de verificação. É um debate que está evoluindo e estamos em diálogo com os reguladores e especialistas para continuarmos avançando nessa frente”, comentou Gustavo Rodrigues, gerente de políticas públicas do TikTok Brasil.

Outro ponto importante para o TikTok é oferecer ferramentas para que as famílias monitorem os menores. É possível vincular uma conta de adulto a de um adolescente e controlar algumas funcionalidades para controlar sua experiência. “Posso limitar tempo de tela, limpar conteúdos inadequados, posso ter controle sobre o que ele busca, entre outros aspectos”, explica.

Sobre políticas públicas, a plataforma chinesa diz estar trabalhando com as autoridades e sempre faz revisões de suas políticas. “Temos conselhos consultivos. Eles nos orientam e nos ajudam a evoluir nossas políticas de uso em prol dos mais jovens”, diz.

Outro ponto é que o TikTok ouve os mais jovens para a criação de políticas. Ao todo o conselho de jovens possuía 15 adolescentes do mundo todo. Atualmente, são 30, entre 15 e 18 anos, de 21 países e há um representante brasileiro. “Esse grupo tem sessões periódicas com times-chave da empresa para produzir insights e, a partir disso, atualizar os produtos a partir da perspectiva dos jovens

No Dia da Internet Segura, o TikTok também lançou a campanha #porumainternetsegura2026 com quatro criadores e que será impulsionada pela plataforma. A campanha é fruto de parceria com a Safernet.

A plataforma também lançou nesta terça a cartilha Segurança Tamanho Família, também em parceria com a Safernet. O material deve apoiar pais e responsáveis a terem um diálogo saudável com filhos e filhas sobre segurança digital e ajuda a identificar sinais de comportamentos fora do normal, o que pode ser um alerta.

Nas próximas semanas, o TikTok lançará um guia para educadores. A ideia é que esses profissionais trabalhem segurança digital em sala de aula, literacia digital e prevenção a golpes e temas conexos.

“O debate [sobre segurança de menores na internet] não começou com o ECA Digital e não vai se encerrar com a sua vigência. Seguimos com o diálogo sobre a interpretação e a regulação infralegal e como encontrar soluções que garantam a proteção das crianças e seus demais direitos fundamentais. Soluções bem fundamentadas a partir da discussão multissetorial”, resumiu Rodrigues.

Meta

A Meta lançou a Contas de Adolescentes em 2025 no Brasil para o Instagram e, ao longo do ano passado, expandiu para o Facebook e Messenger. A solução permite o controle de quem entra em contato com o jovem, o tipo de conteúdo que pode ser visto e ferramentas de gerenciamento de tempo de tela. Essas configurações são nativas das contas dos menores de idade; são privadas por padrão; restritas às pessoas que os jovens seguem; e um adulto que não faz parte da rede do menor não consegue trocar mensagem nem fazer pedido de amizade. Além do mais, existe um modo de descanso padrão, ligado entre 22h e 7h em que as notificações não aparecem

E os pais podem alterar e customizar para cada filho.

“Desde que lançamos no Instagram, colocamos centenas de milhões de contas de adolescentes nesse padrão. Eles foram migrados para essa experiência e 97% delas permaneceram nas configurações mais restritas disponíveis. Isso sinaliza que estamos no bom caminho”, acredita Taís Niffinegger, safety policy manager na Meta para a América Latina.

Vale dizer ainda que as camadas adicionais das contas de adolescentes passaram a vigorar nas contas de adultos representando os menores, e a Meta também restringiu a visibilidade das contas que representam menores para contas suspeitas.

Como sugestão, a companhia acredita que a primeira verificação de faixa etária deveria acontecer na loja de aplicativos, de modo que ela ofereça apps que já estejam adequados à idade do jovem. “Cada adolescente tem em média 40 apps no celular. E é um fardo grande para os pais administrar tudo isso. A gente, como plataforma, pensa em simplificar esse monitoramento dos pais para que eles façam o acompanhamento adequado de seus filhos”, afirma.

A executiva da Meta encerrou sua fala dizendo que o ECA Digital trouxe várias inovações e ficará mais simples para os pais fazerem acompanhamento, já que existe uma padronização da indústria sobre os requisitos mínimos de segurança. “Vemos com muito bons olhos. Estamos trabalhando de perto com o Ministério da Justiça, ANPD e reguladores. Vários pontos estão sendo endereçados no nível de regulação secundária. Estamos super à disposição para reforçar o diálogo e nos esforçamos para melhorar cada vez mais nossos produtos”, contou.
Dados sobre ECA Digital

Importante que, de acordo com a pesquisa TIC Kids, 85% das crianças de 9 a 17 anos possuem perfil próprio em redes sociais monitoradas pelo CGI.br, responsável pelo estudo. E 65% dos menores da mesma faixa etária já fazem uso da inteligência artificial, seja para educação ou para discussões de suas emoções.

O ECA Digital exige abordagens de segurança como:

Verificação da faixa etária – as plataformas são obrigadas a oferecer mais proteção;
Monitoramento e remoção de conteúdos nocivos, sem esperar por denúncias;
As big techs não podem direcionar anúncios a crianças e adolescentes;
As contas de menores de 16 anos serão vinculadas à conta de um adulto responsável;
A ANPD passa a fiscalizar as plataformas e pode aplicar sanções que podem ser desde advertências a multas que podem chegar a R$ 50 milhões;
E, em casos mais graves, é possível suspender e proibir a plataforma de funcionar em solo brasileiro.

Dados da Safernet

De acordo com a Central Nacional de Denúncias de Crimes Cibernéticos, da Safernet, em 2025, houve um aumento de 28,4% de novas queixas de crimes cibernéticos (únicas ou não repetidas), chegando a 87.689, com 19.403 delações a mais em comparação com 2024.

Imagens de abuso e de exploração sexual infantil foram a maioria das denúncias registradas na SaferNet no ano passado, totalizando 63.214 notificações.

O estudo também aponta que, em um ano, houve aumento de 115% nos pedidos de ajuda recebidos pelo canal Helpline da organização não-governamental especializada na defesa e na promoção de direitos humanos na internet. São contatos feitos por pessoas denunciando vazamento de imagens de nudez e sexo sem autorização, sendo “boa parte” criadas por inteligência artificial. Esta é a primeira vez que a entidade coleta relatos de pessoas vítimas dessa violação de direitos por IA, explicou Thiago Tavares, diretor presidente da SaferNet Brasil durante o evento.

Em 2025, houve ainda aumento de 19% das denúncias de crimes envolvendo imagens de abuso e exploração sexual na internet em relação ao ano anterior e incremento de 54% nos crimes de ódio, com destaque para os crimes de misoginia (+225%), e para o crimes contra a vida (+75,4%) e neonazismo (+64,7%).