Brinquedos com IA revelam novos riscos digitais para crianças. Entenda
O Globo - 22/12/2025 - [gif]
Autor: Filipe Vidon
Assunto: IA, brinquedos, crianças
Produtos conversacionais falham em filtrar conteúdos, estimulam vínculos afetivos e levantam alertas sobre dados, transparência e regulação
A interação entre crianças e bonecos faz parte essencial e saudável do desenvolvimento infantil. Seja conversando com o clássico Furby, que balbuciava termos em "furbish", ou criando narrativas com os ursinhos de pelúcia, a imaginação sempre foi o motor dessas interações. A diferença é que, agora, esses brinquedos ganharam acesso à inteligência artificial (IA) generativa, capaz de manter conversas abertas, fluidas e imprevisíveis.
Essa nova geração de brinquedos é anunciada como "companheiros de IA", mas levantam alertas importantes sobre segurança infantil, privacidade e regulação. Um relatório publicado neste mês pelo Fundo Educacional do Grupo de Pesquisa de Interesse Público dos Estados Unidos, organização sem fins lucrativos focada na defesa do consumidor, aponta que esses produtos funcionam, na prática, como um "experimento com nossos filhos".
Pelo menos cinco brinquedos com inteligência artificial conversacional se popularizaram nos Estados Unidos e viralizaram nas redes durante a atual temporada de festas: Miko 3, Alilo Smart AI Bunny, Curio Grok (sem relação com o Grok da xAI), Miriat Miiloo e FoloToy Sunflower Warmie. Alguns deles já são importados e revendidos em marketplaces no Brasil.
Nos testes da organização americana, alguns modelos quando questionados forneceram informações sobre onde encontrar objetos perigosos em casa, como facas, fósforos e sacos plásticos. Um deles, em interações prolongadas, demonstrou ser incapaz de filtrar tópicos adultos, introduzindo termos pornográficos e detalhando práticas envolvendo dinâmicas de poder entre professores e alunos.
Para os pesquisadores e especialistas, a ausência de notificações ativas aos pais agrava o risco, especialmente quando o brinquedo é apresentado como um interlocutor confiável.
Outro eixo crítico envolve privacidade, já que o maior ativo desses produtos são os dados coletados para treinar a IA. Diferentemente de brinquedos tradicionais, esses dispositivos escutam, gravam e processam informações potencialmente sensíveis. Alguns modelos vão além: o Miko 3, por exemplo, possui câmera, realiza reconhecimento facial e pode inferir estados emocionais, com a possibilidade de armazenar dados biométricos por até três anos.
- Colocar a IA no ambiente da criança tem implicações muito mais sérias. Um brinquedo desse, que não vem com a possibilidade dos pais acompanharem os diálogos, faz um monitoramento completo, e está sujeito até a hackeamento. Sem falar do uso comercial indevido e das alucinações. A criança precisa de um mundo de criatividade e imaginação, e cada vez mais os brinquedos vão perdendo isso, movimento que eu acho comprometedor para uma evolução saudável - Luiz Alexandre Reali, gerente do Observatório Brasileiro de Inteligência Artificial.
Segundo os testes da entidade americana, também há um problema de transparência. Dois dos brinquedos testados afirmaram aos usuários que as conversas eram privadas ou que seus "segredos estavam seguros", o que pode induzir crianças a compartilhar informações pessoais sem compreender que há empresas monitorando e armazenando tudo o que é dito.
Apesar disso, as políticas de privacidade das empresas que vendem os brinquedos confirmam o compartilhamento com desenvolvedores terceirizados e parceiros comerciais, sem detalhamento claro de quem acessa essas informações.
O cerco regulatório
Nos Estados Unidos, o avanço desses produtos já provocou reações regulatórias. A Comissão Federal de Comércio (FTC) determinou que empresas de IA expliquem como seus chatbots podem impactar crianças e adolescentes. Estados como Califórnia e Nova York aprovaram leis que impõem limites a "companheiros chatbots", proibindo orientações de cunho sexual a menores e exigindo protocolos para casos de automutilação.
No Brasil, embora ainda não exista uma legislação específica para brinquedos com inteligência artificial, o arcabouço jurídico já em vigor começa a ser tensionado por esse novo mercado, especialmente com o novo ECA Digital. Embora a essência da proteção integral permaneça a mesma desde 1990, a complexidade da IA generativa exige que princípios como a "privacidade por padrão" saiam do papel e se tornem requisitos técnicos obrigatórios para qualquer fabricante que deseje acessar o mercado nacional.
- O Código de Defesa de Consumidores já tem essa proteção, independentemente da faixa etária. Claro que a criança não tem discernimento, capacidade e maturidade para diferenciar, então ela tem uma proteção maior reforçada pelo ECA Digital. As empresas vão ter que readaptar os seus produtos para que na largada eles já sejam construídos com esse olhar de proteção de dados - explica a advogada Cintia Andrade, sócia da área de Privacidade, Proteção de Dados e Tecnologia.
Na prática, isso significa que brinquedos conectados, ainda que vendidos por marketplaces e muitas vezes importados sem representação oficial no país, passam a ser analisados sob o mesmo rigor aplicado a qualquer produto infantil. Segundo o Procon-SP, todos os integrantes da cadeia de consumo - fabricante, importador, comerciante e plataforma - respondem solidariamente por eventuais danos, sobretudo quando o público é considerado hipervulnerável, como é o caso das crianças.
A diretora de Assuntos Jurídicos do Procon-SP, Patrícia Álvares Dias, afirma que o uso desses dados para criar perfis de consumo ou estimular novas compras dentro do universo infantil pode configurar prática abusiva. Além disso, a própria forma de divulgação desses produtos, apresentados como "amigos" ou "companheiros", pode ser enquadrada como publicidade abusiva se explorar a inexperiência da criança ou induzir comportamentos de risco.
- O código de defesa consumidor tem dentro das suas normas, uma previsão no artigo que fala sobre a publicidade enganosa e a publicidade abusiva. Se esses brinquedos podem se utilizar justamente da inexperiência da criança, trabalham com situações de comportamento de risco e são vendidos como amigos, sem dúvida nenhuma pode ser enquadrado com publicidade abusiva.
Embora o Procon ainda não tenha registrado autuações específicas envolvendo brinquedos com IA, o tema já está no radar do órgão, que mantém uma comissão interna dedicada à inteligência artificial e acompanha tendências internacionais. Mesmo assim, o órgão enfatiza que o trabalho preventivo depende também do "empoderamento" das famílias. A orientação é que os pais não apenas confiem na tecnologia, mas questionem manuais, verifiquem políticas de privacidade e denunciem qualquer comportamento estranho do dispositivo.

