No início de maio, o Instagram anunciou a expansão de uma tecnologia que analisa estrutura óssea e altura de usuários para identificar se a pessoa tem menos de 13 anos. Não se trata de reconhecimento facial. É uma leitura de indicadores visuais, proporções corporais, traços de desenvolvimento físico, combinada com análise de texto e padrões de interação. O objetivo declarado é detectar e remover contas de menores que burlaram os filtros de idade na criação do perfil.
A novidade chegou ao Brasil numa semana em que o país ainda absorvia a Bett Brasil 2026, realizada em São Paulo entre os dias 5 e 8 de maio, cujo tema central foi justamente o diálogo entre inteligências individuais, coletivas e artificiais na educação. Dois eventos aparentemente distintos, mas que apontam para a mesma tensão: como proteger crianças num ambiente digital que foi construído sem elas em mente?
A pergunta não é retórica. O Brasil aprovou em 2025 o Estatuto Digital da Criança e do Adolescente (Lei nº 15.211/2025), e regulamentou o diploma por meio do Decreto nº 12.880, de março de 2026. O conjunto normativo é robusto, exige verificação confiável de idade, veda a autodeclaração para acesso a conteúdos proibidos, determina configurações seguras por padrão e proíbe publicidade comportamental direcionada a esse público. O ECA Digital ainda vai além e consolida a verificação de idade no nível das lojas de aplicativos, como Google Play e App Store, obrigando-as a compartilhar o chamado “sinal de idade” com os aplicativos instalados.
É nesse cenário que a iniciativa da Meta ganha relevância jurídica. A empresa não está implementando somente uma funcionalidade técnica, está respondendo, ainda que parcialmente, a uma exigência legal. O art. 34 do Decreto nº 12.880/2026 impõe às plataformas que solicitem autorização judicial nos termos do ECA para conteúdos monetizados que explorem a imagem ou rotina de crianças de forma habitual, com remoção imediata na ausência do alvará correspondente. A IA de detecção de menores é, nesse contexto, uma ferramenta de conformidade regulatória tanto quanto de proteção.
O movimento da Meta acompanha uma tendência global de pressão regulatória sobre plataformas digitais. Austrália, Reino Unido e Canadá já utilizam a tecnologia há algum tempo, e agora ela chega simultaneamente ao Brasil, aos Estados Unidos e à União Europeia. A empresa também anunciou melhorias no fluxo de denúncia de contas de menores, com revisão humana reforçada por modelos de inteligência artificial que aplicam critérios de avaliação mais precisos e resoluções mais rápidas. Além disso, a plataforma trabalha para fortalecer medidas contra a recriação de contas por usuários identificados como menores de 13 anos.
Mas a tecnologia resolve o problema ou desloca o debate?
Há pelo menos três tensões que a novidade não elimina. A primeira é a da precisão. Inferir faixa etária por estrutura óssea e proporção corporal é uma estimativa probabilística, não uma certeza. Crianças com desenvolvimento físico acelerado e adultos com aparência jovem entram inevitavelmente em zonas de ambiguidade. O erro tem consequências assimétricas,tanto a exclusão indevida de um adulto quanto a permanência de um menor passam despercebidas pelo sistema, e nenhum dos dois casos é inofensivo do ponto de vista jurídico.
A segunda tensão é a da responsabilidade. O Conselho Nacional do Ministério Público publicou em 2026 o Manual de Atuação do Ministério Público no Trabalho Infantil nas Plataformas Digitais, reforçando que as plataformas têm responsabilidade objetiva pela verificação da legalidade dos conteúdos protagonizados por crianças. Detectar o menor e remover a conta é o ponto de partida, porém, a dúvida recais sobre o que acontece com o conteúdo já publicado, com a monetização acumulada ao longo do tempo, com os dados pessoais tratados durante toda a relação? A inteligência artificial que detecta não apaga o histórico nem responde pelo que já foi feito. E a ausência de resposta a essa pergunta representa uma lacuna relevante tanto para o direito do consumidor quanto para a proteção de dados pessoais.
A terceira tensão é estrutural e talvez a mais difícil de endereçar. A Bett 2026 debateu com propriedade o papel pedagógico da inteligência artificial, a personalização do ensino e o letramento digital como competência essencial para este século. O evento reuniu mais de seis mil congressistas e 450 palestrantes em 13 auditórios simultâneos, com uma agenda que incluiu o Summit IA na Educação, espaço dedicado ao impacto prático da IA nas instituições de ensino. Mas a escola que ensina o aluno a usar tecnologia de forma responsável não tem como controlar o que esse mesmo aluno faz quando sai da sala de aula e abre o Instagram. O ambiente digital que cerca crianças e adolescentes é projetado para engajamento, e engajamento, como a Meta sabe melhor do que ninguém, não tem idade mínima como critério de otimização de algoritmos.
Há ainda uma dimensão econômica que frequentemente passa despercebida no debate público. O Manual do CNMP é preciso ao apontar que crianças cujos vídeos viralizam são abordadas com oportunidades de monetização que se tornam, não raro, extremamente lucrativas para os responsáveis legais e para os agentes econômicos que exploram essas atividades. A relação é quadrangulada: o artista mirim, a família que se beneficia financeiramente, a plataforma que lucra com o engajamento e as empresas anunciantes que promovem seus produtos por meio de conteúdo infantil. Nessa cadeia, a IA de detecção intervém em apenas um elo, e não necessariamente no mais relevante do ponto de vista da responsabilização.
A tecnologia de detecção por estrutura óssea é um passo concreto. O ECA Digital é um avanço legislativo real e necessário. Mas ambos respondem a um problema que começa antes: plataformas construídas sobre modelos de negócio que dependem de maximizar tempo de tela, incluindo o das crianças. Enquanto essa equação não mudar, a inteligência artificial será sempre uma resposta tardia a uma arquitetura de risco que a própria indústria projetou. O debate que a Bett inaugurou sobre inteligências que dialogam para transformar a educação precisa incluir, com urgência, a pergunta sobre quem protege as crianças do modelo que as transforma em produto.
