Crianças, redes sociais e inteligência artificial: estamos enfrentando o problema certo?

O debate sobre a proibição do uso de redes sociais por crianças e adolescentes deixou de ser um tema restrito às famílias. Tornou-se pauta legislativa, regulatória e institucional. A preocupação não é abstrata. Ela decorre da constatação de que o ambiente digital, tal como estruturado hoje, opera a partir de uma lógica que prioriza retenção de atenção, coleta de dados e maximização de engajamento.

Quando adultos já enfrentam dificuldades para compreender e administrar essa dinâmica, a presença massiva de crianças nesse ecossistema naturalmente desperta preocupação.

A pergunta que se impõe é direta: restringir o acesso resolve o problema?

A discussão não surgiu do nada. Recentemente, o Brasil também enfrentou intenso debate sobre a proibição do uso de celulares nas escolas. A promulgação da Lei nº 15.100/2025 reacendeu questionamentos sobre concentração, aprendizagem e convivência social no ambiente escolar.

O argumento central era semelhante ao atual, dispositivos conectados, inseridos em ambientes estruturados para capturar atenção, interferem na formação cognitiva e na socialização presencial.

Em ambos os casos, o foco não é o aparelho isoladamente, mas o ecossistema digital que o acompanha. Proibir o celular em sala de aula não elimina a lógica de engajamento das plataformas. Da mesma forma, impedir o acesso formal às redes sociais não altera o modelo econômico que transforma atenção, inclusive infantil, em ativo estratégico.

A semelhança entre os debates revela algo maior, estamos tentando impor limites institucionais a tecnologias que avançaram mais rápido do que nossa capacidade regulatória e pedagógica de as assimilar.

A Austrália decidiu agir de forma direta, proibiu o acesso de menores de 16 anos às redes sociais e transferiu às plataformas o dever de implementar mecanismos eficazes de verificação etária. A mensagem regulatória é clara. Empresas que estruturam seus modelos de negócio a partir da exploração de dados e do engajamento contínuo devem assumir responsabilidade proporcional ao impacto que produzem.

A medida parte de uma premissa objetiva, se o ambiente é estruturalmente arriscado, o ingresso deve ser limitado.

Na França, a abordagem adotou outra ênfase. A Commission nationale de l’informatique et des libertés desenvolveu o FantomApp, ferramenta voltada a adolescentes que demonstra como informações aparentemente simples podem circular, serem replicadas e utilizadas fora do contexto original.

A estratégia francesa aposta na alfabetização digital como instrumento de proteção. Ao tornar visível a lógica de circulação de dados, busca fortalecer a percepção de risco. Parte do pressuposto de que compreender o funcionamento do ambiente digital também é forma de proteção.

As duas iniciativas revelam caminhos distintos, mas complementares, restrição e educação.

No Brasil, a Lei nº 15.211/2025 (ECA Digital) reforça deveres das plataformas no ambiente online, especialmente quanto à proteção de crianças e adolescentes. A norma reconhece a vulnerabilidade do público infantojuvenil e impõe obrigações relacionadas à mitigação de riscos e à verificação etária.

O país acompanha, assim, o movimento internacional de exigir maior responsabilidade das empresas de tecnologia.

Mas a implementação dessas medidas suscita dilemas relevantes. Para verificar idade, será necessário tratar mais dados. Em alguns casos, dados sensíveis. Surge uma tensão evidente, o instrumento criado para proteger pode ampliar o tratamento de informações pessoais.

Além disso, a efetividade técnica é incerta. Restrições formais podem ser contornadas com relativa facilidade. A experiência demonstra que adolescentes frequentemente encontram alternativas quando o acesso é simplesmente bloqueado.

É preciso enfrentar uma questão menos confortável. Redes sociais não são espaços neutros. Elas são projetadas para maximizar tempo de permanência, estimular interação constante e gerar dados.

Esse desenho influencia comportamento. Impacta autoestima, percepção de pertencimento e construção de identidade, especialmente durante a adolescência.

A discussão, portanto, ultrapassa a questão da idade mínima. É sobre compatibilidade entre modelo de negócios e fase de desenvolvimento.

Se a base econômica do sistema permanece inalterada, a proibição pode reduzir entrada formal, mas não altera a estrutura que produz os riscos.

A popularização das ferramentas de inteligência artificial adiciona nova camada de complexidade. Crianças e adolescentes utilizam sistemas de IA para estudar, criar conteúdos e interagir. A tecnologia é percebida como extensão natural da experiência digital.

Nesse contexto, informações pessoais são frequentemente compartilhadas sem plena compreensão sobre armazenamento, reutilização ou circulação. Além da exposição de dados, surgem riscos adicionais como criação de imagens sintéticas ofensivas, manipulação de identidade por meio de deepfakes e reforço de padrões comportamentais por sistemas altamente persuasivos.

A vulnerabilidade torna-se ampliada. Não se limita às redes sociais, mas se estende às novas camadas tecnológicas que se integram ao cotidiano.

Restringir o acesso pode reduzir exposição precoce e sinalizar responsabilidade institucional. É medida relevante. Mas dificilmente será suficiente de forma isolada.

Proteção efetiva exige combinação de fiscalização consistente, desenho tecnológico orientado à mitigação de riscos, educação digital contínua e responsabilidade empresarial proporcional ao impacto das plataformas.

Talvez a pergunta mais importante não seja se devemos proibir. Talvez seja se estamos dispostos a revisar a lógica que transforma atenção infantil em ativo econômico.

A discussão sobre redes sociais, celulares nas escolas e inteligência artificial não trata de idade mínima ou tempo de tela. Trata do tipo de ambiente digital que consideramos aceitável para quem ainda está em formação.

Artigo Anterior

Colômbia terá candidatura indígena baseada em IA nas eleições

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *