Infância conectada: IA amplifica ameaças ocultas

Com uma infância e adolescência cada vez mais conectada, cresce a preocupação com o impacto da tecnologia nessa fase da vida. Se antes, a preocupação era centrada em “conversar com estranhos” ou evitar conteúdo impróprio, hoje os perigos digitais são silenciosos, automatizados e personalizados por algoritmos de Inteligência Artificial.

Em resposta a esse cenário, o Brasil aprovou esse ano o ECA Digital dispondo sobre a proteção de criança e adolescentes em ambiente digitais. O objetivo é harmonizar o princípio do melhor interesse infantil com o Estatuto da Criança e do Adolescente (ECA) e a LGPD, tornando a segurança parte intrínseca do funcionamento dos serviços digitais. 

Para tratar do tema sob a ótica da proteção digital no ambiente doméstico, o Portal Intelligence. Garden conversou com Luiza Dias, Diretora Presidente da GlobalSign Brasil e especialista em cibersegurança.

Ela destaca que, embora o diálogo com crianças e adolescentes continue sendo essencial, os pais também podem — e devem — adotar medidas práticas que reforcem a segurança no âmbito familiar. Segundo a especialista, além dos perigos clássicos da internet, como golpes ou exposição a desconhecidos, crianças agora enfrentam riscos menos visíveis, agora potencializados pela IA.

“Um exemplo é o chamado efeito túnel, em que algoritmos de recomendação direcionam a criança para uma sequência de conteúdos cada vez mais específicos, capazes de normalizar comportamentos nocivos, reforçar estereótipos ou estimular desafios perigosos. No ambiente digital a ameaça não reside apenas na interação direta com terceiros, mas na forma como a própria tecnologia estrutura, influencia e molda as percepções e escolhas infantis”, afirma.

Some-se a isso a coleta invisível de dados realizada por brinquedos inteligentes, assistentes de voz e outros dispositivos conectados, que registram voz, localização, hábitos e preferências sem pleno conhecimento dos responsáveis, construindo um perfil digital precoce e permanente.

“Dessa forma, os novos perigos não são necessariamente visíveis ou externos, mas embutidos no design de plataformas e dispositivos, o que impõe a necessidade de atualizar e sofisticar as estratégias de proteção infantil para um cenário digital invisível, mas profundamente influente”, diz.

Segundo a especialista, esse perfil digital é permanente, o que significa que mesmo que os pais não vejam essas informações, estas ficam armazenadas e podem ser usadas comercialmente ou exploradas no futuro.

Luiza Dias, Diretora Presidente da GlobalSign Brasil

Tempo de tela também é risco de segurança

Luiza Dias explica que o debate sobre o uso excessivo de telas na infância costuma girar em torno dos efeitos psicológicos e no desenvolvimento cognitivo das crianças com implicações de longo prazo. Mas, para a cibersegurança, há uma dimensão mais profunda, com implicações de longo prazo igualmente preocupantes.

“Cada hora conectada amplia a chamada pegada digital, isto é, o conjunto de informações (muitas vezes pessoais e sensíveis) que ficam registradas em plataformas, aplicativos, jogos e dispositivos inteligentes. Esse rastro, formado desde cedo, pode incluir preferências de consumo, padrões de comportamento, dados de geolocalização, interações sociais e até características emocionais inferidas por algoritmos”.

Ao longo do tempo, tais informações constroem um perfil digital detalhado e permanente, suscetível à exploração comercial abusiva, à manipulação por campanhas de desinformação ou, em cenários mais críticos, ao uso malicioso em ataques direcionados, como engenharia social. “Diferentemente do mundo físico, em que rastros podem ser apagados ou esquecidos, no ambiente digital os registros são duradouros e acumulativos, tornando crianças e adolescentes potenciais alvos no futuro, quando já estiverem na idade adulta”.

Escolas também são responsáveis pelo cumprimento da LGPD

O uso crescente de plataformas educacionais com IA coloca outra frente de atenção. Pela Lei Geral de Proteção de Dados (LGPD), a escola é legalmente responsável pelo tratamento das informações dos alunos.

Na prática, isso significa que os pais devem estar atentos a três ações principais ao escolher uma instituição de ensino:

1) Checar antes de contratar: a escola deve exigir das empresas explicações claras sobre como os dados serão usados, se eles são apagados depois e se não vão parar em campanhas de marketing;

2) Acompanhar de perto: fazer testes de segurança, pedir relatórios sobre como os algoritmos funcionam, verificar se não existem vieses (como tratamento desigual entre alunos) e garantir que haja registros de quem acessou os dados;

3) Criar regras internas: treinar professores e gestores para usar a tecnologia de forma consciente, explicar para pais e alunos como os dados são tratados e ter canais de comunicação abertos para dúvidas e reclamações.

“Ou seja, não basta só instalar a plataforma: a escola precisa atuar como guardiã da privacidade e da ética, garantindo que a tecnologia realmente ajude os alunos, sem colocar em risco sua segurança ou expor informações pessoais”, diz Luiza.

Empresas de tecnologia: autorregulação não dá conta

Com o avanço acelerado da IA, o modelo baseado apenas em boas práticas das empresas é insuficiente. A especialista defende que plataformas voltadas para o público infantil sigam o princípio de segurança desde a concepção do produto (security by design), com regras rígidas e fiscalização constante.

A autorregulação por interesse próprio, na opinião da especialista, também não é suficiente, porque o avanço da tecnologia exige atualização constante da legislação e fiscalização contínua para garantir que plataformas sigam padrões éticos e seguros.

“Além disso, é fundamental exigir identidades digitais verificadas tanto para quem cria quanto para quem usa essas plataformas, reduzindo riscos de perfis falsos, manipulação e assédio de menores”, aponta.

IA generativa: o próximo grande desafio já começou

A inteligência artificial não cria riscos inéditos, mas torna os perigos digitais muito mais difíceis de perceber e controlar. Isso porque a interação das crianças não é mais apenas com pessoas, e sim com sistemas inteligentes que operam de forma automatizada e opaca, dificultando a supervisão dos pais.  

Ela também identifica padrões de consumo e emoções, permitindo anúncios e jogos manipulatórios voltados diretamente para menores — que não têm maturidade para perceber a intenção.

 O avanço das ferramentas de IA que criam textos, áudios, imagens e vídeos realistas abre uma nova frente de ameaças para as crianças e adolescentes. Deepfakes infantis, conteúdos manipulados e golpes direcionados devem aumentar.

Para enfrentar essa nova fase, Luiza recomenda combinar diálogo com medidas práticas, como controles parentais, redes segmentadas e revisão de permissões. Na sua visão, escolas e empresas têm papel central ao assegurar que as plataformas de aprendizagem sejam seguras desde a concepção, com identidades digitais verificadas para usuários e criadores. Isso garantirá transparência e reforçará a importância das identidades nas comunicações para reduzir riscos de manipulação e perfis falsos.  

“Para se antecipar, precisamos de educação digital, fiscalização constante e ferramentas tecnológicas de proteção, trabalhando juntos para que crianças e adolescentes usem a internet de forma segura e consciente”, alerta.

Medidas técnicas que funcionam como primeira barreira

Luiza Dias reconhece que muitos pais se sentem tecnicamente despreparados diante do universo digital.  Por sua vez, além do diálogo, que continua sendo a principal forma de proteção, ela menciona três medidas técnicas relativamente simples, mas altamente eficazes, que podem ser implementadas em casa para criar uma primeira barreira de segurança. São elas:

Controles parentais e filtros de conteúdo: Usar recursos nativos de celulares, TVs, jogos, roteadores e plataformas para limitar acesso e definir horários.

Segmentação da rede doméstica: Criar redes separadas para dispositivos infantis e smart devices, reduzindo a exposição e dificultando a coleta de dados

Gestão ativa da privacidade: Rever permissões de apps. Desativar assistentes de voz quando não usados. Manter sistemas e softwares atualizados

Artigo Anterior

Com apoio da IA, jurimetria avança e muda a prática jurídica no Brasil

Próximo Artigo

Serpro lança curso gratuito sobre inteligência artificial no setor público

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *