Encerrar o ano falando sobre inteligência artificial deixou de ser um exercício de futurologia e passou a ser um esforço de leitura do presente. Ao longo de 2025, a governança de IA deixou de ocupar somente os documentos programáticos e debates acadêmicos para se materializar em leis, políticas públicas, frameworks regulatórios e estruturas institucionais cada vez mais concretas. O que se observa, ao final deste ciclo, não é a consolidação de um modelo único, mas a formação de um mosaico regulatório global que revela prioridades, riscos percebidos e estratégias distintas de cada jurisdição.
A principal convergência entre os diferentes países analisados é a adoção de abordagens baseadas em risco. Independentemente do grau de intervenção estatal, a classificação dos sistemas de IA conforme seu potencial impacto social, econômico e jurídico tornou-se um eixo estruturante da governança. Essa lógica se reflete tanto em legislações mais robustas quanto em modelos principiológicos, orientando obrigações de avaliação prévia, documentação, supervisão humana, monitoramento contínuo e mecanismos de responsabilização ao longo de todo o ciclo de vida dos sistemas.
A União Europeia segue ocupando posição central nesse debate ao implementar o AI Act, primeiro regime jurídico abrangente dedicado exclusivamente à inteligência artificial. A norma consolida uma arquitetura regulatória que combina proibições, obrigações graduadas e deveres específicos para sistemas de alto risco e modelos de propósito geral, além de dialogar diretamente com o GDPR, o Data Act e outras normas do ecossistema digital europeu. Além de criar novas categorias jurídicas, o modelo europeu reforça a ideia de que a IA deve ser tratada como um fenômeno regulatório integrado, e não isolado.
Em contraste, outras jurisdições optaram por caminhos mais incrementais. Reino Unido, Japão e Singapura exemplificam abordagens baseadas em princípios, diretrizes setoriais e soft law, com forte protagonismo de autoridades reguladoras já existentes. Nesses contextos, a ausência de uma lei única não significa ausência de governança, mas sim uma aposta deliberada na adaptação de marcos normativos prévios, na interoperabilidade internacional e na responsabilização distribuída entre Estado, setor privado e sociedade. Trata-se de modelos que privilegiam flexibilidade regulatória, mas que exigem maturidade institucional e capacidade de enforcement para evitar lacunas práticas.
Os Estados Unidos, por sua vez, mantêm uma tradição de fragmentação normativa, combinando orientações federais, ordens executivas e um crescente protagonismo dos estados. A regulação de IA avança por temas como discriminação algorítmica, transparência, proteção do consumidor e uso governamental de sistemas automatizados, sem a adoção de um regime federal unificado. Esse cenário produz um ambiente regulatório dinâmico, mas também assimétrico, com impactos diretos sobre empresas globais que precisam lidar com múltiplos padrões simultaneamente.
China e Emirados Árabes representam modelos nos quais a governança de IA está fortemente integrada a estratégias estatais de desenvolvimento econômico, segurança e soberania digital. Nesses países, políticas industriais, regras de dados, segurança cibernética e IA evoluem de forma coordenada, com elevado grau de intervenção governamental e crescente rigor no enforcement. A IA é tratada como infraestrutura estratégica, e não apenas como tecnologia emergente, o que impõe às organizações um alto nível de conformidade regulatória desde a concepção dos sistemas.
Outro ponto comum observado ao longo de 2025 foi o esforço das jurisdições em lidar com os impactos jurídicos indiretos da IA. Questões relacionadas à proteção de dados pessoais permanecem centrais, especialmente no que se refere a decisões automatizadas, explicabilidade, uso secundário de dados e limites ao treinamento de modelos. A propriedade intelectual também ganhou destaque, com debates sobre autoria, originalidade, uso de obras protegidas em bases de treinamento e responsabilidades na exploração econômica de conteúdos gerados por sistemas de IA.
A responsabilidade civil e administrativa por danos causados por sistemas automatizados segue como um dos temas mais sensíveis. Embora algumas propostas específicas tenham sido adiadas ou revistas, cresce a percepção de que regimes tradicionais de responsabilidade precisam ser reinterpretados à luz de sistemas autônomos, adaptativos e, muitas vezes, opacos. Nesse contexto, mecanismos de governança, registros técnicos, auditorias e avaliações de impacto assumem papel central não apenas regulatório, mas também probatório.
O avanço dos sistemas generativos e da chamada agentic AI adicionou mais uma camada de complexidade ao debate. Sistemas capazes de agir de forma autônoma, aprender continuamente e interagir com múltiplos ambientes desafiam modelos regulatórios estáticos. A resposta predominante, até o momento, tem sido enquadrá-los em normas tecnicamente neutras, reforçando a necessidade de monitoramento contínuo, controles de mudança e supervisão humana efetiva, em vez da criação apressada de categorias legais isoladas.
Do ponto de vista institucional, 2025 também foi marcado pela consolidação de estruturas dedicadas à governança de IA. Institutos de segurança, comitês interministeriais, sandboxes regulatórios e guias setoriais indicam uma transição do discurso normativo para a operacionalização da governança. O foco desloca-se da simples edição de normas para a capacidade real de fiscalização, orientação e aplicação proporcional das regras existentes.
Ao final do ano, a principal conclusão é que a governança de inteligência artificial é uma realidade em construção contínua. O desafio que se projeta para os próximos anos não está na criação de novos princípios, amplamente consensuais, mas na sua tradução prática em políticas internas, processos organizacionais, controles técnicos e estratégias jurídicas coerentes. Para o direito digital e para os assuntos de proteção de dados, a IA deixa definitivamente a condição de tema acessório e passa a ocupar posição estrutural na análise de riscos, na conformidade regulatória e na própria definição do papel do direito na mediação entre inovação e proteção de direitos fundamentais.
Que 2026 se inicie com maior maturidade regulatória e com a governança da inteligência artificial avançando de forma cada vez mais consistente e responsável.
