Em tramitação no Congresso Nacional, o Projeto de Lei 2.338/2023, do senador Rodrigo Pacheco (PSD/MG), dispõe sobre o uso da inteligência artificial. A medida se assemelha com ‘AI Act’ da União Europeia, sobretudo a categorização de graus e riscos.
“Enquanto Estados Unidos e China aceleram na corrida da inteligência artificial com forte incentivo estatal, a União Europeia tenta exercer o papel de ‘regulador do mundo’, exportando normas com impacto extraterritorial”, afirma Daniel Marques, presidente da AB2L (Associação Brasileira de Lawtechs e Legaltechs).
“Conseguiu isso com o GDPR, que inspirou a LGPD brasileira, mas não obteve o mesmo êxito com o AI Act”, complementa o executivo.
Para ele, o excesso de regras começa a travar a própria competitividade europeia. “O Brasil está diante de uma encruzilhada: seguir o caminho da vanguarda ou repetir o roteiro da dependência tecnológica. Copiar modelos regulatórios prontos — sem considerar nossa realidade — é abrir mão da chance de liderar o jogo global”, diz Marques.
Segundo o advogado Vitor Yeung, do Ciari Moreia Advogados, em termos gerais, a iniciativa legal brasileira partiu da mesma premissa estruturante adotada pela União Europeia: uma abordagem baseada no risco.
Essa abordagem, considera Yeung, parte de um princípio claro: não é a tecnologia em si que é regulada, mas os seus usos e os riscos que ela pode gerar às pessoas e à sociedade.
Nesse sentido, o foco se desloca do desenvolvimento econômico da IA como fim autônomo para a proteção aos direitos como finalidade central, como a proteção à pessoa humana, dados pessoais, direito do consumidor, direito autoral, entre outros.
O texto atual veda o desenvolvimento de sistema com risco excessivo que avalie, por exemplo, “os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crimes, de infrações ou de reincidência” .
Por outro, sistema de IA com alto risco são permitidos, observadas as regras do projeto de lei, bem como as medidas de governança aplicáveis.
AVANÇOS
Para Vitor Yeung, um dos avanços relevantes trazidos pelo projeto de lei foi o estabelecimento de contornos jurídicos claros e específicos para a remuneração de titulares de direitos autorais pela utilização de obras protegidas em processos de mineração de dados, treinamento e desenvolvimento de sistemas de inteligência artificial.
Ao mesmo tempo, ele diz que o texto respeita a liberdade contratual entre as partes e contribui para a segurança jurídica, inserindo o Brasil de forma qualificada na discussão global sobre regulação da IA.
“Como exceção, as obras protegidas poderão ser usadas para pesquisa, ensino e preservação cultural por instituições como museus e bibliotecas, desde que sem fins comerciais ou concorrência com a obra original”, diz Yeung. “Essa previsão é bem-vinda (não estava previsto no texto original), uma vez que esse tema já foi objeto de discussões jurídicas nos Estados Unidos”, diz complementa o advogado.
NO MUNDO
No que se refere ao contexto fora do Brasil, o especialista lembra que os Estados Unidos não possuem, atualmente, uma legislação federal abrangente sobre o uso ou desenvolvimento da inteligência artificial.
Em janeiro, o presidente Donald Trump adotou uma abordagem mais permissiva ao revogar a ordem executiva de Joe Biden sobre uso seguro e confiável da IA, substituindo-a por uma nova diretriz que prioriza a liderança global dos EUA em IA. No entanto, ainda não está claro o impacto completo das mudanças, já que muitas políticas anteriores permanecem em vigor.
“Como prós, vejo que a intenção norte-americana é, em tese, tornar a regulação mais leve e flexível, adaptado ao setor, estimulando inovação e crescimento do setor de tecnologia”, afirma Yeung. “Como contra, enxergo uma ausência de regras unificadas que gera insegurança jurídica e abre espaço para potenciais violações de direitos, diante da falta de salvaguardas legais claras”, destaca o advogado.
Para ele, esse falta de clareza já vem provocando disputas jurídicas relevantes, como as ações judiciais movidas contra a OpenAI (criadora do ChatGPT) pelo New York Times e Authors Guild, grupo norte-americano representando autores renomados como George RR Martin (conhecido pelas ‘Crônicas de Gelo e Fogo’) e John Grisham (conhecido pela ‘A Firma’ e ‘O Dossiê Pelicano’).
Na União Europeia , por sua vez, existe o ‘AI Act’, que foi publicado em 12 de julho de 2024 e entrou em vigor em 1º de agosto de 2024.
“Neste caso, há uma forte proteção aos direitos fundamentais, cujo modelo é baseado na categorização dos graus de riscos, tendo obrigações proporcionais a estes. No entanto, o modelo pode, em tese, inibir a inovação e afastar empresas do mercado europeu e aumentar o custo de conformidade, especialmente para startups do setor”, avalia o advogado.
Para Marques, o Brasil tem um trunfo que poucos países possuem: uma das matrizes energéticas mais limpas do planeta, um território com potencial para ser o berço de data centers globais, uma população criativa e um ecossistema de inovação jurídica que pode combinar segurança com liberdade para inovar.
“Em vez de importar burocracia, o Brasil deveria exportar inteligência. Isso exige uma regulação enxuta, baseada em princípios claros, descentralizada, que incentive pesquisa, atraia investimentos, forme talentos e estimule parcerias estratégicas”, diz Marques.
“A pergunta é direta: vamos apenas consumir a IA dos outros ou construir a nossa própria soberania digital? Seremos protagonistas ou meros espectadores da nova revolução?”, questiona o executivo.