Inteligência Artificial: regular ou não? O dilema que redefine o século XXI

Assim como em outros países, o debate sobre a regulação da Inteligência Artificial no Brasil busca equilibrar a proteção de direitos fundamentais com o fomento à inovação tecnológica. Trata-se de um desafio complexo.

De um lado, há quem defenda a criação de regras claras, capazes de reduzir riscos, proteger a privacidade dos usuários e garantir direitos autorais. De outro, setores mais críticos alertam para os perigos de uma regulação excessivamente burocrática, que poderia dificultar a entrada de startups no mercado e até comprometer a liberdade de expressão. O grande desafio, portanto, é construir um marco regulatório que combine segurança jurídica com flexibilidade, promovendo a inovação de forma ética e responsável.

Foi a União Europeia quem saiu na frente e aprovou o primeiro marco legal com regras específicas para o uso e desenvolvimento da inteligência artificial, adotando uma abordagem baseada em risco. Países como China e Reino Unido também avançam em propostas próprias de regulação, refletindo o esforço global para acompanhar o ritmo acelerado da inovação tecnológica. Nos Estados Unidos, o governo de Donald Trump defende uma política de menor intervenção regulatória.

No Brasil, o debate ganha força com a tramitação no Senado Federal do Projeto de Lei 2.338/2023. A proposta busca estabelecer diretrizes para o desenvolvimento e uso ético da IA, priorizando a centralidade da pessoa humana e a proteção dos direitos fundamentais em meio aos avanços tecnológicos.

Para enriquecer o debate, o Portal Intelligence.Garden ouviu duas opiniões divergentes sobre a proposta de regulamentação da IA. Cleber Brito, diretor de Segurança e Tecnologia da Informação na Foundever vê com preocupação a ideia de confiar exclusivamente na autorregulação das empresas. Para ele, a regulação estatal é indispensável e não pode ser substituída, especialmente diante dos riscos sociais, éticos e de segurança trazidos pela inteligência artificial.

Em posição oposta, Moritz Neto, especialista em empreendedorismo, IA e fundador da Unfair Advantage, defende a autorregulação. Segundo ele, as empresas que desenvolvem tecnologia estão mais aptas a compreender seu funcionamento e impacto real, algo que, em sua visão, o Estado dificilmente conseguiria acompanhar com a mesma agilidade e profundidade técnica.

Confira a íntegra entrevista:

1 – Como garantir a proteção dos direitos fundamentais se deixarmos que as próprias empresas façam a autorregulação de seus sistemas de IA?

Cleber Brito: Sinceramente, vejo com preocupação a ideia de confiar exclusivamente na autorregulação das empresas. Mesmo que algumas tenham boas práticas, é natural que interesses comerciais acabem se sobrepondo à proteção de direitos. Por isso, acredito que o Projeto de Lei acerta ao propor um modelo que combina fiscalização pública, padrões obrigatórios e mecanismos de responsabilização. A autorregulação pode complementar, mas jamais substituir a regulação estatal quando falamos de direitos fundamentais.

Moritz Neto: Empresas que constroem tecnologia têm muito mais capacidade de entender seu funcionamento e impacto do que qualquer entidade estatal. A autorregulação permite velocidade, adaptação e responsabilidade prática. Criar um ambiente de desconfiança institucionalizada contra o setor privado pode atrasar soluções que beneficiam diretamente a população. O ideal é um modelo de soft regulation com diretrizes claras, mas flexíveis, e não uma camisa de força legal que não acompanha o ritmo da tecnologia.

2. Quais seriam os riscos de concentrar o poder tecnológico nas mãos de poucas Big Techs se não houver regras claras que limitem seus modelos mais avançados?

Cleber Brito: O risco é enorme — e já é perceptível. Sem regras claras, essas empresas tendem a ditar o ritmo, os padrões e os limites da tecnologia, muitas vezes sem prestar contas. Isso cria uma desigualdade estrutural que afeta desde o mercado até a democracia. A regulação é uma forma de garantir que o avanço tecnológico seja feito com transparência, inclusão e respeito à soberania nacional. Não se trata de limitar a inovação, mas de impedir que ela se torne uma ferramenta de dominação.

Moritz Neto: O risco maior não é a concentração, mas a estagnação. As Big Techs chegaram onde estão porque inovaram mais rápido. Criar barreiras artificiais para conter esse avanço pode parecer justo no papel, mas, na prática, só limita o progresso tecnológico. A melhor forma de combater a concentração é com mais inovação, não com freios. Startups e países emergentes precisam de liberdade para competir, não de regulações que já nascem com viés pró-burocracia.

3. Se a inovação for sempre colocada acima da segurança, como lidaremos com falhas graves ou usos abusivos da IA antes que causem danos irreversíveis?

Cleber Brito: Essa é uma das questões mais sensíveis para mim. Inovação é essencial, mas não pode vir desacompanhada de responsabilidade e precaução. A ausência de mecanismos de controle pode levar a consequências irreversíveis, especialmente em áreas como saúde, segurança pública ou finanças. O projeto de lei tenta criar esse equilíbrio ao classificar os sistemas de IA por grau de risco — o que me parece um caminho inteligente, desde que haja fiscalização ativa e participação social no processo.

Moritz Neto: Inovação e segurança não são opostos, mas segurança exagerada costuma virar desculpa para travar o novo. A história mostra que o progresso vem do risco bem calculado, não da tentativa de controle absoluto. Se esperarmos que tudo seja 100% seguro antes de lançar, não lançamos nada. A regulação deve focar em consequência, não em previsão. Só quem está no front consegue ajustar o que realmente importa com agilidade.

4. O argumento de que a regulação sufoca startups não seria também uma forma de proteger o domínio das grandes empresas que já têm poder e infraestrutura para operar sem regulação?

Cleber Brito: Essa pergunta é muito pertinente. Me incomoda quando o discurso de “liberdade para inovar” é usado seletivamente. As grandes empresas já operam com estruturas jurídicas robustas e conseguem se adaptar a exigências regulatórias com mais facilidade. Muitas vezes, são justamente as startups que mais precisam de regras claras, para competir de forma justa. O projeto de lei, se bem implementado, pode inclusive nivelar o campo de jogo, garantindo que inovação e ética caminhem juntas, independentemente do tamanho da empresa.

Moritz Neto: É justamente o contrário. São as regulações complexas e excessivas que criam uma barreira de entrada quase intransponível para startups. Grandes empresas têm departamentos jurídicos e recursos para navegar isso. Startups não. O discurso da “regulação justa” muitas vezes acaba blindando quem já está no topo e tornando a competição impossível para quem está começando. O que protege o pequeno é menos regulação, não mais.

5. Por que deveríamos confiar que empresas com interesses comerciais prioritários vão, por vontade própria, respeitar princípios éticos e direitos humanos?

Cleber Brito: Não deveríamos. A história da tecnologia mostra que avanços sem regulação raramente priorizam o bem-estar coletivo. Acredito que princípios éticos e direitos humanos só serão respeitados de forma consistente quando estiverem previstos em lei e passíveis de sanção em caso de descumprimento. Confiança é importante, mas precisa ser acompanhada de transparência, fiscalização e penalidade real. O projeto de lei traz essa perspectiva e, por isso, tem meu apoio.

Moritz Neto: Porque elas precisam. Em mercados competitivos, confiança e reputação são ativos de altíssimo valor. Nenhuma empresa séria constrói algo relevante hoje ignorando ética ou responsabilidade. Além disso, as consequências sociais de erros graves já existem via mídia, consumidores e opinião pública. Não precisamos de um aparato regulatório estatal inchado pra algo que o próprio mercado já corrige, com muito mais rapidez e precisão.

6. Como equilibrar o direito à liberdade de expressão com a necessidade de responsabilizar algoritmos que amplificam desinformação ou discurso de ódio?

Cleber Brito: Essa é uma fronteira delicada. Sou a favor da liberdade de expressão, mas reconheço que os algoritmos têm um papel ativo na amplificação de conteúdo nocivo, muitas vezes sem supervisão humana direta. O equilíbrio, para mim, passa por transparência nos critérios de ranqueamento e moderação, além de mecanismos de contestação acessíveis. O projeto de lei, ao tratar da responsabilidade proporcional e da supervisão dos sistemas, dá um primeiro passo nessa direção, mas é preciso acompanhar de perto sua aplicação.

Moritz Neto: O risco aqui é claro: começar responsabilizando algoritmos e terminar censurando pessoas. Liberdade de expressão é um princípio que precisa ser preservado mesmo diante de imperfeições. Deixar governos ou agências decidirem o que pode ou não ser amplificado é abrir caminho pra censura subjetiva, hoje é discurso de ódio, amanhã é opinião impopular. A solução está na educação digital e em ferramentas de moderação transparentes, não em controle centralizado.

7. Qual a responsabilidade das empresas de IA no uso de obras protegidas por direitos autorais se não houver transparência sobre os dados usados no treinamento?

Cleber Brito: Na minha visão, a responsabilidade é direta. Se a IA foi treinada com obras protegidas, sem autorização ou compensação, isso deve ser tratado como violação de direitos autorais. A falta de transparência nos dados usados mina a confiança nos modelos e prejudica toda uma cadeia criativa e intelectual. Apoio a exigência de registro público ou auditável dos dados de treinamento para que esse tipo de uso seja identificado e corrigido.

Moritz Neto: A exigência de transparência total sobre datasets pode inviabilizar modelos e travar a inovação em larga escala. IA moderna aprende com bilhões de dados, exigir consentimento explícito ou rastreabilidade perfeita é, na prática, dizer que só quem tiver bilhões pra treinar vai conseguir competir. Isso congela o ecossistema. O foco deveria estar em uso final (output), e não em bloquear o aprendizado da máquina. Quem usa IA comercialmente já está exposto ao risco legal do que entrega.

8. Em que medida a ausência de regulamentação pode transformar os cidadãos em “testadores involuntários” de tecnologias ainda instáveis ou enviesadas?

Cleber Brito: Infelizmente, essa já é a realidade em muitos contextos. Sem regulação, somos expostos a sistemas de IA que não passaram por testes rigorosos ou que carregam viéses estruturais perigosos — e muitas vezes sem sequer sabermos disso. A regulamentação é essencial para proteger o cidadão desse papel forçado de cobaia. O projeto de lei traz essa preocupação ao exigir testes, validações e classificações de risco, o que considero um grande avanço.

Moritz Neto: Toda tecnologia emergente nasce sendo testada no mundo real, foi assim com a internet, com o smartphone, com o carro. E é assim que ela evolui. O que precisamos é de feedback rápido e adaptação contínua, não de um comitê estatal dizendo o que pode ou não ser testado. Chamar isso de “teste involuntário” ignora que a sociedade escolhe, adere, testa e abandona tecnologias naturalmente. O mercado corrige. O excesso de regulação só atrasa essa correção.

Artigo Anterior

OpenAI lançará primeiro centro de dados de IA na Europa

Próximo Artigo

Júri decide que Meta violou as leis de privacidade da Califórnia

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *