Governança da IA desafia conselhos no setor público e privado

A rápida adoção da inteligência artificial (IA) no mundo corporativo e no setor público está forçando Conselhos de Administração a repensar seu papel. Mais do que uma tendência tecnológica, a IA já é fator de impacto direto na estratégia, na reputação e no valor das organizações. Mas como um Conselho deve se estruturar para lidar com essa nova realidade?

Em entrevista ao Portal Intelligence.Garden, o especialista em governança e presidente do Conselho de Administração da Companhia Paulista de Trens Metropolitanos (CPTM), Alexandre Motonaga, falou sobre os desafios e as responsabilidades na supervisão da IA, propondo medidas práticas para fortalecer a governança. Para ele, um passo essencial é inserir conselheiros com conhecimento sólido em tecnologia e transformação digital.

Um outro ponto importante, segundo ele, é mapear – na medida do possível – os riscos envolvidos na IA, o que de certa forma demandaria inclusive trazer profissionais de fora da empresa.

Para isso, defende que funcionários só insiram dados corporativos em plataformas de IA que ofereçam garantias contratuais e técnicas de privacidade e segurança, como IAs internas (on-premises) ou soluções contratadas sob cláusulas específicas de confidencialidade.

“Já é um ponto de atenção evitar que se coloque informações corporativas em IAs abertas, permitindo apenas inserir dados da empresa em IAs que garantam a privacidade e sigilo”, alerta.

O presidente defende a criação de políticas internas específicas sobre o uso de IA, revisadas constantemente, e a atualização do código de conduta para contemplar cenários envolvendo a tecnologia. Dependendo do setor, o acompanhamento pelo Conselho deve ser frequente — até mensal. Na sua visão, o comitê de ética deve estar preparado para analisar casos relacionados ao tema, observado a política e o código de conduta.

Para Motonaga, o Conselho não deve ver IA apenas como risco a ser controlado, mas também como oportunidade estratégica a ser explorada. “O papel do Conselho deve ser o de guardião da governança em uma empresa, mas ele deve também determinar e acompanhar a utilização da IA como instrumento para alcançar os objetivos estratégicos da organização, o que demandaria um outro enfoque”, aponta.

Dilemas éticos e segurança psicológica
E quando um funcionário se depara com um resultado gerado por IA que pareça discriminatório?

“Nesse caso, o colaborador deve inicialmente consultar o Código de Conduta e a Política Interna da empresa sobre o tema e, caso a orientação não esteja clara, deve dirigir-se ao governance officer, que encaminhará a questão ao Conselho de Administração, ou, caso exista, a um comitê de ética”, pontua Alexandre Motonaga.

Garantir que colaboradores possam reportar problemas éticos relacionados à IA sem medo de retaliação é outro dilema a ser enfrentado.

Para isso, a cultura organizacional deve promover segurança psicológica, um ambiente onde o diálogo aberto e transparente seja valorizado. Políticas claras, canais confidenciais de comunicação e o suporte constante da alta liderança são essenciais para que os funcionários se sintam protegidos ao apontar possíveis falhas ou vieses em sistemas de IA.

Em relação à segurança psicológica, Motonaga vai além: “A segurança psicológica deve fazer parte da cultura organizacional saudável e se aplicar a qualquer situação e não apenas às relacionadas à IA. O clima de segurança psicológica deve existir em todas as situações da organização”, pontua.

Due diligence e a “caixa-preta” da IA

Sobre tecnologias de missão crítica — como análise de crédito ou diagnósticos médicos — que funcionam como “caixas-pretas”, Motonaga é categórico: “adotar modelos assim sem entender riscos é falha de diligência”.

Tecnologias de missão crítica” são sistemas de IA cujo erro pode gerar grandes prejuízos financeiros, danos à reputação ou impactos diretos na vida das pessoas — como um algoritmo que decide a aprovação de crédito ou que sugere diagnósticos médicos.

E “caixa-preta” significa que não é possível entender claramente como o algoritmo chega à sua decisão (falta de transparência).
“Acho que o modelo não deve ser adotado de forma indiscriminada. Caso se adote sem cuidados, na minha opinião, faltou a ‘devida diligência’. Caso eu esteja em um conselho de uma fábrica, não vou produzir um produto que coloque em risco meus clientes”, exemplifica.

Portanto, na avaliação do gestor, se uma IA de missão crítica causar um grande prejuízo, significa que Conselho assumiu conscientemente um risco alto ou não fez a devida diligência para entender o risco real.

“Em outras palavras, o desenvolvimento da IA deve ser responsável. Não se deve ter pressa em detrimento da segurança e possíveis prejuízos a sociedade”, diz.

Próximo nível: governança de dados

Com a governança básica (qualidade, segurança, LGPD) estabelecida, o próximo passo é extrair valor estratégico dos dados. O uso de dados sintéticos, – gerados artificialmente por computador que reproduzem padrões de dados reais sem conter informações verdadeiras – ajuda a preservar a identidade das fontes e a reduzir riscos, mas requer validação rigorosa para evitar distorções que possam ser amplificadas pela IA. “Ainda assim, deve existir um cuidado, ou mesmo, uma verificação rigorosa dos dados sintéticos, pois eventual distorção vai ser reproduzida e ampliada”.

Capacitação e setor público

Capacitar conselheiros e diretores sobre IA é prioridade e responsabilidade individual. Na prática, Alexandre Motonaga sugere combinar três formatos: “workshops de imersão com especialistas, reuniões e um glossário de IA complementados por videoaulas e textos sobre o assunto.”

No setor público, o equilíbrio entre eficiência e transparência é ainda mais sensível. Portanto, essa capacitação deve ser mais abrangente. “O gestor dever ter consciência que o seu público é mais amplo e abrangerá toda a sociedade, que é a sua “clientela”.

Métricas humanas e impacto social

Para além do retorno financeiro (ROI), Alexandre Motonaga defende que o Conselho exija a realização de pesquisas de clima organizacional após a implementação da IA avaliando aspectos como a requalificação dos funcionários e a satisfação com as novas ferramentas.

Ele também destaca a importância da troca contínua de aprendizados e boas práticas, além do desenvolvimento de pesquisas e estudos conduzidos por instituições acadêmicas, consultorias especializadas e entidades como o IBGC (Instituto Brasileiro de Governança Corporativa).


Artigo Anterior

OpenAI lança GPT-5 com promessa de mais precisão e velocidade

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *