Uso de IA sem supervisão humana gera condenações e multas; entenda

Advogados e consultores podem parar no banco do réus devido à alucinações da inteligência artificial

A inteligência artificial tem sido uma importante aliada nas mais diversas áreas da economia. E não é diferente quando se fala do setor jurídico. Segundo dados do CNJ (Conselho Nacional de Justiça), 45,8% dos tribunais e conselhos em todo o país afirmam utilizar uso de ferramentas de IA Generativa no dia a dia do Poder Judiciário brasileiro.em suas operações.

No início deste ano, inclusive, o CNJ aprovou as novas regras para o uso de tecnologias de inteligência artificial pelo Poder Judiciário, incluindo a previsão de que minutas de decisões judiciais possam ser escritas por meio de ferramentas de IA generativa. Uma vez escritas, tais minutas devem receber “interpretação, verificação e revisão por parte do magistrado”, segundo a resolução. 

Ainda que a redação possa ser gerada artificialmente, o juiz à frente do processo “permanecerá integralmente responsável pelas decisões tomadas e pelas informações nelas contidas”. 

“É importante destacar que ninguém vai ser julgado por robô”, garante o conselheiro Luiz Fernando Bandeira de Mello, que supervisionou a produção da norma, à época da divulgação.

Se por um lado a IA pode contribuir para agilizar os processos, por outro, ela deve ser usada com cautela e sempre com a supervisão profissional. No entanto, nem sempre é isso que acontece.

Nesta segunda-feira (27), Os julgadores da Nona Turma do TRT-MG decidiram, por unanimidade, confirmar sentença do juízo da Vara do Trabalho de Araçuaí, que condenou um trabalhador por litigância de má-fé. A sanção foi aplicada após a constatação de que um texto atribuído a uma súmula do Tribunal Superior do Trabalho não correspondia à realidade, havendo indícios de que teria sido criado por inteligência artificial utilizada pelo advogado.

A suposta súmula foi citada para contestar laudo de perícia médica determinada no processo. Em recurso, o autor alegou que a transcrição incorreta decorria de erro material, sem dolo ou intenção de fraudar o juízo. Argumentou ainda que o uso de inteligência artificial generativa para elaborar peças processuais seria prática legítima e que a falha não teria causado prejuízo à parte contrária.

Mas o desembargador Weber Leite de Magalhães Pinto Filho, relator do caso, rejeitou os argumentos. Para ele, a conduta demonstrou ausência de boa-fé processual e configurou litigância de má-fé, nos termos do artigo 793-B, incisos II e V, da CLT.

Segundo o relator, não se tratou de simples equívoco quanto ao número de uma súmula, mas da criação de conteúdo inexistente, que poderia beneficiar a parte e induzir o juízo a erro. Ele ressaltou que a utilização de ferramentas de inteligência artificial não afasta a responsabilidade da parte pelos termos apresentados em juízo. Destacou ainda que a atuação no Poder Judiciário exige probidade, princípio fundamental que, no caso, foi claramente violado.

Assim, o relator negou provimento ao recurso do trabalhador e manteve a condenação ao pagamento de multa de R$ 1.200, a ser descontada de eventual crédito do autor e revertida à parte contrária. O processo foi enviado ao TST para exame do recurso de revista.

Em outro caso, agora envolvendo um juiz, a Corregedoria-Geral de Justiça do Maranhão abriu sindicância sobre a conduta de um magistrado por suposto ‘uso inadequado de ferramentas de inteligência artificial’ – expediente que inflou acentuadamente a produção do magistrado da 2ª Vara da Comarca de Balsas.

Apuração preliminar da Corregedoria indica que a estratégia do juiz fez saltar sua média de 80 sentenças mensais nos primeiros sete meses de 2024 para 969 em apenas um mês, agosto. Ou seja, um desempenho 12 vezes maior.

Já nos Estados Unidos, um juiz federal ameaçou sancionar dois advogados que citaram um caso fictício em um processo após o uso de um programa de IA que teria “alucinado”.

Recentemente, a Deloitte admitiu ter utilizado inteligência artificial em um relatório entregue com diversos erros e informações inventadas. Diante disso, a consultoria, uma das maiores do mundo, se comprometeu a devolver 440 mil dólares ao governo da Austrália.

Contratada para revisar a estrutura interna dos sistemas de compliance e tecnologia da informação da Assistência Social australiana, a Deloitte entregou o relatório em 4 de julho. No entanto, especialistas perceberam incoerências e dados sem fonte rastreável.

Em agosto, a empresa fez uma revisão e apontou que o documento apresentava “alucinações”, termo usado para descrever quando sistemas de IA inventam informações.

Crédito da imagem: Tribunal de Justiça do Estado do Ceará – TJCE

Artigo Anterior

Receita Federal aposta em IA para transformar dados em decisões justas

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *