A popularização da inteligência artificial (IA) em serviços essenciais — como diagnósticos médicos, concessão de crédito e plataformas digitais — tem colocado juristas diante de um novo desafio: como responsabilizar agentes públicos e privados por danos decorrentes de sistemas opacos e automatizados?
De acordo com especialistas ouvidos pelo Portal Intelligence.Garden, , embora a tecnologia esteja cada vez mais presente no cotidiano, seu uso não afasta obrigações legais tradicionais. O “tripé” clássico da responsabilidade civil — culpa, dano e nexo causal — permanece em vigor. Porém, identificar a origem do erro em sistemas baseados em machine learning, conhecidos como “caixas-pretas”, impõe dificuldades adicionais
Para alguns juristas, a IA deve ser encarada como ferramenta, e não como agente autônomo. Assim, ainda que o algoritmo execute decisões, a responsabilidade recai sobre a pessoa ou instituição que o utiliza. Exemplo recorrente é o de bancos que negam crédito com base em modelos preditivos: mesmo sem compreender totalmente o funcionamento do algoritmo, a instituição assume o risco por seu uso e, portanto, pode ser responsabilizada diante de falhas.
Mestre em Direito pela UFSC e especialista em Direito Imobiliário pela EPD , o advogado Bruno Carreirão afirma que ainda é muito difícil responder a essa questão sem estar diante de um caso concreto, pois tudo depende das circunstâncias do dano que foi causado. Para o advogado, a IA deve ser encarada como ferramenta. “Me parece difícil pensar em uma situação em que a própria ferramenta causa um dano diretamente. Na maior parte das vezes, o dano é causado por alguém que a utilizou. Nesses casos, penso que é na conduta do usuário que se deve aferir se houve culpa”, diz.

Nas relações de consumo o advogado considera inevitável o reconhecimento da responsabilidade objetiva, deslocando para o fornecedor de serviço o ônus de comprovar a ausência de culpa. Ele cita um exemplo prático: “Vamos imaginar que um banco faz uma análise de crédito automatizada por IA e nega crédito a um cliente bom pagador, com excelente score e histórico de adimplência de suas obrigações financeiras. A IA é ferramenta. Quem efetivamente negou o crédito foi a instituição financeira. Mesmo que tenha utilizado IA como ferramenta, a conduta danosa foi praticada pelo banco. Ao utilizar tal ferramenta, com ganho de tempo e produtividade, o banco também assume o risco de ser responsabilizado por eventuais falhas”.
A partir daí, abre-se margem para ações de regresso contra as empresas que criaram a tecnologia, especialmente se o problema estiver ligado ao tratamento inadequado de dados pessoais, em desacordo com a Lei Geral de Proteção de Dados (LGPD)
Decisões judiciais recentes envolvendo bloqueios algorítmicos em plataformas como Uber e iFood têm reforçado a importância da transparência. A ausência de explicações claras sobre como e por que um usuário foi penalizado tem levado tribunais a condenar empresas, sinalizando que o Judiciário pode adotar linha semelhante em casos envolvendo IA mais complexa.

A advogada Larissa Pigão, especialista em Direito Digital e Proteção de Dados, também considera que o uso crescente da IA em áreas sensíveis, como saúde, crédito e mobilidade, traz novos desafios à responsabilidade civil. Para ela, o modelo clássico, baseado em culpa, nexo causal e dano, não se ajusta bem a sistemas que aprendem sozinhos e operam como “caixas-pretas”.
Nesses casos, segundo ela, o foco tende a migrar para a responsabilidade objetiva, especialmente quando a atividade envolve risco. “O desenvolvedor pode responder por falhas no projeto ou no treinamento do sistema, enquanto a empresa que o utiliza responde por uso inadequado, falta de supervisão humana ou ausência de testes”.
Como é difícil provar a culpa em sistemas complexos, o Judiciário tende a inverter o ônus da prova, exigindo que os responsáveis demonstrem que adotaram medidas de segurança, transparência e controle. “O essencial é reconhecer que a IA não elimina a responsabilidade, apenas redistribui deveres e reforça a necessidade de governança e diligência tecnológica”, ressalta Larissa Pigão.
Posicionamento dos tribunais
A tendência observada em decisões de tribunais que condenam plataformas como Uber e iFood por bloqueios algorítmicos — especialmente diante da falta de transparência e de possibilidade de ampla defesa — indica o caminho pelo qual o Judiciário deve avançar em casos envolvendo danos provocados por sistemas de IA mais complexos.
“Esse parece que é o caminho mais provável. Eu diria que a opacidade dos algoritmos é a questão mais complexa quando se trata de responsabilidade civil envolvendo IA, pois há conflito entre a necessidade de preservar informações estratégicas e segredo industrial da desenvolvedora e a necessidade de transparência para aferir a culpa. De modo geral, tenho a impressão de que quanto maior for o grau de proteção às informações estratégicas, maior vai ser o risco da desenvolvedora. Há aí uma relação de ônus e bônus que deve ser sopesado por cada desenvolvedor”, aponta Bruno Carreirão
A LGPD também surge como peça central nesse debate. O direito à revisão de decisões automatizadas obriga empresas a esclarecerem critérios usados em análises que afetam consumidores, como negação de crédito. Para os especialistas, adotar sistemas cujo funcionamento a própria empresa não consegue explicar é um risco jurídico relevante — e potencialmente desfavorável em disputas judiciais
Inversão do ônus da prova deve prevalecer nas relações de consumo
Para o advogado Bruno Carreirão, nas relações de consumo, a inversão do ônus da prova tende a ser praticamente inevitável, já que existe uma evidente assimetria técnica e informacional entre o consumidor e o fornecedor quanto ao funcionamento da IA envolvida.
Em situações fora do âmbito consumerista, o juiz também pode determinar a inversão com base na distribuição dinâmica do ônus da prova prevista no art. 373, §1º, do CPC, conforme as particularidades do caso. Isso porque, na maior parte das demandas que envolvem desenvolvedores de IA, a disparidade técnica para produção da prova é significativa. “Ainda assim, salvo nas relações de consumo, não é possível tratar a inversão como regra geral: sua adoção dependerá sempre das circunstâncias específicas de cada processo”, diz.
A atual postura do STJ, que tem anulado condenações baseadas exclusivamente em reconhecimento facial devido ao risco de viés e erro, tende a influenciar também a esfera cível. A margem de erro dos sistemas de IA não pode ser ignorada, seja em processos criminais ou cíveis. Assim, tanto os desenvolvedores quanto as empresas que utilizam essa tecnologia assumem o risco decorrente de suas limitações.
No âmbito civil, esse ceticismo judicial tende a desfavorecer quem é acusado de causar o dano, uma vez que o Judiciário passa a exigir demonstrações mais robustas de cautela no uso da IA como forma de afastar a responsabilidade indenizatória.
Atualmente, a margem de erro das IA é um fator que não pode ser desconsiderado, seja nos processos cíveis ou criminais. Os desenvolvedores da IA, bem como as empresas que contratam ferramentas de IA para tomadas de decisão, ao terem ciência dessa margem de erro, assumem esse risco. “Por isso, no cível, penso que esse ceticismo é desfavorável a quem está sendo acusado de praticar o dano, pois induz o Poder Judiciário a exigir comprovação de maiores cautelas no uso da IA para afastar o dever de indenizar. Com a evolução das IAs, tenho a impressão de que essa margem de erro tenderá a diminuir, reduzindo também o risco e o ceticismo do Poder Judiciário”.
Governança interna para mitigar riscos da IA
Para mitigar riscos no uso de sistemas de inteligência artificial, o principal foco das empresas deve estar na criação de processos internos bem estruturados, voltados à qualidade e à governança. É isso que permitirá demonstrar que foram adotadas todas as cautelas necessárias no uso responsável da tecnologia e na prevenção de falhas.
Para quem contrata as ferramentas de IA, o foco deve estar na estruturação de processos internos bem definidos de qualidade e governança, de modo a possibilitar a comprovação de que a empresa adotou todas as cautelas necessárias para utilizar a ferramenta de forma responsável e agiu para mitigar possíveis falhas.
Na avaliação de Carreirão, cláusulas contratuais que tentam limitar responsabilidades das empresas caso algo dê errado com o uso da inteligência artificial, tem pouco efeito na prática. Isso porque o Poder Judiciário tende a não aceitar cláusulas que limitem a responsabilidade das empresas quando ocorre um dano ao consumidor porque a lei protege o consumidor e permite responsabilizar tanto a empresa que usou a IA quanto a que a desenvolveu.
“Penso que os contratos têm importância secundária, pois não vejo como provável que cláusulas que limitem a responsabilidade sejam bem aceitas pelo Poder Judiciário. Sobretudo em casos de relação de consumo, além da responsabilidade objetiva e da inversão do ônus da prova, há ainda a possibilidade de responsabilização solidária entre a empresa que causou o dano e o desenvolvedor da IA, por força do art. 7º, parágrafo único, e do art. 25, § 1º, do CDC. Nesses casos, cláusulas contratuais de limitação de responsabilidade serão de pouca valia”, conclui o advogado.