Um golpe envolvendo o aplicativo da Uber revelou como a inteligência artificial pode ser usada para burlar sistemas de segurança. Policiais civis da Delegacia de Defraudações (DDEF) deflagraram, na semana passada, a ‘Operação Rota Falsa’ com o objetivo de desmantelar uma sofisticada rede criminosa que realizava fraudes contra a empresa de aplicativo de transporte.
As investigações apontaram que os suspeitos exploravam uma vulnerabilidade no sistema de pagamentos via Pix do aplicativo. Eles utilizavam contas fraudulentas, tanto de motoristas como de passageiros, para fazer pedidos de corridas, mas acrescentavam múltiplas paradas durante o trajeto, o que fazia o valor final da viagem disparar. No final da corrida, a empresa responsável pela plataforma cobria o pagamento integral das paradas ao falso motorista, mas a quantia permanecia pendente na conta do passageiro, que não efetuava o pagamento e abandonava a conta, tornando-a inativa.
Segundo os agentes, a empresa de tecnologia identificou mais de 2.000 corridas com indícios fraudulentos. Os suspeitos abriram 480 contas em nomes de falsos motoristas e passageiros e, entre essas, 478 foram criadas do endereço residencial de um dos investigados. Os policiais ainda identificaram que grande parte das contas bancárias vinculadas no aplicativo era de uma outra integrante dessa quadrilha. Um dos alvos movimentou mais de R$ 730 mil em sua conta-corrente.
De acordo com o especialista em prevenção a fraudes Renato Peres, o esquema envolvia a criação de contas falsas usando dados manipulados com IA.
“As contas eram registradas com o endereço de um suspeito e dados bancários de pessoas aliciadas. Durante o processo de cadastro — conhecido como onboarding — a Uber exige biometria facial e envio de documentos”, explica o especialista. No entanto, os golpistas usaram imagens criadas por inteligência artificial para gerar rostos e documentos falsos, criando identidades sintéticas.
Peres comenta que o sistema de biometria facial inclui três etapas principais: prova de vida (liveness), comparação facial (facematch) e proteção contra fraudes no ambiente digital. “A falha aconteceu na prova de vida, que foi enganada com o uso de uma foto impressa sobre o rosto de uma pessoa. Com isso, todo o processo de verificação foi comprometido”, alerta.
Outro ponto que levanta dúvidas, segundo o especialista, é como passageiros falsos eram sempre conectados a motoristas também falsos, já que o aplicativo, em teoria, faz esse pareamento de forma aleatória e automática. Isso pode indicar uma manipulação no sistema da plataforma ou o uso de IA para rejeitar corridas reais.
Renato Peres alerta que o caso mostra a necessidade de reforçar os sistemas de segurança digital, principalmente frente ao avanço de ferramentas de inteligência artificial usadas para fraudes.
Por meio de nota oficial, a Uber disse que os mecanismos antifraude da plataforma detectaram os casos relatados, o que fez com que a empresa realizasse a denúncia para as autoridades competentes. A Uber vem colaborando de forma ativa com a polícia para a identificação dos suspeitos, sempre respeitando os termos da lei.
Crédito da imagem: Pexels