Golpistas usam IA para cometer crimes, saiba como se proteger

Golpistas usam a inteligência artificial para cometer atos ilícitos e gerar prejuízo financeiro e desinformação
Crimes cibernéticos - Crédito Pexels

A era da inteligência artificial é aqui e agora, mas nem tudo são flores nesta ferramenta que promete revolucionar as relações. A novidade está sendo utilizada também para cometer golpes e atos ilícitos. Uma das práticas é a phishing, ou seja, o uso da IA para criar e-mails e mensagens mais convincentes e personalizadas, aumentando a eficácia dos golpes.

Outra prática conhecida são as deepfakes. Neste caso, a IA pode ser usada para criar vídeos e áudios falsos que parecem reais, o que pode ser usado para difamar pessoas ou criar conteúdo que não são verdadeiros.

Há, ainda, os golpes financeiros, quando a IA é usada para analisar dados e identificar vulnerabilidades, permitindo que fraudadores realizem ataques mais precisos. Além do hackeamento, quando a ferramenta automatiza ataques cibernéticos e identifica vulnerabilidades em sistemas de segurança; e da propaganda e desinformação.

Recentemente, têm se tornado comuns os relatos de criminosos que utilizam IA generativa para simular vozes de parentes, superiores hierárquicos ou figuras públicas, com o objetivo de enganar vítimas e obter vantagens indevidas, tais como transferências bancárias ou acesso a dados confidenciais.

Há casos, por exemplo, em que golpistas clonam a voz de um filho ou filha e telefonam para os pais fingindo uma situação de emergência, solicitando dinheiro. Em ambientes corporativos, alguns casos envolvem a clonagem de vozes de CEOs ou diretores para induzir colaboradores a efetuar pagamentos indevidos. Além disso, o uso de “deepfakes” — vídeos realistas criados por IA que reproduzem rostos e falas de pessoas reais — também tem sido associado a fraudes, extorsões e difamações.

“No Brasil, golpistas utilizam trechos curtos de áudio, obtidos em redes sociais para criar conversas realistas e fazem ligações solicitando transferências bancárias ou informações sensíveis”, alerta Luiz Augusto Rutis, advogado criminalista.

Vale lembrar que segundo o Sterling Bank, no Reino Unido, criminosos conseguem reproduzir a voz de uma pessoa com apenas três segundos de áudio.

“No Reino Unido, um CEO de uma empresa energética foi vítima de um golpe em que criminosos usaram IA para clonar a voz do chefe da empresa matriz, localizada na Alemanha. O golpista convenceu o executivo a transferir €220 mil para uma conta fraudulenta, simulando urgência em três ligações telefônicas. O dinheiro foi posteriormente transferido para contas em outros países, como México”, relembra Rutis.

Como se proteger

Para o advogado Newton de Souza Pavan, sócio na Pavan, Lapetina e Silveira Advogados, algumas medidas preventivas podem ajudar a dificultar a ação dos golpistas.

“Há dicas importantes e que ajudam. Sempre que receber uma solicitação urgente – especialmente envolvendo transferências financeiras – é essencial confirmar a veracidade por outros meios, como mensagens de texto, ligações ou vídeo chamadas”, ensina o especialista.

No ambiente corporativo, diz ele, é indispensável que as empresas adotem protocolos rígidos de verificação para ordens de pagamento, liberação de informações confidenciais ou alterações em cadastros financeiros.

“As soluções tecnológicas como softwares antifraude, autenticação biométrica e sistemas capazes de identificar conteúdos gerados por IA devem ser incorporadas tanto por organizações quanto por usuários individuais”, recomenda. “Tanto no ambiente doméstico quanto no corporativo é importante promover a conscientização sobre esses tipos de golpe e as medidas de prevenção”, complementa o advogado.

Previsão legal

Hoje, embora ainda não exista uma norma penal específica voltada aos crimes praticados com o uso de IA, a legislação brasileira já dispõe de meios para responsabilização dos envolvidos.

Assim, segundo Pavan, os crimes cometidos com o auxílio da IA podem ser enquadrados em tipos penais já previstos no ordenamento jurídico. São eles:

  • estelionato, quando a IA é utilizada como instrumento de fraude para obtenção de vantagem ilícita, mediante engano da vítima;
  • falsidade ideológica ou documental quando há manipulação ou criação de documentos e informações falsas, inclusive por meio de imagens e vídeos adulterados;
  • invasão de dispositivo informático, que abrange o acesso não autorizado a dispositivos ou sistemas com a finalidade de coletar, alterar ou destruir dados;
  • e crimes contra a honra – calúnia, difamação ou injúria aplicáveis em casos em que “deepfakes” são utilizados para imputar falsamente fatos ofensivos à reputação de terceiros.

“Além do Código Penal, o ordenamento jurídico conta com outras normas relevantes, como o Marco Civil da Internet (Lei 12.965/14) e a Lei Geral de Proteção de Dados Pessoais – LGPD (Lei 13.709/18), que estabelecem princípios e diretrizes sobre a proteção de dados, privacidade e responsabilização pelo uso indevido de informações pessoais”, destaca Pavan.

Para ele, é importante destacar que há projetos legislativos em tramitação buscando regulamentar o uso da inteligência artificial no Brasil, inclusive sob a ótica penal. No entanto, reforça Pavan, até que essas propostas se concretizem, a interpretação extensiva e sistemática das normas já existentes é o instrumento mais eficaz para responsabilizar condutas ilícitas envolvendo tecnologias emergentes.

“Falando da legislação brasileira, o que me parece mais relevante é a criminalização desse tipo de fraude no artigo 171, parágrafo 2º-A do Código Penal com uma pena de 4 a 8 anos. Além disso, cabe às empresas – bancos, sites de grandes varejistas – adotarem formas de controle que resguardem os usuários de golpes dessa espécie”, considera Rutis.

“De toda forma, nesse tipo de caso, a tecnologia corre e o direito engatinha, de modo que o melhor remédio é a prevenção”, conclui Rutis.

Artigo Anterior

Yamaha: fundo de US$ 50 milhões para investir em startups de música

Próximo Artigo

Advocacia em transformação: IA pressiona por novas habilidades

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *