IA revive golpes e pesquisadores alertam para risco

A inteligência artificial (IA) se tornou uma ferramenta poderosa, sobretudo, para criminosos. Pesquisas recentes apontam que, embora não tenha criado novas fraudes, a IA tornou os golpes antigos muito mais convincentes, realistas e difíceis de identificar.

Casos como falsas ofertas de emprego, clonagem de voz e vídeos adulterados com deepfake estão entre os mais comuns.

Gabriel Aguilar é professor da Universidade do Texas em Arlington. Segundo ele, os golpistas passaram a combinar o poder da IA com táticas clássicas de manipulação humana, criando assim, o que ele chama de “parcerias criativas”.

Aguilar, inclusive, quase foi vítima de um golpe desse tipo. Hoje dedica sua pesquisa a ensinar como reconhecer sinais de fraude e aumentar a alfabetização digital.

Deepfakes e clonagem de voz estão entre as novas armas de golpes clássicos

A combinação entre IA e engenharia social transformou golpes simples em armadilhas sofisticadas.

Isso porque o uso de clonagem de voz permite simular ligações de parentes ou chefes pedindo transferências urgentes.

Já os deepfakes, que são vídeos realistas com rostos falsificados, ajudam na criação de identidades e depoimentos falsos em redes sociais.

Em 2025, uma empresa no Reino Unido perdeu US$ 25 milhões após um funcionário participar de uma videoconferência com supostos diretores. Mas na verdade eram deepfakes.

No Brasil, quadrilhas têm usado IA para animar fotos retiradas de redes sociais e enganar sistemas de reconhecimento facial em bancos e aplicativos.

De acordo com um relatório da Microsoft, o número de golpes automatizados com IA cresceu mais de 140% em um ano. Eles chegam com prejuízos bilionários em fraudes envolvendo e-commerce, criptomoedas e vagas falsas de trabalho.

Por que os golpes ficaram mais convincentes?

Antes, mensagens fraudulentas costumavam ter erros evidentes, como por exemplo, português mal escrito, imagens distorcidas e informações genéricas.

Hoje, a IA personaliza cada ataque, gerando textos naturais, ajustando o tom de linguagem e até imitando estilos de comunicação específicos.

Essas tecnologias permitem que golpistas atuem em escala, atingindo milhares de pessoas de forma automatizada. Isso explica por que mesmo usuários experientes têm caído em fraudes recentes.

Além disso, os sistemas de detecção tradicionais estão sob pressão, uma vez que modelos adversariais de IA conseguem burlar algoritmos de segurança.

O alerta dos pesquisadores: educação é o melhor antivírus

Para Aguilar e outros especialistas, o caminho mais eficaz para conter essa onda é educar a população sobre como a IA funciona.

Ele criou uma estrutura didática para professores de comunicação técnica e profissional com foco em alfabetização em IA — ou seja, a capacidade de entender, questionar e reconhecer conteúdos gerados artificialmente.

A escrita técnica é uma ferramenta para ajudar as pessoas a pensar e perceber quando algo parece bom demais para ser verdade”, afirmou o pesquisador em entrevista ao TechXplore.

A proposta é simples: quanto mais pessoas compreenderem as possibilidades e os limites da IA, menor será o poder de manipulação dos criminosos.

Como se proteger de golpes aprimorados pela IA?

Para não cair em armadilhas cada vez mais sofisticadas, especialistas recomendam atenção redobrada aos seguintes pontos:

  • Desconfie de oportunidades “incríveis demais” — principalmente vagas que exigem pagamento antecipado.
  • Confirme a identidade de quem entra em contato, ligando por outro canal ou número já conhecido.
  • Evite compartilhar áudios e vídeos pessoais publicamente, que podem servir para clonagem de voz ou deepfake.
  • Ative autenticação multifator (2FA) em contas bancárias e redes sociais.
  • Mantenha-se informado sobre novas técnicas de fraude digital e atualize senhas com frequência.

Empresas e governos também têm papel crucial nesse cenário.

É fundamental investir em ferramentas de detecção de manipulação, legislação específica para uso indevido de IA. E claro, programas públicos de educação digital e segurança cibernética.

Pessoa em frente à tela vendo o golpe por IA
Golpe por IA ─ Imagem: Geração/FDR

IA: ferramenta ou ameaça, depende de quem usa

A inteligência artificial está no centro de uma revolução, mas também de uma crise ética. Ao mesmo tempo que potencializa avanços em saúde, educação e produtividade, ela amplifica os riscos quando cai em mãos erradas.

Para os pesquisadores, o desafio dos próximos anos será equilibrar inovação e responsabilidade.

O que antes era “golpe de estelionatário de esquina” agora pode vir de um computador a quilômetros de distância, com voz, rosto e discurso perfeitos.

A fronteira entre o real e o artificial nunca foi tão tênue, por isso, entender essa diferença pode ser a melhor forma de defesa.

Moysés BatistaMoysés Batista
Moysés é Bacharel em Letras pela Universidade Federal do Estado do Rio de Janeiro (UNIRIO). Além de ter entregue mais de 10 mil artigos em SEO nos últimos anos, tem se especializado na produção de conteúdo sobre benefícios sociais, crédito e notícias nacionais.