Como evitar cair em golpes com vozes clonadas e deepfakes

Como evitar cair em golpes com vozes clonadas e deepfakes

Golpes com vozes clonadas e vídeos falsos gerados por Inteligência Artificial estão assustando usuários no Brasil. A tecnologia, antes restrita ao cinema, virou ferramenta para enganar parentes, amigos e até executivos de grandes empresas.

Segundo Ubiratan Cascales, especialista em inteligência de ameaças da Apura, esses crimes cresceram rapidamente. “Já temos relatos de pessoas que perderam dinheiro após falarem por videochamada com alguém que parecia ser da família — mas era tudo deepfake”, explica.

O que são vozes clonadas e deepfakes?

As vozes clonadas são áudios criados por IA que imitam a fala de uma pessoa com base em poucos segundos de gravação. Já os deepfakes são vídeos manipulados para recriar rostos e expressões com alto realismo.

Hoje, qualquer pessoa pode acessar essas ferramentas online. Basta digitar um texto e a IA cria um vídeo convincente com imagem e voz simuladas.

Tipos de golpes que mais crescem no Brasil

Criminosos usam essa tecnologia para aplicar diferentes tipos de fraudes, como:

  • Pedidos de dinheiro com voz clonada de filhos, pais ou cônjuges
  • Vídeos falsos com executivos autorizando transferências bancárias
  • Golpes de relacionamento emocional com imagens e vozes manipuladas
  • Promoções falsas para coletar dados de voz e imagem das vítimas
deepfake – Créditos: depositphotos.com / ramirezom

Como se proteger dessas fraudes digitais?

Para evitar cair nesses golpes, os especialistas recomendam:

  • Desconfie de pedidos urgentes, mesmo que pareçam vir de conhecidos
  • Desligue a ligação e confirme por outro canal, como uma chamada de vídeo real
  • Mantenha suas redes sociais privadas e limite quem pode ver suas fotos e publicações
  • Evite publicar áudios e vídeos com sua voz, que podem ser usados para treinar IAs
  • Nunca transfira dinheiro por impulso. Respire, confirme e só depois tome uma decisão

Setores mais visados e por que todos estão em risco

O setor financeiro lidera as tentativas de fraudes com IA, mas nenhum segmento está fora da mira. Até pequenos negócios, como restaurantes, já foram alvos de golpes sofisticados com engenharia social.

Ubiratan reforça: “O criminoso não precisa invadir sistemas. Ele manipula a vítima emocionalmente para obter o que quer”.

Para empresas e governos, a recomendação é clara: investir em segurança preditiva. Monitorar ameaças antes que virem ataques é a principal defesa.

O post Como evitar cair em golpes com vozes clonadas e deepfakes apareceu primeiro em BM&C NEWS.

Adicionar aos favoritos o Link permanente.