02 de outubro, 2025

Últimas:

Golpistas usam deepfakes para aplicar golpes milionários em diferentes setores

Golpistas usam deepfakes para aplicar golpes milionários em diferentes setores

Anúncios

O avanço da inteligência artificial tem dado aos cibercriminosos uma ferramenta poderosa para aplicar fraudes cada vez mais convincentes: as deepfakes. A técnica, que utiliza IA para criar vídeos e áudios falsos capazes de replicar a imagem e a voz de pessoas reais, vem sendo explorada em golpes milionários contra empresas, em campanhas de desinformação e até em ataques direcionados a escolas. A ESET alerta que os casos se multiplicam e já envolvem desde celebridades mundiais até executivos de grandes corporações.

Nos últimos meses, anúncios falsos com a imagem do jogador Lionel Messi circularam no Instagram, promovendo um aplicativo de investimentos chamado Wildcat Dive. No vídeo adulterado, Messi afirmava que a plataforma era uma de suas principais fontes de renda. O deepfake foi construído a partir de uma entrevista real do atleta a um programa de streaming argentino. De forma semelhante, fraudes envolvendo o empresário Elon Musk em anúncios de criptomoedas na rede social X (antigo Twitter) e no YouTube levaram mais de 7 mil pessoas a perder cerca de US$ 80 milhões, segundo a Federal Trade Commission.

Anúncios

Empresas globais também foram alvo de golpes sofisticados. Em Hong Kong, um funcionário financeiro da Arup autorizou 15 transferências bancárias que somaram mais de US$ 25 milhões após participar de uma videoconferência acreditando falar com o diretor financeiro, que, na verdade, era um deepfake. Na Ferrari, criminosos imitaram a voz do CEO Benedetto Vigna em julho de 2024 para tentar convencer executivos a liberar uma transferência milionária, fraude que só foi descoberta devido a uma falha na resposta da IA. A WPP enfrentou ataque similar, no qual criminosos se passaram pelo CFO Mark Read em uma reunião virtual, tentando obter informações confidenciais, sem sucesso, graças ao treinamento dos colaboradores.

O uso de deepfakes não se restringe ao mundo corporativo. Nos Estados Unidos, o diretor de uma escola em Baltimore foi vítima de um áudio manipulado que sugeria comentários racistas e antissemitas, gerando ameaças de morte, até que autoridades confirmaram que a gravação era falsa. Em outro episódio de alcance internacional, durante a guerra entre Rússia e Ucrânia, um vídeo adulterado mostrava o presidente ucraniano Volodymyr Zelensky pedindo que suas tropas se rendessem, sendo necessário publicar um vídeo oficial para desmentir a manipulação.

Anúncios

“Com a evolução da inteligência artificial, esses conteúdos ficam cada vez mais realistas e difíceis de identificar. Muitos exploram a imagem de figuras públicas ou entidades de renome dizendo algo falso, como parte de um golpe que busca obter dinheiro ou informações sensíveis”, afirma Daniel Barbosa, especialista em segurança da informação da ESET Brasil. Segundo ele, embora cada caso tenha suas particularidades, o padrão é claro: criminosos exploram rostos e vozes reconhecidos para dar credibilidade a golpes.

Segundo a ESET, para reduzir riscos, é necessária atenção a sinais visuais: falhas na imagem, má sincronização de áudio e baixa resolução podem indicar que o conteúdo foi adulterado. A empresa recomenda que, no ambiente corporativo, equipes recebam capacitação contínua para reconhecer sinais de fraude e identificar deepfakes. A utilização de palavras-chave ou códigos internos também pode ajudar a verificar a identidade de interlocutores.

Além disso, a ESET reforça que é importante desconfiar de anúncios chamativos que prometem ganhos grandes demais para serem verdade, sobretudo quando envolvem personalidades de renome mundial, e orienta a adoção de soluções de segurança em todos os dispositivos, capazes de bloquear sites falsos e e-mails maliciosos.

Talvez te interesse

Últimas

Categorias