21.06.2025
Mirjan Hipolito
Trader de criptomoedas e ações
21.06.2025

Quando a chamada de vídeo não é mais uma prova: Como os deepfakes ameaçam o setor de criptografia

Quando a chamada de vídeo não é mais uma prova: Como os deepfakes ameaçam o setor de criptografia Como os ataques orientados por IA estão reformulando a segurança de criptografia

Houve uma época em que as chamadas com vídeo serviam como uma proteção extra contra golpistas. Se você visse alguém ao vivo na tela, presumia que estava falando com uma pessoa real. Mas a tecnologia evoluiu, e o que era considerado seguro há pouco tempo não garante mais a segurança.

O ex-CEO da Binance, Changpeng Zhao, chamou a atenção para uma nova onda de fraudes que está ganhando força: o uso de vídeos deepfake em tempo real para atingir e comprometer membros da comunidade de criptomoedas. De acordo com Zhao, até mesmo a verificação por vídeo pode se tornar sem sentido em breve. Se um rosto e uma voz podem ser falsificados de forma convincente, como alguém pode ter certeza de com quem está realmente falando?

Ataques reais não são mais raros

Essa não é apenas uma ameaça hipotética. A influenciadora de criptografia japonesa Mai Fujimoto perdeu o acesso à sua carteira do Telegram e do Metamask depois de participar de uma chamada do Zoom com uma versão deepfake de alguém em quem ela confiava. Ela foi induzida a clicar em um link de "atualização" depois de se esforçar para ouvir o áudio. Antes de entrar na chamada, Fujimoto não havia percebido que a conta do Telegram de sua conhecida já havia sido hackeada.

"Ela me enviou o link e me instruiu a seguir algumas etapas para ajustar as configurações de áudio, e acredito que foi quando o ataque comprometeu meu computador."

Os ataques de deepfake estão cada vez mais direcionados a funcionários de empresas de criptografia, fundos e bolsas. Em um caso recente, agentes mal-intencionados se fizeram passar por executivos de um fundo de criptografia em várias chamadas pelo Zoom, convencendo um membro da equipe a instalar o software de que precisavam. O resultado: um keylogger, um gravador de tela e o roubo de chaves privadas.

Quase tudo pode ser falsificado

O problema é que o modelo tradicional de confiança digital não funciona mais. Um rosto, um nome de usuário, uma voz - tudo isso agora pode ser falsificado de forma convincente. Os modernos algoritmos de deepfake podem não apenas replicar o tom e as expressões faciais de alguém, mas também se adaptar em tempo real às reações da pessoa. Isso significa que o contato visual e sonoro não é mais um indicador confiável de autenticidade.

Embora os ambientes corporativos ainda possam implementar a verificação em vários níveis, usando plataformas internas, tokens de acesso ou canais de confirmação de backup, as conversas informais e a comunicação pessoal geralmente dependem apenas da confiança. É exatamente isso que torna os usuários vulneráveis: a familiaridade com a "voz" ou o "rosto" de alguém já proporcionou uma sensação de segurança, mas agora pode se tornar um ponto fraco.

A tecnologia está avançando ainda mais. Alguns plug-ins agora podem gerar rostos hiper-realistas durante as chamadas de vídeo, simulando movimentos dos olhos, piscadas e até mesmo atrasos no áudio, tudo para criar a ilusão de uma conversa ao vivo. E essa ilusão pode ser suficiente para convencer alguém a conceder acesso ou realizar uma ação perigosa sem suspeitar de nada.

A higiene cibernética não é mais opcional

O apelo de Zhao para nunca instalar software de fontes não oficiais não é mais apenas um lembrete geral - é um requisito básico para a higiene cibernética. Em um mundo em que até mesmo as chamadas de vídeo podem ser comprometidas, a única proteção eficaz é o pensamento crítico e protocolos claros de comportamento digital.

Isso significa evitar completamente

- instalar qualquer software a partir de links recebidos em mensagens privadas;

- digitar senhas ou códigos durante uma chamada de vídeo;

- pular um canal de confirmação secundário (como uma mensagem separada ou uma chamada por meio de outra plataforma).

Enquanto isso, as empresas devem introduzir políticas internas de verificação de identidade, mesmo quando a voz parecer familiar, adotar ferramentas de monitoramento de comportamento e treinar equipes para reconhecer sinais de falsificação de identidade.

Ainda não existe uma lei que exija isso. Mas a realidade exige - e o custo de um erro é medido não apenas em fundos perdidos, mas em reputação e continuidade dos negócios.

Este material pode conter opiniões de terceiros, não constitui aconselhamento financeiro e pode incluir conteúdo patrocinado.